miércoles, 29 de febrero de 2012

Niveles de Madurez de una Empresa



v  CONTROL. Control y centralización e integración de la información y/o procesos que tiene en sus diferentes áreas.
v  PRODUCTIVIDAD. Búsqueda de análisis de visiones y escenarios creados a partir de los resultados de la etapa de Control.
v  RELACIÓN. Planeación, ejecución y seguimiento de los planes de acción referentes a cada uno de esos agentes
v  COLABORACIÓN. Integración entre agentes externos e internos hacia la organización, para la creación de valor en procesos, productos y resultados de todos los involucrados.

Estructura Matricial

Es una estructura organizacional que usa tanto gerentes funcionales como gerentes de proyecto para gerenciar a los mismos recursos, de forma que si existen N proyectos en curso en la organización, existen N gerentes de proyecto que coordinan N equipos compuestos por recursos provenientes de las áreas funcionales. El resto de los recursos permanece en su área funcional de la organización, bajo la coordinación del gerente funcional.


El grado de independencia de los gerentes de proyecto con respecto a los gerentes funcionales determina si estamos hablando de una organización matricial fuerte o débil.
v  Fuerte: Contienen características de las organizaciones orientadas a proyectos. Donde los gerentes de proyecto tienen dedicación completa y la libertad total de decisión con respecto al uso del tiempo de los recursos del proyecto así como al personal administrativo.
Débil: mantienen muchas de las características de las organizaciones funcionales  y el director del proyecto es más un coordinador que un director.

Tipos de Data Center


Tier I: Datacenter Básico
La infraestructura de comunicaciones será distribuida de la sala de entrada (ER) para las áreas de distribución horizontal (HDA) a través de una única ruta.
No existe redundancia de rutas físicas o lógicas.
Estima un nivel mínimo de distribución de energía eléctrica para atender exigencias de capacidad eléctrica, con pequeña o ninguna redundancia. En este caso, una falla eléctrica o una reparación podrán ocasionar la interrupción parcial o total de las operaciones. No es necesaria redundancia de alimentación de energía en la entrada de la empresa.
La infraestructura deberá estar fuera de servicio al menos una vez al año por razones de mantenimiento y/o reparaciones.  Errores de operación o fallas en los componentes de su infraestructura causarán la interrupción.
Debe prever un sistema de acondicionamiento de aire simples/múltiples con capacidad de enfriamiento combinada  para mantener la temperatura y la humedad relativa de las áreas críticas en las condiciones proyectadas, sin unidades redundantes. 
La tasa de disponibilidad máxima es 99.671
Los potenciales puntos de falla son:
  • Falla de energía de la concesionaria en el Data Center o en la Central de la Operadora de Telecomunicaciones;
  • Falla de equipamientos de la Operadora;
  • Falla en los Routers o conmutadores no redundantes;
Cualquier evento catastrófico en las rutas de interconexión o en las áreas ER, MDA, HDA, ZDA, EDA; 





Tier II: Componentes Redundantes

Los equipamientos de telecomunicaciones del Data Center y también los equipamientos de la operadora de  telecomunicaciones, así como los conmutadores LAN-SAN deben tener módulos redundantes (fuentes de energía, placas procesadoras, de supervisión, de uplink, de acceso).
 Conexiones redundantes pueden estar en los mismos cables.   Debe tener dos cajas de acceso de  telecomunicaciones y dos caminos de entrada hasta la ER. Es recomendable que haya una separación física de al menos 20m entre estos. Debe proveer módulos UPS redundantes para N+1. Es necesario un sistema de  generador eléctrico dimensionado para  controlar todas las cargas, mientras no sea necesario conjunto de generadores redundantes. No es necesaria ninguna redundancia en la entrada de servicio de distribución de energía.
 Los sistemas de aire acondicionado deben ser proyectados para la operación continua 7 días/ 24 horas/ 365 días/año e incorporan un mínimo de redundancia N+1. La tasa de disponibilidad máxima 99.741

 Posible punto de falla para esta instalación:
·         Fallas en los sistemas de aire acondicionado o de energía pueden ocasionar fallas en todos los demás componentes.
·         Mantenimiento en la línea de distribución eléctrica o en otros componentes de la infraestructura, pueden causar una interrupción del servicio. 

Tier III: Mantenimiento Concurrente (Sistema Auto Soportado)

Debe ser atendido por lo menos dos operadoras de telecomunicación. No es permitido que los cables de una misma operadora presten servicios a una segunda operadora, para evitar un punto único de falla.
 Debe tener dos salas de entrada (ER) de preferencia en lados opuestos con lo mínimo de 20m de separación física entre las dos entradas. En estas salas no se debe compartir equipamientos de telecomunicación, las salas deben estar en zonas de protección contra incendio, sistemas de energía y aire acondicionado distintos. Los equipos de las operadoras de cada sala de entrada deben funcionar si hubiera problemas en la otra sala.
 Debe proveer rutas redundantes entre las salas de entrada (ER), las salas de conexión principal (MDA) y las salas/áreas de cableado horizontal (HDA). En estas rutas deben tener fibras o pares  de cobre redundantes, dentro de la configuración estrella general. Las conexiones redundantes pueden estar en la misma o en distintas cubiertas de cables. 


Para infraestructuras que utilizan sistemas de enfriamiento por agua. La tasa de disponibilidad máxima 99.982%.
El punto de falla es:
·         Cualquier evento crítico “catástrofe” en la MDA o HDA va a interrumpir los servicios


Tier IV: Tolerante a Fallas (Baja Tolerancia a Fallas)

Requiere dos líneas de distribución simultáneamente activas, típicamente en una configuración System+System.
Todo el cableado del  backbone debe ser redundante, además, él debe ser protegido a través de rutas/ductos cerrados.
Los equipamientos activos (Routers, MODEM de operadoras, switches LAN/SAN) deben ser redundantes y tener alimentación de energía redundante. El sistema debe proveer la conmutación automática para los equipos de backup.
Eléctricamente esto significa dos sistemas de UPS independientes, cada sistema con un nivel de redundancia N+1. La carga máxima de los sistemas en situaciones críticas es de 90%.
Persiste un nivel de exposición a fallas, por el  inicio una alarma de incendio o porque una persona inicie un procedimiento de apagado de emergencia (EPO), los cuales deben existir para cumplir con los códigos de seguridad contra incendios o eléctricos. La tasa de disponibilidad máxima 99.995%
Algunos potenciales puntos simples de falla de una instalación de capa 4 son:
En el caso de no implementar una MDA secundaria, si la MDA primaria tener fallas, el sistema es interrumpido.
En el caso de no implementar una HDA secundaria, si la HDA primaria tener fallas, el sistema es interrumpido.





Utilizacion de índices en Estructuras de Datos: Arbol Binario Arbol AVL y Arbol B


           El índice puede definirse como una entidad que opera con un procedimiento que acepta información acerca de cierto valor de atributo, como entrada, y provee como salida una información que permite la rápida localización del registro de le llama primario al índice que utiliza como entrada la llave primaria y da como salida una información referente a la ubicación física del registro.
           Para que la búsqueda sea más eficiente y reducir el tamaño del archivo índice, los campos referentes a la información asociada se almacenan separadamente, con los cual se tendrá que considerar una colección ante la llave y los datos asociados, esta es a través de un indice.
            Teniendo al apuntador fuera de la estructura de datos se puede calificar al archivo como índice, en cual consiste básicamente en una colección de pares, llaves-dirección.



Arbol Binario
Permite procesar el archivo secuencialmente por orden lógico y también procesarlo aleatoriamente.
 Si se tiene una indexación es conveniente para archivos con mediana volatilidad, actividad variable y tamaño relativamente estable.
Aunque existen desventajas
- Número de accesos en la búsqueda binaria
- Mantener ordenado el archivo de índices

 ARBOL B
            Una de las estructuras que más ampliamente se ha  usado para organizar un índice en un sistema de base de datos y en administradores de archivos tradicionales es el árbol B. (B Tree).
            Un árbol B es una clase especial de árbol multicamino equilibrado que permite recuperar, eliminar e insertar registros de un archivo extremo con buen rendimiento en el peor caso.
Permite mantener ordenado el índice fácilmente
Dependiendo del orden del Arbol B, se puede obtener un gran rendimiento, por ejemplo si tenemos un árbol de orden 25, el nodo tendrá 50 llaves y puede encontrar cualquier llave de entre 1,000,000 con tan solo 4 accesos a disco
         Hay varias formas de organizar las hojas, una de ellas es que el archivo principal esta almacenado solo en las hojas, y que cada hoja ocupa un bloque. También es importante hacer notar si se trata de un índice denso, en tal caso se tendrá que mantener en cada nodo la dirección de la información asociada al valor de la llave, o si se trata de índice disperso donde se tendría ciertos valores de llaves en el índice y en las hojas existirían todos los valores de llaves que propiamente es el archivo principal.


En un árbol B+, todas las llaves en las hojas. Los niveles superiores, los cuales están organizados como un árbol B, consisten únicamente de un índice para localizar rápidamente. 
              La lista de hojas es referida como el conjunto secuencia, lo cual permite un fácil procesamiento secuencial.

              Para el proceso de búsqueda se realiza desde la raíz del árbol a través del índice hasta una hoja. Ya que todas las llaves residen en las hojas, no todos los valores de llaves son encontrados en la trayectoria de búsqueda, si no hasta llegar a la hoja correcta



Conclusion

Teniendo en cuenta la interaccion con la que se cuenta con sistemas de archivos y asi mismo con la información que  en ella existen, los cuales podemos  borrar, modificar y clasificar  de acuerdo  a la información que en ellos contengan podiendo acceder mediante índices es mucha mas rápida.


Hardware versus Software


Como en todo dualismo, siempre ha habido quien ha planteado un pronóstico razonable sobre quién estaba ganando la partida. En el principio, el software era un extra, era impensable cobrar por él y los programadores intercambiaban sus aplicaciones libremente. Cuando el dinero empezó a inundar el sector, las cosas cambiaron y el software empezó a ser un coto cerrado, especialmente los sistemas operativos.

Vender software (antivirus, videojuegos, editores de vídeo).Hay quien dice que vivimos una nueva edad dorada del software. Surgen programas que simplifican el proceso de crear aplicaciones, poniendo al alcance de cualquiera lo que antes solo un experto programador podía hacer. Se extiende el software libre, el que puede ser modificado y mejorado por los propios usuarios.


Los avances del software continúan dejando atrás nuestra habilidad de construir software para alcanzar el potencial del hardware.

Evolucion del Software


Primera Generación
El desarrollo del software se realizaba virtualmente sin ninguna planificación, hasta que los planes comenzaron a descalabrarse y los costes a correr. El software se diseñaba a  medida para cada aplicación y tenía una distribución relativamente pequeña.
La mayoría del software se desarrollaba y era utilizado por la misma persona u organización. La misma persona lo escribía, lo ejecutaba y, si fallaba, lo depuraba. El diseño era un proceso implícito, realizado en la mente de alguien y, la documentación normalmente no existía.

Segunda Generación
Se extienden desde la mitad de la década de los sesenta hasta finales de los setenta. La multiprogramación y los sistemas multiusuario introdujeron nuevos conceptos de interacción hombre - máquina. También se caracterizo por el establecimiento del software como producto y la llegada de las "casas del software". Los patronos de la industria, del gobierno y de la universidad se aprestaban a "desarrollar el mejor paquete de software" y ganar así mucho dinero.

Tercera Generación
La tercera generación de los sistemas de computadora comenzó a mediados de los años setenta y continúo más allá de una década. El sistema distribuido, múltiples computadoras, cada una ejecutando funciones concurrentes y comunicándose con alguna otra, incrementó notablemente la complejidad de los sistemas  informáticos. Las redes de área local y de área global, las comunicaciones digitales de alto ancho de banda y la creciente demanda de acceso "instantáneo" a los datos, supusieron una fuerte presión sobre los desarrolladores del software.
La conclusión de la tercera era se caracterizo por la llegada y amplio uso de los microprocesadores. El microprocesador ha producido un extenso grupo de productos inteligentes, desde automóviles hasta  hornos microondas, desde robots industriales a equipos de diagnósticos de suero sanguíneo.

Cuarta Generación
La cuarta era de la evolución de los sistemas informáticos se aleja de las computadoras individuales y de los programas de computadoras, dirigiéndose al impacto colectivo de las computadoras y del software. Potentes máquinas personales  controladas por sistemas operativos sofisticados, en redes globales y locales, acompañadas por aplicaciones de software avanzadas se han convertido en la norma.



La industria del software ya es la cuna de la economía del mundo. Las técnicas de la cuarta generación para el desarrollo del software están cambiando en la forma en que la comunidad del software construye programas informáticos. Las tecnologías orientadas a objetos están desplazando rápidamente los enfoques de desarrollo de software más convencionales en muchas áreas de aplicaciones.
Sin embargo, un conjunto de problemas relacionados con el software ha persistido a través de la evolución de los sistemas basados en computadora, y estos problemas continúan aumentando:
  • Los avances del software continúan dejando atrás nuestra habilidad de construir software para alcanzar el potencial del hardware.
  • Nuestra habilidad de construir  nuevos programas no pueden ir al mismo ritmo de la demanda de nuevos programas, ni podemos construir programas lo suficientemente rápido como para cumplir las necesidades del mercado y de los negocios.
  • El uso extenso de computadoras ha hecho de la sociedad cada vez más dependiente de la operación fiable del software. Cuando el software falla, pueden ocurrir daños económicos enormes y ocasionar sufrimiento humano.
  • Luchamos por construir  software informático que tengan fiabilidad y alta calidad.
Nuestra habilidad de soportar y mejorar los programas existentes se ve amenazada por diseños pobres y recursos inadecuados.

Evolucion del Hardware


Primera Generación 1951-1958

Estas computadoras empleaban bulbos para procesar información. Le ingresaban los datos y programas en código especial por medio de tarjetas perforadas. IBM tenía el monopolio de los equipos de procesamiento de tarjetas perforadas.
En 1951 aparece la UNIVAC (UNIVERSAL Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos. Las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860−1929), quien además fue el fundador de la compañía IBM (International Bussines Machines).

La computadora más exitosa de la primera generación fue la IBM 650, fue introducida en 1954 y es considerada la razón por la cual IBM disfruta de gran parte del mercado hoy en día.

Características:

       Tarjetas perforadas
       Bulbos
       Tambores magnéticos
       Lentas y grandes
       Lenguaje Máquina
       Costosas
              Monopolio: IBM 



Segunda Generación: 1954-1964

En esta generación las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación.

Algunas de estas computadoras se programaban con cintas perforadas y otras por medio de cableado en un tablero.

Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El software empieza a tratar de alcanzar el paso del hardware. El usuario de las computadoras va cambiando y evolucionando con el tiempo. Aparece el concepto de Hunan Interface que es la relación entre el usuario y su computadora.

Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen en la muñeca. 

Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y más tiempo produciendo. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento, registros, como manejo de inventarios, nómina y contabilidad.

Características:

       Transistores
       Núcleos magnéticos
       Más rápidas
       Más pequeñas
       Lenguaje Fortran, cobol
       Aplicaciones: sistemas de reservaciones, control tráfico,  inventario, nómina, contabilidad.


Tercera Generación

Emergieron con el desarrollo de los circuitos integrados (pastillas de silicio). Esta generación se inaugura con la IBM 360 en abril de 1964. La IBM produce la serie 360 con los modelos que utilizaban técnicas especiales del procesador, unidades de cintas de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares. El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.
En la década de 1970, la IBM produce más computadoras se caracterizaban por ser muy potentes y veloces para su época. Antes de la aparición de los circuitos integrados las computadoras estaban diseñadas para aplicaciones matemáticas y de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas.  A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes. También fueron llamadas Mainframes que significa también, gran sistema.

Características:

       Circuitos integrados
       Más rápidas
       Más pequeñas
       Menos calor
       Más eficientes
       Cintas magnéticas
       Multiprogramación
       Compatibilidad con equipo mayor
       Minicomputadora
            •       Lenguaje programación : alto nivel

Cuarta Generación

Generación en la cual aparecen los microprocesadores, chips de memoria y el micro miniaturización. Dos mejoras a la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de los núcleos magnéticos, por las de chips de silicio y la colocación de muchos más componentes en un solo chip, procediendo a la micro miniaturización de los circuitos electrónicos.
Los microprocesadores fueron un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo cual su uso se extiende al mercado industrial. Aquí es donde nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada  Revolución Informática.
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.
Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas se manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabras, las hojas electrónicas de cálculo, paquetes gráficos, etc.
De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido.
Características:
       Microprocesador
       Más rápidas
       Más pequeñas
       Chips de memoria
       Cintas magnéticas
       Multiprogramación
       Microminiaturización
       Computadoras personales
       Avances tecnológicos en corto tiempo.
       Apple, radio Shack, commodore, etc.
       Sistema operativo MS-DOS
       Interfaces gráficas


Quinta Generación
En esta generación surge la competencia internacional por el dominio del mercado de la computación. En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras.
La capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado  programa de la quinta generación de computadoras, con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados.
En los Estados Unidos ya está en actividadun programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
       Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. 
       Manejo de lenguaje natural y sistemas de inteligencia artificial. 

Esta es la generación en la cual la velocidad de las computadoras ha aumentado de una forma increíblemente rápida.  El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.
Características:
       Computadoras en Paralelo
       Lenguajes programación: orientado a objetos
       Nuevos modelos de memoria que asignan tareas a cada procesador.
       Microprocesadores en paralelo reconocen voz e imágenes.
       Aplicaciones: Procesamiento de lenguaje natural,  sistemas expertos, redes neuronales,  algoritmos genéticos, fibras ópticas, etc. 










Sobrecalentamiento de los Micro_Procesadores


El procesador de una computadora puede llegar a sobrecalentarse debido a la cantidad de procesos y operaciones que en un momento determinado estén ejecutándose. El disipador del procesador produce un ruido debido al giro excesivo que está tratando de realizar para enfriar lo más posible.
El calentamiento del procesador se debe a dos factores:
Conexiones eléctricas entre los transistores y la velocidad de transmisión de datos.
Qué provoca que sobrecaliente
  • Uso de la máquina intensiva, hace que el disco duro, la unidad de procesamiento central (CPU) y sistemas de video en un trabajo de alta capacidad.
  • Uso del equipo en ambientes calientes (Refrigeración Externa).
  • El modelo y el diseño que no permite la ventilación adecuada.
  • Obstrucción de la ventilación existente.
  • Polvo y fibras en el área de ventilación.
  • La conexión de dispositivos USB, y discos duros externos.
Posibles Soluciones
·         Reducción de la velocidad del reloj mediante la BIOS. Esto implica que el rendimiento disminuya.
·         Mantenimiento Constante  del Equipo. Uso regular de pasta térmica
·         Incorporación de Ventiladores Internos.
·         Disipadores de Calor.
·         Actualización de BIOS. 
·         Sistema de Ventilación Eficiente

sábado, 18 de febrero de 2012

Cuatro Factores para un Proyecto de Software Exitoso



Negociación
En esta etapa se identificar rápidamente si el proyecto tiene los argumentos para ser exitoso, o está en riesgo el alcance y las expectativas de ambas partes.
Negociación Interna
Define las directrices de todo lo involucrado en el proyecto: duración pretendida y el presupuesto asignado al proyecto. Esta negociación se da por un intermediario interno con el usuario final. El proyecto debe estar tal fecha, no importa cuando se empiece, ni si están los requerimientos mínimos para empezar a la brevedad.
Para el presupuesto, este puede ser aprobado en bases a propuestas económicas comúnmente se selecciona la propuesta más económica (no necesariamente es la mejor en alcance o beneficios.
Negociación Externa
Esta negociación se da entre el intermediario con el usuario final y el departamento de TI de la empresa. En esta etapa se analiza los requerimientos del proyecto y hace una estimación de costo y tiempo. La mejor propuesta en costo-beneficio-tiempo suele ser la más acertada.



Tecnología
a) Costo (definido en la negociación interna)
La cual puede ser una tecnología Open Source o una tecnología de renombre,donde pueden ser consideradas excelentes opciones, solo que hay que considerar el impacto.
b) Infraestructura o políticas de la empresa
Esta define la tecnología que deberían usarse, muchas veces independientemente del tipo de proyecto
c) Propuesta del proveedor seleccionado
En función a su propuesta económica, una pauta importante en si no es una tecnología estándar podrá generar dependencia por mucho tiempo con dicho proveedor.



Metodología
Se entiendo como reglas, políticas, técnicas y procedimientos para el seguimiento del desarrollo de un proyecto, para esto existen muchas metodologías documentadas y en diferentes clasificaciones y otras son adaptadas a cada empresa.
Esta no tiene una dependencia con la tecnología seleccionada, pero ciertas tecnologías se adaptan mejor a ciertas metodologías de desarrollo, por decir los lenguaje orientados a objetos son más fácilmente modularizables y reciclables que la programación estructurada.
Se dice que las metodologías ágiles son orientadas al resultado (software funcional) puede sufrir cambios positivos o negativos buscando siempre el resultado funcional. En el caso de metodologías orientadas al plan, son conocidas las metodologías tradicionales como RUP, donde existen tareas por desarrollar durante todas las etapas del proyecto solo los requerimientos de control y documentación definidos por la metodología, estas no son tan flexibles por estructura.

Recursos
Personas y sus respectivos perfiles de conocimientos y experiencia en el tipo de proyecto, metodología de trabajo y tecnología. El nivel y la cantidad de recursos asignados a nuestro proyecto será directamente proporcional al presupuesto de nuestro proyecto, independientemente del tiempo que tengamos para dicho proyecto.Ciertas metodologías requieren diferentes perfiles de recursos durante las diferentes etapas del proyecto :, Project Manager, Software Architect, Data Architect, DBA, Developer Senior, Developer Junior,  Project Leader, Tester entre otros.