viernes, 24 de octubre de 2014

INFRAESTRUCTURA TI

LA INFRAESTRUCTURA DE TI


VIDEO DE INFRAESTRUCTURA DE TI Y TECNOLOGÍAS EMERGENTES








Consiste en un conjunto de dispositivos físicos y aplicaciones de software que se requieren para operar toda la empresa, incluye inversiones en hardware, software y servicios tales como consultorías, entrenamiento y capacitación que son compartidas atreves de toda la empresa o unidades de negocios de la misma empresa , de tal manera que la infraestructura de la  TI en la empresa proporciona fundamentos para servicio a clientes, trabajar con los proveedores y el manejo de los procesos de negocios internos en la empresa, Sin embargo, la infraestructura de TI también es un conjunto de servicios a lo largo y ancho de la empresa, presupuestados por la administración y que abarcan capacidades tanto humanas como técnicas.
 








Los servicios que una empresa es capaz de proveer a sus clientes, proveedores y empleados son una función directa de su infraestructura de TI. En un plano, esta infraestructura debería apoyar la estrategia de negocios y sistemas de información de la empresa. Las nuevas tecnologías de información tienen un potente impacto en las estrategias de negocios y de TI, así como en los servicios que se pueden ofrecer a los clientes. Tales como
Ø  Plataformas de cómputo que se utilizan para proporcionar servicios de cómputo que conectan a empleados, clientes y proveedores dentro de un en-torno digital coherente, el cual incluye grandes mainframes, computadoras de escritorio y portátiles, así como asistentes digitales personales (PDAs) y dispositivos para Internet.
Ø  Servicios de telecomunicaciones que proporcionan conectividad de datos, voz y video a empleados, clientes y proveedores.
Ø  Servicios de administración de datos que almacenan y manejan datos corporativos y proveen capacidades para analizar los datos.
Ø  Servicios de software de aplicaciones que proporcionan capacidades a toda la empresa, como sistemas de planeación de recursos empresariales, de administración de las relaciones con el cliente, de administración de la cadena de suministro y de administración del conocimiento, los cuales son compartidos por todas las unidades de negocios.
Ø  Servicios de administración de instalaciones físicas que desarrollan y manejan las instalaciones físicas requeridas por los servicios de cómputo, de tele-comunicaciones y de administración de datos.
Ø  Servicios de administración de TI que planean y desarrollan la infraestructura, coordinan los servicios de TI entre las unidades de negocios, manejan la contabilidad de los gastos en TI y proporcionan servicios de administración de proyectos.
Ø  Servicios de estándares de TI que dotan a la empresa y sus unidades de negocios de las políticas que determinan cuál tecnología de información se utilizará, en qué momento y de qué manera.
Ø  Servicios de entrenamiento en TI que proporcionan a los empleados capacitación en el uso de los sistemas y a los gerentes, capacitación sobre la manera de planificar y manejar las inversiones en TI.
Ø  Servicios de investigación y desarrollo de TI que proporcionan a la empresa investigación sobre proyectos e inversiones de TI potenciales que podrían ayudar a la empresa a diferenciarse en el mercado.

EVOLUCIÓN LA INFRAESTRUCTURA DE TI: 1950-2007

La infraestructura de TI en las organizaciones actuales es consecuencia de más de 50 años de evolución de las plataformas de cómputo. Sean identificado cinco etapas en esta evolución, cada una de las cuales representa una configuración distinta de potencia de cómputo y elementos de infraestructura, Las cinco eras están constituidas por las máquinas electrónicas de contabilidad, la computación con mainframes y mini computadoras de propósito general, las computadoras personales, las redes cliente/servidor, y la computación empresarial y de Internet.


  Era de las máquinas electrónicas de contabilidad: 1930-1950
La primera era de la computación de negocios utilizaba máquinas especializadas que podían clasificar tarjetas de computadora en depósitos, acumular totales e imprimir informes, aunque la máquina electrónica de contabilidad constituía un eficiente procesador de tareas contables, era demasiado grande e incómoda.
Los programas de software estaban integrados en tarjetas de circuitos y podían modificarse cambiando las conexiones alámbricas en u n tablero. No había programadores, y el operario humano de la máquina hacía la función de sistema operativo y controlaba todos los recursos del sistema.

Era de los mainframes y las minicomputadoras de propósito general: 1959 a la fecha:
Las primeras computadoras comerciales con tubos de vacío electrónicos aparecieron a principios de 1950 con la introducción de las computadoras UNIVAC y la Serie 700 de IBM. No fue sino hasta 1959, con la introducción de las máquinas de transistores 1401 y 7090 de IBM, cuando comenzó en serio el uso comercial difundido de las computadoras mainframe. En 1965, la computadora mainframe comercial de pro-pósito general produjo su máximo rendimiento con la introducción de la serie 360 de IBM. La 360 fue la primera computadora comercial con un sistema operativo potente que podía ofrecer compartición de tiempo, multitareas y memoria virtual en los modelos más avanzados
La era de los mainframe fue un periodo de computación altamente centralizada, controlada por programadores y operadores de sistemas profesionales (por lo general, en un centro de datos corporativo), en el cual la mayoría de los elementos de infraestructura los proporcionaba un solo distribuidor: el fabricante del hardware y el software. Este patrón comenzó a cambiar con la introducción de las minicomputadoras producidas por Digital Equipment Corporation (DEC) en 1965. 
Las mini-computadoras de DEC (PDP-U y más tarde las máquinas VAX) ofrecían potentes máquinas a precios mucho más bajos que los mainframes de IBM, e hicieron posible la computación descentralizada, ajustada a las necesidades de departamentos individuales o unidades de negocios en lugar de la compartición de tiempo en un solo mainframe enorme.

 Era  de  la  computadora  personal:  1981 a la fecha
Aunque las primeras computadoras personales (PCs) verdaderas aparecieron en la década de 1970 (la Xerox Alto, la Altair del MIT y las Apple 1 y II, por mencionar algunas), estas máquinas sólo se distribuyeron de manera limitada entre los entusiastas de la computación. Por lo general, el surgimiento de la PC de IMB en 1981 se considera como el principio de la era de la PC, porque esta máquina fue la primera en ser ampliamente adoptada por las empresas estadounide nses.
La proliferación de las PCs en la década de 1980 y principios de la de 1990 dio lugar a una avalancha de herramientas de software de productividad para computado-ras de escritorio -procesadores de texto, hojas de cálculo, software de presentaciones electrónicas y pequeños programas de administración de datos que fueron sumamente valiosos para los usuarios tanto caseros como corporativos. Estas PCs constituían sistemas independientes hasta que en la década de 1990 el software para sistemas operativos de pe permitió enlazarlas en redes.

  Era  cliente/servidor:  1983 a la fecha
En la computación cliente/servidor, las computadoras de escritorio o las portátiles, llamadas clientes, se enlazan en red a potentes computadoras servidores que proporcionan a las computadoras cliente una variedad de servicios y capacidades. El trabajo de procesamiento de cómputo se reparte entre estos dos tipos de máquinas. El cliente es el punto de entrada para el usuario, en tanto que, por lo general, el servidor procesa y almacena datos compartidos, suministra páginas Web o administra las actividades de la red. El termino servidor hace referencia tanto a la aplicación de software como a la computadora física en la cual se ejecuta el software de red. El servidor puede ser un mainframe, aunque en la actualidad las computadoras servidores son generalmente versiones más potentes de las computadoras personales, basadas en chips Intel económicos y que con frecuencia utilizan varios procesado-res en un solo gabinete de computadora. La red cliente/servidor más sencilla consta de una computadora cliente conecta-da en red a una computadora servidor, en la cual el procesamiento se reparte entre los dos tipos de máquinas. Esto se conoce como arquitectura cliente/servidor de dos capas.

 Era de la computación empresarial y de Internet : 1992 a la fecha
El éxito del modelo cliente/ servidor planteó una nueva serie de problemas. Para muchas empresas grandes fue difícil integrar todas sus redes de área local (LANs) en un solo y lógico entorno de cómputo corporativo. Las aplicaciones desarrolladas por los departamentos locales y por las divisiones de una empresa, o en diferentes áreas geográficas, no se podían comunicar fácilmente entre sí ni compartir datos.
A principios de la década de 1990, las empresas recurrieron a están dares de conectividad de redes y herramientas de software que podían integrar en una infraestructura a nivel empresarial las redes y aplicaciones diferentes diseminadas por toda la organización. A medida que Internet evolucionó hasta convertirse en un entorno de comunicaciones confiable después de 1995, las empresas comenzaron a utilizar


La infraestructura de TI resultante enlaza las diferentes piezas del hardware de cómputo y las redes más pequeñas en una red a nivel empresarial, de tal forma que la información puede fluir libremente a través de la organización y entre ésta y otras organizaciones. Esta infraestructura puede enlazar diferentes tipos de hardware de cómputo, como mainframes, servidores, pes, teléfonos móviles y otros dispositivos portátiles, e incluye infraestructuras públicas como el sistema telefónico, Internet y servicios de redes públicas. La infraestructura empresarial también requiere software para enlazar aplicaciones distintas y permitir que los datos fluyan libremente a través de las diferentes partes de la empresa.

IMPULSORES TECNOLOGICOS DE LA EVOLUCION DE LA INFRAESTRUCTURA
Han sido resultado de los desarrollos en el procesamiento de las computadoras, los chips de memoria, los dispositivos de almacenamiento, el hardware y el software de telecomunicaciones y de conectividad de redes, así como en el diseño del software, que en conjunto han incrementado exponencialmente la potencia de cómputo al mismo tiempo que han reducido también exponencialmente los costos.
                                      
                                   Ley de more y la potencia de microprocesamiento


En 1965, Gordon Moore, director de los Laboratorios de Investigación y Desarro110 de Fairchild Semiconductor, uno de los primeros fabricantes de circuitos integrados, escribió en Electronics Magazine que desde la aparición del primer chip de microprocesador en 1959, se había duplicado cada año la cantidad de componentes en un chip con los costos de manufactura más bajos por componente (por 10 general, transistores). Esta afirmación se convirtió en el fundamento de la ley de Moore. Más tarde, Moore redujo la velocidad del crecimiento a una duplicación cada dos años (tuomi, 2002).
Posteriormente, esta ley sería interpretada de diversas maneras. Existen al menos tres variaciones de la ley de Moore, ninguna de las cuales fue enunciada por Moore:
 La potencia de los microprocesadores se duplica cada 18 meses (Gates 1997);
·         La potencia de cómputo se duplica cada 18 meses, y
·         El precio de la computación se reduce a la mitad cada 18 meses.

La figura 5-4 ilustra la relación entre el número de transistores de un microprocesador y los millones de instrucciones por segundo (MIPS), una medida común de la potencia de procesamiento. 
La figura 1.3.2 muestra la reducción exponencial en el costo de los transistores y el aumento de la potencia de cómputo.



Existe una razón para creer que en el futuro continuará el crecimiento exponencial en la cantidad de transistores y la potencia de los procesadores junto con una reducción exponencial en los costos de cómputo.
Intel considera que a través del uso de la tecnología podrá reducir el tamaño de los transistores hasta el ancho de varios átomos.
 La nanotecnología utiliza átomos y moléculas individuales para crear chips de computadora y otros dispositivos que son miles de veces más pequeños de lo que permiten las tecnologías actuales. IBM y otros laboratorios de investigación han creado transistores a partir de nanotubos y otros dispositivos eléctricos y han desarrollado un proceso de manufactura que puede producir procesadores con nanotubos a bajo costo.

Los nanotubos son tubos microscópicos 10,000 veces más delgados que un cabello humano. Están compuestos de láminas de carbono hexagonales enrolladas. Descubiertos por investigadores del NEC en 1991, se pueden utilizar como alambres minúsculos o en dispositivos electrónicos ultra diminutos y son potentes conductores de electricidad.

Ley del almacenamiento digital masivo
Un segundo impulsor tecnológico del cambio en la infraestructura de TI es la ley del almacenamiento digital masivo, donde la cantidad de información digital se duplica más o menos cada año casi la totalidad de este crecimiento se da en el almacenamiento magnético de datos digitales, en tanto que los documentos impresos representan únicamente el 0,003 por ciento del crecimiento anual.

El costo del almacenamiento de información digital está disminuyendo a una tasa exponencial.

Ley de Metcalfe y la economía de redes                
Las leyes de Moore y del almacenamiento masivo nos ayudan a entender por qué es tan fácil acceder ahora a los recursos de cómputo.

Robert Metcalfe inventor de la tecnología para las LAN Ethernet afirmó en 1970 que el valor o potencia de una red crece exponencialmente como una función de la cantidad de miembros de la red. Metcalfe  señala los retornos crecientes a escala que reciben los miembros de la red conforme más y más gente se une a la red. A medida que los miembros de una red aumentan linealmente, el valor total del sistema aumenta exponencialmente y continúa creciendo siempre conforme se incrementan los miembros. La demanda de tecnología de información ha sido impulsada por el valor social y de negocios de las redes digítales, las cuales multiplican rápidamente el número de enlaces reales y potenciales entre los miembros de la red.

Reducción de los costos de las comunicaciones y crecimiento de internet

Transforma la infraestructura de TI es la rápida reducción en los costos de la comunicación y el crecimiento exponencial del tamaño de Internet. Se estima que actualmente 1,100 millones de personas de todo el mundo tienen acceso a Internet, y de éstos, 175 millones se encuentran en Estados Unidos. En este país hay más de 250 millones de computadoras en la Web.

Estándares y sus  efectos en las redes
La infraestructura empresarial y la computación por Internet actualmente no serían posibles tanto ahora como a futuro sin acuerdos entre fabricantes sobre estándares tecnológicos y la aceptación generalizada de éstos por parte de los consumidores. Los estándares tecnológicos son especificaciones que establecen la compatibilidad de productos y su capacidad para comunicarse en una red
Los estándares tecnológicos propician el desarrollo de poderosas economías de escala y dan como resultado disminuciones de precios a medida que los fabricantes se enfocan en la elaboración de productos apegados a un solo estándar. Sin estas economías de escala, la computación de cualquier tipo sería mucho más costosa de lo que actualmente es.
Algunos estándares son:
· Código estándar estadounidense para el intercambi
de información (ASCII) (1958)
·Lenguaje común orientado a negocios (COBOL)(1958)
  Unix (1969-1975)
·Protocolo de control de transmisión/protocolo internet (TCP/IP)(1974)
·Ethernet (1973)
·Computadora personal de IBM/Microsoft/ Intel(1981)
· World Wide Web (1989-1993).








Plataformas de hardware de cómputo

Las empresas de Estados Unidos gastaron cerca de 145,000 millones de dólares en 2005 en hardware de cómputo. Este componente incluye a las máquinas cliente (PCs de escritorio, dispositivos de cómputo móviles como PDAs y computadoras portátiles) y las máquinas servidor. Las máquinas cliente utilizan principalmente microprocesadores Intel o AMD.


El mercado del hardware de cómputo se ha concentrado cada vez más en empresas líderes como IBM, HP, Dell y Sun Microsystems, que producen el 90 por ciento de las máquinas, y en tres productores de chips: Intel, AMD e IBM, que representan 90 por ciento de los procesadores vendidos en 2004. La industria se ha inclinado colectivamente por Intel como el procesador estándar, con las excepciones principales de las máquinas Unix y Linux en el mercado de los servidores, las cuales pueden utilizar los procesadores para Unix de SUN o IBM.

COMPONENTES DE LA INFRAESTRUCTURA


La infraestructura de TI está conformada por siete componentes principales siguientes:





Plataformas de hardware de cómputo
Las empresas de Estados Unidos gastaron cerca de 145,000 millones de dólares en 2005 en hardware de cómputo. Este componente incluye a las máquinas cliente (PCs de escritorio, dispositivos de cómputo móviles como PDAs y computadoras portátiles) y las máquinas servidor. Las máquinas cliente utilizan principalmente microprocesadores Intel o AMD.
El mercado del hardware de cómputo se ha concentrado cada vez más en empresas líderes como IBM, HP, Dell y Sun Microsystems, que producen el 90 por ciento de las máquinas, y en tres productores de chips: Intel, AMD e IBM, que representan 90 por ciento de los procesadores vendidos en 2004. La industria se ha inclinado colectivamente por Intel como el procesador estándar, con las excepciones principales de las máquinas Unix y Linux en el mercado de los servidores, las cuales pueden utilizar los procesadores para Unix de SUN o IBM.

Plataformas de software de cómputo
Los cuales se encargan del manejo de los recursos y actividades de la computadora, llegara a 110,000 millones de dólares. En el nivel del cliente, 95 por ciento de las PCs y 45 por ciento de los dispositivos portátiles utilizan alguno de los sistemas operativos de Micro-soft Windows (como Windows Xp' Windows 2000 o Windows CE). En contraste, en el mercado de servidores, más de 85 por ciento de los servidores corporativos de Estados Unidos utilizan alguno de los sistemas operativos Unix o Linux.
Unix y Linux constituyen la columna vertebral de la infraestructura de muchas corporaciones de todo el mundo porque son escalables, confiables y mucho más económicos que los sistemas operativos para mainframes. 
  
Administración y almacenamiento de dato
Existen pocas opciones de software de administración de bases de datos empresariales, el cual es responsable de organizar y administrar los datos de la empresa a fin de que se puedan acceder y utilizar de manera eficiente
El mercado de almacenamiento físico de datos para sistemas de gran escala lo domina EMC Corporation, junto con un pequeño número de fabricantes de discos duros para PC encabezados por Seagate, Maxtor y Western Digital. Aparte de los tradicionales arreglos de discos y bibliotecas de cintas, las grandes empresas están recurriendo a tecnologías de almacenamiento basadas en redes. Las redes de área de almacenamiento (SANs) conectan a múltiples dispositivos de almacenamiento en una red de alta velocidad independiente dedicada a tareas de almacenamiento
Cada tres años se duplica la cantidad de nueva información digital en todo el mundo, situación propiciada en parte por el comercio electrónico y los negocios en línea, lo mismo que por decretos y reglamentaciones que obligan a las empresas a invertir en instalaciones de gran extensión para el almacenamiento y administración de datos.

Plataformas de conectividad de redes y telecomunicaciones



Las empresas de Estados Unidos gastan la gigantesca cantidad de 769,000 millones de dólares anuales en hardware y servicios de conectividad de redes y telecomunicaciones. La parte más importante de este presupuesto, cerca de 620,000 millones de dólares, se dedica a servicios de telecomunicaciones  (consistentes principalmente en cobros de las compañías de telecomunicaciones, de cable y telefónicas por líneas de voz y acceso a Internet; estos servicios no se incluyen en esta explicación pero se deben tomar en cuenta como parte de la infraestructura de la empresa).


Plataformas de internet
Las plataformas de Internet se traslapan, y deben relacionarse con, la infraestructura de conectividad de redes general de la empresa y con las plataformas de hardware y software, Estados Unidos gastan alrededor de 35,000 millones de dólares anuales en infraestructura relacionada con Internet. Estos gastos se hicieron en hardware, software y servicios de administración para apoyar los sitios Web de las empresas, incluyendo servicios de alojamiento en Web, y para intranets y extranets.
Un servicio de alojamiento en Web mantiene un enorme servidor Web, o series de servidores, y proporciona espacio a los suscriptores que pagan cuotas para mantener sus sitios Web.

Un servicio de alojamiento en Web mantiene un enorme servidor Web, o series de servidores, y proporciona espacio a los suscriptores que pagan cuotas para mantener sus sitios Web.
Las principales herramientas de desarrollo de aplicaciones y conjuntos de pro-gramas de software para Web son proporcionadas por Microsoft (FrontPage y la familia de herramientas de desarrollo Microsoft.

Servicios de consultoría e integración de sistemas
Grandes empresas no cuentan con el personal, los conocimientos, el presupuesto o la experiencia necesaria para hacerlo. La implementación de nueva infraestructura requiere, cambios significativos en los procesos y procedimientos de negocios, capacitación y entrenamiento, así como integración del software, por esta razón,  las empresas gastan        130,000 millones anuales en servicios de consultoría e integradores de sistemas.
La integración de software significa asegurar que la nueva infraestructura funcione con los sistemas heredados de la empresa y garantizar que los nuevos elementos de la infraestructura funcionen entre sí.
Por lo general, los sistemas heredados son sistemas de procesamiento de transacciones creados para computadores mainframe que continúan utilizándose para evitar el alto costo de reemplazarlos o rediseñarlos. La sustitución de estos sistemas es prohibitiva desde el punto de vista de los costos y, por lo no es necesaria si estos sistemas más antiguos se pueden integrar en una infraestructura contemporánea.

TENDENCIAS DE LAS PLATAFORMAS DE HARDWARE Y TECNOLOGÍAS EMERGENTES

Aunque el costo de la computación se ha reducido exponencialmente, en realidad el costo de la infraestructura de TI se ha incrementado como un porcentaje de los presupuestos corporativos. ¿Por qué? Los costos de los servicios de computación  integración de sistemas) y el software son altos, en tanto que la de-manda de computación y comunicación se ha incrementado a medida que otros costos se han reducido.



LA INTEGRACIÓN  DE LAS PLATAFORMAS DE CÓMPUTO  Y TELECOMUNICACIONES.

El tema dominante en las plataformas de hardware actuales es la con ver de las plataformas de telecomunicaciones y de cómputo hasta el punto de que, cada vez más, la computación se realice sobre la red. Esta convergencia se puede ver en varios niveles.
En el nivel del cliente, los dispositivos de comunicaciones como los teléfonos celulares están asumiendo las funciones de computadoras de mano, en tanto que éstas están haciendo las funciones de teléfonos celulares.



COMPUTACIÓN  DISTRIBUIDA
La computación distribuida implica conectar en una sola red computadoras que se encuentran en ubicaciones remotas para crear una supercomputadora virtual al combinar la potencia de cómputo de todas las computadoras de la red.  La computación distri-buida era imposible hasta que las conexiones de alta velocidad a Internet permitie-ron a las empresas conectar máquinas remotas de una manera económica y despla-zar enormes cantidades de datos, La computación distribuida requiere programas de software para controlar y asig-nar recursos en la red, como el software de código abierto proporcionado por Globus Alliance  (www.globus.org) o por proveedores privados. 

COMPUTACIÓN  BAJO DEMANDA (COMPUTACIÓN  TIPO

SERVICIO PÚBUCO)

La computación bajo demanda se refiere a las empresas que satisfacen el exceso de demanda de potencia de cómputo a través de centros remotos de procesamiento de datos a gran escala. De esta manera, las empresas pueden reducir sus inversiones en infraestructura de TI e invertir únicamente lo necesario para manejar las cargas promedio de procesamiento y pagar solamente por la potencia de cómputo adicional que demande el mercado.  Otro término para la computación bajo de-manda es computación tipo servicio público, el cual sugiere que las empresas compran capacidad de cómputo a compañías de servicios de cómputo centrales y pagan solamente por la cantidad de capacidad de cómputo que utilizan, de la mis-ma manera que 10 harían por la electricidad. IBM, HP, Orade y Sun Microsystems ofrecen servicios de computación bajo demanda.

COMPUTACIÓN  AUTÓNOMA  Y COMPUTACIÓN

DE VANGUARDIA

La computación autónoma es una iniciativa de toda la industria para desarrollar sistemas que puedan auto configurarse, optimizarse y afinarse a sí mismos, autor repararse cuando se descompongan, y auto protegerse de intrusos externos y de la autodestrucción.

La computación de vanguardia es un esquema multicapa, de balanceo de carga para aplicaciones basadas en la Web en el cual partes significativas del contenido, la lógica y el procesamiento del sitio Web son ejecutados por servidores más pequeños y más económicos, localizados cerca del usuario con la finalidad de incrementar el tiempo de respuesta y la resistencia y, a la vez, reducir los costos de la tecnología. la cual consta de servidores localizados en cualquiera de los más de 5,000 proveedores de servicios de Internet que hay en Estados Unidos, y computadoras empresariales localizadas en los principales centros de datos de la empresa.

VIRTUALIZACIÓN  y PRO CESADOR ES MULTINÚCLEO
 
 La virtualización es el proceso de presentar un conjunto de recursos de cómputo (como la potencia de procesamiento o el almacenamiento de datos) de tal manera que se pueda acceder a todos sin ningún tipo de restricción por su configuración física o su ubicación geográfica La virtualización de servidores permite a las empresas ejecutar más de un sistema operativo al mismo tiempo en una sola máquina. La mayoría de los servidores operan a sólo 10 o 15 por ciento de su capacidad, y la virtualización puede aumentar las tasas de utilización de los servidores a 70 por ciento o más. Las tasas de utilización más altas se traducen en menos computadoras necesarias para procesar la misma cantidad de trabajo.
Además de reducir los en hardware y en consumo de energía eléctrica, la virtualización permite a las empresas ejecutar sus aplicaciones heredadas de versiones anteriores de un sistema operativo en el mismo servidor en que ejecuta sus aplicaciones más recientes. La virtualización también facilita centralizar la administración del hardware.

TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE Y TECNOLOGÍAS EMERGENTES

Existen seis temas principales en la evolución de las plataformas de software con-temporáneas:

  • Linux y el software de código abierto.

  • Java.

  • El software empresarial.

  • Los servicios Web y la arquitectura orientada a servicios.

  • Los mashups y las aplicaciones de software basadas en la Web.

La sub contratación de software. 

EL SURGIMIENTO DE LINUX Y EL SOFTWARE

DE CÓDIGO  ABIERTO

El software de código abierto es software producido por una comunidad de cientos de miles de programadores de todo el mundo. Según la principal asociación de profesionales del código abierto,  OpenSource.org, el software de código abierto es gratuito y puede ser modificado por los usuarios. Los trabajos derivados del código original también deben ser gratuitos, y el software puede ser redistribuido por el usuario sin necesidad de licencias adicionales.

El software de código abierto se fundamenta en la premisa de que es superior al software propietario producido de manera comercial porque miles de programadores de todo el mundo que trabajan sin recibir ningún pago por ello, pueden leer, perfeccionar, distribuir y modificar el código fuente mucho más rápido, y con resulta dos más confiables, que los pequeños equipos de programadores que trabajan para una sola empresa de software.


Linux

Tal vez el software de código abierto más conocido es Linux, un sistema operativo derivado de Unix. Linux fue creado por el programador finlandés Linus Thrvalds y colocado por primera vez en Internet en agosto de 1991. En la actualidad, Linux es el sistema operativo para clientes y servidores de más rápido crecimiento en el mundo. En 2005, Linux fue instalado en cerca de 6 por ciento de las nuevas PCs vendidas en Estados Unidos, y se espera que para 2010 esta cifra crecerá a más de 20 por ciento de las PCs vendidas (Bulkeley, 2004) 

Java

Fue creado en 1992 por James Goslin y el Green Tham de Sun Microsystems como un entorno de programación para soportar la transmisión de contenido interactivo de televisión por cable. El uso generalizado de Java comenzó en 1995 cuando una gran cantidad de personas empezaron a utilizar la Wor1d Wide Web e Internet. Casi todos los navegadores Web traen integrada una plataforma de Java. Más recientemente, la plataforma Java ha migrado a teléfonos automóviles, reproductores de música, máquinas de juegos y, por último, a sistemas de televisión por cable que entregan contenido interactivo y ofrecen servicios de pago por evento.
El software de Java está diseñado para ejecutarse en cualquier computadora o dispositivo de cómputo, independientemente del microprocesador específico o el sistema operativo que utilice el dispositivo.
Java es particularmente útil en entornos de red como Internet. Aquí, Java se utiliza para crear diminutos programas conocidos como applets que están diseñados para residir en servidores de red centralizados.

SOFTWARE PARA LA INTEGRACION EMPRESARIAL

Las aplicaciones de software heredado existentes con las nuevas aplicaciones basadas en la Web para conformar un solo sistema coherente que se pueda manejar de manera racional.

En el pasado, por lo general, las empresas construían su propio software personalizado y hacían sus propias elecciones sobre su plataforma de software. Esta estrategia producía cientos de miles de programas de cómputo que con frecuencia no se podían comunicar con otros programas de software, su mantenimiento era difícil y costoso, y era prácticamente imposible cambiarlos con rapidez a medida que cambiaban los modelos de negocios
Las empresas podrían optar por escribir su propio software para conectar una aplicación con otra, pero cada vez compran más paquetes de software de integración de aplicaciones empresariales (EAI) para conectar aplicaciones independientes o grupos de aplicaciones. Este software permite que muchos sistemas inter-cambien datos por medio de un solo centro de software en lugar de construir incontables interfaces de software personalizadas para enlazar cada sistema (vea la figura 5-12). Algunos de los proveedores líderes de software de aplicaciones empresariales son WebMethods, Tibco, SeeBeyond, BEA y Vitria.
 
Servicios Web y arquitectura orientada a servicios (SOA)
Las herramientas de software de integración de aplicaciones empresariales son específicas para un producto, es decir, pueden trabajar solamente con ciertas partes del software de aplicaciones y sistemas operativos. Por ejemplo, una herramienta EAI para conectar una parte específica de un software de captura de pedidos de ventas con aplicaciones de manufactura, embarque y facturación, tal vez no funcione con el software de captura de pedidos de otro proveedor. Un programa de middleware desarrollado por BEA Systems, un importante integrador de sistemas, tal vez no pueda comunicarse con la aplicación de middleware de otros proveedores que usted haya comprado años atrás sin un gasto considerable en recursos de programación y diseño.    

SOFTWARE DE INTEGRACIÓN DE APLICACIONES EMPRESARIALES (EAD EN COMPARACIÓN CON LA INTEGRACIÓN TRADICIONAL

Los servicios Web se refieren a un conjunto de componentes de software ligera-mente acoplados que intercambian información entre sí por medio de estándares y lenguajes de comunicación para la Web. Pueden intercambiar información entre dos sistemas diferentes sin importar los sistemas operativos o los lenguajes de programación en que estén basados. Se pueden combinar para construir aplicaciones basadas en la Web con un estándar abierto que enlacen sistemas de dos organizaciones diferentes, aunque también se pueden utilizar para crear aplicaciones que enlacen sistemas distintos dentro de una misma empresa.

La tecnología que sustenta los servicios Web es XML, que significa Lenguaje de Marcación Extensible. Este lenguaje fue desarrollado en 1996 por el World Wide Web Consortium (W3C, el organismo internacional que supervisa el desarrollo de la Web) como un lenguaje de marcación más potente y flexible para páginas Web que el Lenguaje de Marcación de Hipertexto. El Lenguaje de Marcación de Hipertexto (HTML) es un lenguaje de descripción de páginas para especificar la manera en que el texto, las imágenes, el video y el sonido se colocan en el documento de una página Web.

 Los servicios Web se comunican por medio de mensajes XML sobre protocolos Web estándar. SOAP, que significa Protocolo Simple de Acceso a Objetos, es un conjunto de reglas para estructurar mensajes que permite a las aplicaciones pasarse datos e instrucciones entre sí. WDSL significa Lenguaje de Descripción de Servicios Web; es un marco de trabajo común para describir las tareas realizadas por un servicio Web y los comandos y datos que aceptará y que podrán ser utilizados por otras aplicaciones.

El conjunto de servicios Web que se utiliza para construir los sistemas de software-re de una empresa constituye 10 que se conoce como arquitectura orientada a servicios. Una arquitectura orientada a servicios (SOA) es un conjunto de servicios independientes que se comunican entre sí para crear una aplicación de software funcional.

En otras palabras, SOA es una forma completamente nueva de desarrollar software para una empresa. En el pasado, las empresas acostumbraban construir aplicaciones de software para un pro-pósito específico, como calcular facturas y enviarlas impresas. Con frecuencia podía haber múltiples programas que realizaban partes de una tarea o que la ejecutaban to-da pero utilizaban distinto código para cumplir sus objetivos. Ninguno de los programas se podía comunicar con los demás.


AJAX, MASHUPS, WEB 2.0 y APUCACIONES DE SOFTWARE BASADAS EN LA WEB

Ajax (JavaScript y XML asíncronos) es una técnica para permitir que su cliente y el servidor con el que está trabajando sostengan una conversación en segundo Pla-no, y que la información que usted introduzca se transfiera al servidor al instante sin que usted lo note. Al hacer clic en un sitio de mapas, como Google Maps, el servidor descarga tan sólo la parte de la aplicación que cambia sin esperar que se cargue un mapa completamente nuevo.

Conjunto de técnicas relacionadas, conocido como RlA (aplicaciones de Internet enriquecidas), utilizan unos programas de JavaScript o Adobe Flash (anteriormente Macromema Flash)) que se descargan a su cliente para mantener una conversación continua con el servidor que esté usted utilizando. A pesar de que facilitan mucho la vida a los usuarios, Ajax y RlA son aún más importantes para otro nuevo desarrollo de software: las aplicaciones basadas en la Web.
En menor medida, los empresarios emprendedores están creando nuevas aplicaciones y servicios de software con base en la combinación de diferentes aplicaciones de software en línea. Denominadas mashups (aplicaciones Web híbridas), estas nuevas aplicaciones combinadas dependen de redes de datos de alta velocidad, estándares de comunicaciones universales y código abierto. El propósito es tomar diferentes recursos y producir un nuevo trabajo que sea "mayor que" la suma de sus partes.

Parte de un movimiento llamado Web 2.0, y al igual que los mashups musicales, los mashups de la Web combinan las capacidades de dos o más aplicaciones en línea para crear un tipo de híbrido que proporciona más valor al cliente que los recursos originales por sí solos. Por ejemplo, Paul Rademacher, un programador de Silicon Valley, abrió un sitio Web llamado  HousingMaps.com que despliega listados de bienes raíces en áreas locales de  Craigs1ist.org sobrepuestos en mapas de Goog1e, con chinchetas que muestran la ubicación de cada listado. El sitio ha atraído a más de medio millón de visitantes y recibe alrededor de 10,000 visitas al día.
El servicio de Google ha simplificado el proceso de utilizar los datos de sus mapas hasta el nivel de insertar cuatro líneas de código de JavaScript en un programa. Esta simplificación ha hecho que el proceso de integrar mapas en otras aplicaciones sea extremadamente sencillo para miles de diseñadores de sitios Web. Las APls disponibles de manera pública proporcionan a los programadores las herramientas para extraer datos de muchos sitios Web diferentes y combinarlos con información adicional para crear un servicio Web totalmente nuevo. El resultado es que la Web ha dejado de ser una simple colección de páginas para convertirse en un conjunto de capacidades, una plataforma donde miles de programadores pueden crear nuevos servicios con rapidez y a bajo costo.
En el texto anterior mencionamos que la "Web 2.0" es parte de un "movimiento". Para nosotros es una expresión de todos los cambios descritos anteriormente, además de otros cambios en la manera en que la y las empresas utilizan la Web y cómo consideran la interacción humana en la Web.

Web 2.0 se puede resumir de la siguiente manera (O'Reilly, 2005):

·         Servicios, no software empacado, con escalabilidad rentable.

·         Control sobre recursos de datos únicos, difíciles de recrear, que se enrique-cen a medida que los utiliza más gente.

·         Confiar en los usuarios como desarrolladores.

·         Aprovechar la inteligencia colectiva.

·         Hacer uso de la "larga mal! a través del autoservicio del cliente.

·         El software arriba del nivel de un solo dispositivo.

·         Interfaces de usuario, modelos de desarrollo y modelos de negocio ligeros.

SUBCONTRATACIÓN  DE SOFTWARE
Se proyectaba que para 2006 las empresas estadounidenses gastarían cerca de 340,000 millones de dólares en software. En el pasado, la mayor de este software era desarrollado dentro de las empresas por equipos de programadores. A pesar de que las empresas aún conservan grupos de personas de TI, ya no se enfocan exclusivamente en la creación del software. En 2006 las empresas encarga-ron cerca de la tercera parte del desarrollo de software a desarrolladores externos, incluyendo empresas de software empresarial que les venderían soluciones comerciales personalizadas a sus necesidades.

Una tercera fuente externa de software es la subcontratación, en la cual una empresa contrata el desarrollo de software personalizado o el mantenimiento de programas heredados existentes con empresas externas, las cuales con frecuencia operan en regiones del mundo donde se pagan salarios bajos. De acuerdo con la empresa consultora Gartner Group, la subcontratación en todo el mundo totalizó más de 624,000 millones de dólares en 2005 (McDougall, 2006). En este rubro, el gasto más grande se pagó a empresas estadounidenses de middleware, servicios de integración y otro soporte de software que con frecuencia se requiere para operar sistemas empresariales grandes.

La mayor parte del software sub contratado se crea en Estados Unidos, pero una porción creciente de los proyectos de software subcontratados se lleva a cabo en otros lugares que tienen salarios bajos, como India, China, Europa Oriental, África y América Latina. Además, otro 15 por ciento de la funcionalidad del software se obtendrá no por medio de la compra del software sino del servicio -dejando que más desarrolle el software.   



ASPECTOS DE ADMINISTRACIÓN



La creación y manejo de una infraestructura de TI coherente da lugar a diversos retos: manejo de la escalabilidad y el cambio tecnológico, administración y gobierno, e inversiones acertadas en infraestructura.

MANEJO DE L CAMBIO EN LA INFRAESTRUCTURA
A medida que crecen, las empresas pueden rebasar rápidamente su infraestructura.   Por el contrario, a medida que se reducen, pueden verse obligadas a cargar con una infraestructura excesiva adquirida e n tiempos mejores. La escalabilidad se refiere a la capacidad de una computa-dora, producto o sistema de expandirse para dar servicio a un mayor número de usuarios sin fallar.
ADMINISTRACIÓN  Y GOBIERNO
Una vieja cuestión entre los gerentes de sistemas de información y los directores generales ha sido la duda de quién controlará y manejará la infraestructura de TI de la empresa. Departamentos y las divisiones deben tener la responsabilidad de tomar sus propias decisiones sobre tecnología de información o debe controlarse y manejarse de manera central la infraestructura de TI? ¿Cuál es la relación entre la administración central de los sistemas de información y la administración por unidades de negocios de los sistemas de información? ¿Cómo se asignarán los costos de infraestructura entre las unidades de negocios? Cada organización tendrá que ob-tener respuestas con base en sus propias necesidades.

INVERSIONES ACERTADAS EN INFRAESTRUCTURA
La infraestructura de TI es una inversión importante para la empresa. Si se gasta demasiado en infraestructura, ésta permanecerá ociosa y constituirá un obstácu-lo para el desempeño financiero de la empresa. Si se muy poco, no se podrán entregar servicios de negocios importantes y los competidores (quienes inviertan la cantidad exacta) superarán a la empresa.
Modelo de fuerzas competitivas para inversión en infrasctutura de TI
ilustra un modelo de fuerzas competitivas que se puede utilizar para abordar la cuestión de cuánto debe gastar su empresa en infraestructura de TI.

Demanda del mercado por los servicios de su empresa. Realice un inventa-rio de los servicios que provee actualmente a clientes, proveedores y emplea-dos.
La estrategia de negocios de su empresa. Analice la estrategia de negocios a cinco años de su empresa e intente evaluar qué nuevos servicios y capacidades serán necesarios para alcanzar las metas estratégicas.

La estrategia, infraestructura y costo de la tecnología de información (TI) de su empresa. Analice los de tecnología de la información de su empre-sa para los próximos cinco años y evalúe su alineación con los planes de negocios de la empresa. Determine los costos totales en infraestructura de TI.


Servicios de las empresas competidoras. Trate de evaluar cuáles servicios tecnológicos ofrecen sus competidores a clientes, proveedores y empleados. Establezca medidas cuantitativas y cualitativas para compararlos con los de su empresa. Si los niveles de servicio de su empresa se quedan cortos, su empresa está en una desventaja competitiva.
Inversiones en infraestructura de TI de las empresas competidoras. Compare sus gastos en infraestructura de TI con los de sus competidores. Una gran cantidad de empresas hacen del dominio público sus gastos en tecnología reciente.

COSTO TOTAL DE PROPIEDAD DE ACTIVOS TECNOLOGICOS
Al comparar los gastos en infraestructura de TI de su empresa con los de sus competidores,  tendrá que considerar un amplio rango de costos. El costo real de poseer recursos tecnológicos incluye el costo original de adquirir e instalar el hardware y el software} así como los costos continuos de administración así como los costos continuos de administración por las actualizaciones del hardware y el software, el mantenimiento, el soporte técnico, la capacitación e incluso los costos de los servicios públicos y los bienes raíces necesarios para operar y alojar la tecnología. El modelo del costo total de la propiedad (TCO) se puede utilizar para analizar estos costos directos e indirectos y ayudar a las empresas a determinar el costo real de las implementaciones de tecnología específica.






No hay comentarios:

Publicar un comentario