LA INFRAESTRUCTURA DE TI
VIDEO DE INFRAESTRUCTURA DE TI Y TECNOLOGÍAS EMERGENTES
Consiste
en un conjunto de dispositivos físicos y aplicaciones de software que se
requieren para operar toda la empresa, incluye inversiones en hardware,
software y servicios tales como consultorías, entrenamiento y capacitación que
son compartidas atreves de toda la empresa o unidades de negocios de la misma
empresa , de tal manera que la infraestructura de la TI en la empresa proporciona fundamentos para
servicio a clientes, trabajar con los proveedores y el manejo de los procesos
de negocios internos en la empresa, Sin embargo, la infraestructura de TI
también es un conjunto de servicios a lo largo y ancho de la empresa,
presupuestados por la administración y que abarcan capacidades tanto humanas
como técnicas.
Los servicios que una
empresa es capaz de proveer a sus clientes, proveedores y empleados son una
función directa de su infraestructura de TI. En un plano, esta infraestructura
debería apoyar la estrategia de negocios y sistemas de información de la empresa.
Las nuevas tecnologías de información tienen un potente impacto en las estrategias
de negocios y de TI, así como en los servicios que se pueden ofrecer a los
clientes. Tales como
Ø
Plataformas de cómputo que se utilizan para proporcionar
servicios de cómputo que conectan a empleados, clientes y proveedores dentro de
un en-torno digital coherente, el cual incluye grandes mainframes, computadoras
de escritorio y portátiles, así como asistentes digitales personales (PDAs) y
dispositivos para Internet.
Ø
Servicios de telecomunicaciones que proporcionan conectividad de
datos, voz y video a empleados, clientes y proveedores.
Ø
Servicios de administración de datos que almacenan y manejan datos
corporativos y proveen capacidades para analizar los datos.
Ø
Servicios de software de aplicaciones que proporcionan capacidades a toda
la empresa, como sistemas de planeación de recursos empresariales, de
administración de las relaciones con el cliente, de administración de la cadena
de suministro y de administración del conocimiento, los cuales son compartidos
por todas las unidades de negocios.
Ø
Servicios de administración de
instalaciones físicas
que desarrollan y manejan las instalaciones físicas requeridas por los
servicios de cómputo, de tele-comunicaciones y de administración de datos.
Ø
Servicios de administración de TI que planean y desarrollan la
infraestructura, coordinan los servicios de TI entre las unidades de negocios,
manejan la contabilidad de los gastos en TI y proporcionan servicios de
administración de proyectos.
Ø
Servicios de estándares de TI que dotan a la empresa y sus unidades
de negocios de las políticas que determinan cuál tecnología de información se
utilizará, en qué momento y de qué manera.
Ø
Servicios de entrenamiento en TI que proporcionan a los empleados
capacitación en el uso de los sistemas y a los gerentes, capacitación sobre la
manera de planificar y manejar las inversiones en TI.
Ø
Servicios de investigación y
desarrollo de TI que
proporcionan a la empresa investigación sobre proyectos e inversiones de TI
potenciales que podrían ayudar a la empresa a diferenciarse en el mercado.
EVOLUCIÓN LA INFRAESTRUCTURA DE TI:
1950-2007
La
infraestructura de TI en las organizaciones actuales es consecuencia de más de
50 años de evolución de las plataformas de cómputo. Sean identificado cinco
etapas en esta evolución, cada una de las cuales representa una configuración
distinta de potencia de cómputo y elementos de infraestructura, Las cinco eras
están constituidas por las máquinas electrónicas de contabilidad, la
computación con mainframes y mini computadoras de propósito general, las
computadoras personales, las redes cliente/servidor, y la computación
empresarial y de Internet.
Era
de las máquinas electrónicas de contabilidad: 1930-1950
La
primera era de la computación de negocios utilizaba máquinas especializadas que
podían clasificar tarjetas de computadora en depósitos, acumular totales e
imprimir informes, aunque la máquina electrónica de contabilidad constituía un
eficiente procesador de tareas contables, era demasiado grande e incómoda.
Los
programas de software estaban integrados en tarjetas de circuitos y podían
modificarse cambiando las conexiones alámbricas en u n tablero. No había
programadores, y el operario humano de la máquina hacía la función de sistema
operativo y controlaba todos los recursos del sistema.
Era
de los mainframes y las minicomputadoras de propósito general: 1959 a la fecha:
Las
primeras computadoras comerciales con tubos de vacío electrónicos aparecieron a
principios de 1950 con la introducción de las computadoras UNIVAC y la Serie
700 de IBM. No fue sino hasta 1959, con la introducción de las máquinas de
transistores 1401 y 7090 de IBM, cuando comenzó en serio el uso comercial
difundido de las computadoras mainframe. En 1965, la computadora
mainframe comercial de pro-pósito general produjo su máximo rendimiento con la
introducción de la serie 360 de IBM. La 360 fue la primera computadora
comercial con un sistema operativo potente que podía ofrecer compartición de
tiempo, multitareas y memoria virtual en los modelos más avanzados
La era de los
mainframe fue un periodo de computación altamente centralizada, controlada por
programadores y operadores de sistemas profesionales (por lo general, en un
centro de datos corporativo), en el cual la mayoría de los elementos de
infraestructura los proporcionaba un solo distribuidor: el fabricante del
hardware y el software. Este patrón comenzó a cambiar con la introducción de
las minicomputadoras producidas por Digital Equipment Corporation (DEC) en
1965.
Las
mini-computadoras de DEC (PDP-U y más tarde las máquinas VAX) ofrecían potentes
máquinas a precios mucho más bajos que los mainframes de IBM, e hicieron
posible la computación descentralizada, ajustada a las necesidades de
departamentos individuales o unidades de negocios en lugar de la compartición
de tiempo en un solo mainframe enorme.
Era
de la computadora
personal: 1981 a la fecha
Aunque
las primeras computadoras personales (PCs) verdaderas aparecieron en la década
de 1970 (la Xerox Alto, la Altair del MIT y las Apple 1 y II, por mencionar
algunas), estas máquinas sólo se distribuyeron de manera limitada entre los
entusiastas de la computación. Por lo general, el surgimiento de la PC de IMB
en 1981 se considera como el principio de la era de la PC, porque esta máquina
fue la primera en ser ampliamente adoptada por las empresas estadounide nses.
La
proliferación de las PCs en la década de 1980 y principios de la de 1990 dio
lugar a una avalancha de herramientas de software de productividad para
computado-ras de escritorio -procesadores de texto, hojas de cálculo, software
de presentaciones electrónicas y pequeños programas de administración de datos
que fueron sumamente valiosos para los usuarios tanto caseros como
corporativos. Estas PCs constituían sistemas independientes hasta que en la
década de 1990 el software para sistemas operativos de pe permitió enlazarlas
en redes.
Era
cliente/servidor: 1983 a la fecha
En
la computación cliente/servidor, las computadoras de escritorio o las
portátiles, llamadas clientes, se enlazan en red a potentes computadoras
servidores que proporcionan a las computadoras cliente una variedad de
servicios y capacidades. El trabajo de procesamiento de cómputo se reparte
entre estos dos tipos de máquinas. El cliente es el punto de entrada para el
usuario, en tanto que, por lo general, el servidor procesa y almacena datos
compartidos, suministra páginas Web o administra las actividades de la red. El
termino servidor hace referencia tanto a la aplicación de software como a la
computadora física en la cual se ejecuta el software de red. El servidor puede
ser un mainframe, aunque en la actualidad las computadoras servidores son
generalmente versiones más potentes de las computadoras personales, basadas en
chips Intel económicos y que con frecuencia utilizan varios procesado-res en un
solo gabinete de computadora. La red cliente/servidor más sencilla consta de
una computadora cliente conecta-da en red a una computadora servidor, en la
cual el procesamiento se reparte entre los dos tipos de máquinas. Esto se
conoce como arquitectura cliente/servidor de dos capas.
Era de la computación empresarial y de Internet : 1992 a la fecha
El
éxito del modelo cliente/ servidor planteó una nueva serie de problemas. Para
muchas empresas grandes fue difícil integrar todas sus redes de área local
(LANs) en un solo y lógico entorno de cómputo corporativo. Las aplicaciones
desarrolladas por los departamentos locales y por las divisiones de una
empresa, o en diferentes áreas geográficas, no se podían comunicar fácilmente
entre sí ni compartir datos.
A
principios de la década de 1990, las empresas recurrieron a están dares de
conectividad de redes y herramientas de software que podían integrar en una
infraestructura a nivel empresarial las redes y aplicaciones diferentes
diseminadas por toda la organización. A medida que Internet evolucionó hasta
convertirse en un entorno de comunicaciones confiable después de 1995, las
empresas comenzaron a utilizar
La
infraestructura de TI resultante enlaza las diferentes piezas del hardware de
cómputo y las redes más pequeñas en una red a nivel empresarial, de tal forma
que la información puede fluir libremente a través de la organización y entre
ésta y otras organizaciones. Esta infraestructura puede enlazar diferentes
tipos de hardware de cómputo, como mainframes, servidores, pes, teléfonos
móviles y otros dispositivos portátiles, e incluye infraestructuras públicas
como el sistema telefónico, Internet y servicios de redes públicas. La
infraestructura empresarial también requiere software para enlazar aplicaciones
distintas y permitir que los datos fluyan libremente a través de las diferentes
partes de la empresa.
IMPULSORES TECNOLOGICOS DE LA
EVOLUCION DE LA INFRAESTRUCTURA
Han sido resultado de los desarrollos en el procesamiento de las
computadoras, los chips de memoria, los dispositivos de almacenamiento, el
hardware y el software de telecomunicaciones y de conectividad de redes, así
como en el diseño del software, que en conjunto han incrementado
exponencialmente la potencia de cómputo al mismo tiempo que han reducido
también exponencialmente los costos.
Ley de more y la potencia de microprocesamiento
En 1965, Gordon Moore, director de los Laboratorios de Investigación y
Desarro110 de Fairchild Semiconductor, uno de los primeros fabricantes de
circuitos integrados, escribió en Electronics Magazine que desde la
aparición del primer chip de microprocesador en 1959, se había duplicado cada
año la cantidad de componentes en un chip con los costos de manufactura más
bajos por componente (por 10 general, transistores). Esta afirmación se
convirtió en el fundamento de la ley de
Moore. Más tarde, Moore redujo la velocidad del crecimiento a una
duplicación cada dos años (tuomi, 2002).
Posteriormente,
esta ley sería interpretada de diversas maneras. Existen al menos tres
variaciones de la ley de Moore, ninguna de las cuales fue enunciada por Moore:
La potencia de los
microprocesadores se duplica cada 18 meses (Gates 1997);
·
La potencia de cómputo se duplica cada 18 meses, y
·
El precio de la computación se reduce a la mitad cada 18
meses.
La figura 1.3.2 muestra la reducción exponencial
en el costo de los transistores y el aumento de la potencia de cómputo.
Existe una razón para creer que en el futuro continuará el crecimiento exponencial en la cantidad de transistores y la potencia de los procesadores junto con una reducción exponencial en los costos de cómputo.
Intel
considera que a través del uso de la tecnología podrá reducir el tamaño de los
transistores hasta el ancho de varios átomos.
La nanotecnología utiliza átomos y moléculas
individuales para crear chips de computadora y otros dispositivos que son miles
de veces más pequeños de lo que permiten las tecnologías actuales. IBM y otros
laboratorios de investigación han creado transistores a partir de nanotubos y
otros dispositivos eléctricos y han desarrollado un proceso de manufactura que
puede producir procesadores con nanotubos a bajo costo.
Los
nanotubos son tubos microscópicos 10,000 veces más delgados que un cabello humano. Están compuestos de láminas de carbono hexagonales enrolladas.
Descubiertos por investigadores del NEC en 1991, se pueden utilizar como
alambres minúsculos o en dispositivos electrónicos ultra diminutos y son
potentes conductores de electricidad.
Ley del almacenamiento digital masivo
Un
segundo impulsor tecnológico del cambio en la infraestructura de TI es la ley
del almacenamiento digital masivo, donde la cantidad de información digital se
duplica más o menos cada año casi la totalidad de este crecimiento se da en el
almacenamiento magnético de datos digitales, en tanto que los documentos
impresos representan únicamente el 0,003 por ciento del crecimiento anual.
El costo del
almacenamiento de información digital está disminuyendo a una tasa exponencial.
Ley de Metcalfe y la
economía de redes
Las
leyes de Moore y del almacenamiento masivo nos ayudan a entender por qué es tan
fácil acceder ahora a los recursos de cómputo.
Robert
Metcalfe inventor de la tecnología para las LAN Ethernet afirmó en 1970 que el
valor o potencia de una red crece exponencialmente como una función de la
cantidad de miembros de la red. Metcalfe
señala los retornos crecientes a escala que reciben los miembros de la
red conforme más y más gente se une a la red. A medida que los miembros de una
red aumentan linealmente, el valor total del sistema aumenta exponencialmente y
continúa creciendo siempre conforme se incrementan los miembros. La demanda de
tecnología de información ha sido impulsada por el valor social y de negocios
de las redes digítales, las cuales multiplican rápidamente el número de enlaces
reales y potenciales entre los miembros de la red.
Reducción de los costos
de las comunicaciones y crecimiento de internet
Transforma
la infraestructura de TI es la rápida reducción en los costos de la
comunicación y el crecimiento exponencial del tamaño de Internet. Se estima que
actualmente 1,100 millones de personas de todo el mundo tienen acceso a
Internet, y de éstos, 175 millones se encuentran en Estados Unidos. En este
país hay más de 250 millones de computadoras en la Web.
Estándares y sus efectos en las redes
La
infraestructura empresarial y la computación por Internet actualmente no serían
posibles tanto ahora como a futuro sin acuerdos entre fabricantes sobre
estándares tecnológicos y la aceptación generalizada de éstos por parte de los
consumidores. Los estándares tecnológicos son especificaciones que establecen
la compatibilidad de productos y su capacidad para comunicarse en una red
Los
estándares tecnológicos propician el desarrollo de poderosas economías de
escala y dan como resultado disminuciones de precios a medida que los
fabricantes se enfocan en la elaboración de productos apegados a un solo
estándar. Sin estas economías de escala, la computación de cualquier tipo sería
mucho más costosa de lo que actualmente es.
Algunos
estándares son:
· Código
estándar estadounidense para el intercambi
de información (ASCII) (1958)
·Lenguaje
común orientado a negocios (COBOL)(1958)
Unix
(1969-1975)
·Protocolo
de control de transmisión/protocolo internet (TCP/IP)(1974)
·Ethernet
(1973)
·Computadora
personal de IBM/Microsoft/ Intel(1981)
· World
Wide Web (1989-1993).
Plataformas de hardware de cómputo
Las empresas de Estados Unidos
gastaron cerca de 145,000 millones de dólares en 2005 en hardware de cómputo.
Este componente incluye a las máquinas cliente (PCs de escritorio, dispositivos
de cómputo móviles como PDAs y computadoras portátiles) y las máquinas
servidor. Las máquinas cliente utilizan principalmente microprocesadores Intel
o AMD.
El mercado del hardware de cómputo se
ha concentrado cada vez más en empresas líderes como IBM, HP, Dell y Sun
Microsystems, que producen el 90 por ciento de las máquinas, y en tres
productores de chips: Intel, AMD e IBM, que representan 90 por ciento de los
procesadores vendidos en 2004. La industria se ha inclinado colectivamente por
Intel como el procesador estándar, con las excepciones principales de las
máquinas Unix y Linux en el mercado de los servidores, las cuales pueden
utilizar los procesadores para Unix de SUN o IBM.
COMPONENTES
DE LA INFRAESTRUCTURA
La infraestructura de TI está
conformada por siete componentes principales siguientes:
Plataformas de hardware de cómputo
Las empresas de Estados Unidos
gastaron cerca de 145,000 millones de dólares en 2005 en hardware de cómputo.
Este componente incluye a las máquinas cliente (PCs de escritorio, dispositivos
de cómputo móviles como PDAs y computadoras portátiles) y las máquinas
servidor. Las máquinas cliente utilizan principalmente microprocesadores Intel
o AMD.
El mercado del hardware de cómputo se
ha concentrado cada vez más en empresas líderes como IBM, HP, Dell y Sun
Microsystems, que producen el 90 por ciento de las máquinas, y en tres
productores de chips: Intel, AMD e IBM, que representan 90 por ciento de los
procesadores vendidos en 2004. La industria se ha inclinado colectivamente por
Intel como el procesador estándar, con las excepciones principales de las
máquinas Unix y Linux en el mercado de los servidores, las cuales pueden
utilizar los procesadores para Unix de SUN o IBM.
Plataformas
de software de cómputo
Los
cuales se encargan del manejo de los recursos y actividades de la computadora,
llegara a 110,000 millones de dólares. En el nivel del cliente, 95 por ciento
de las PCs y 45 por ciento de los dispositivos portátiles utilizan alguno de
los sistemas operativos de Micro-soft Windows (como Windows Xp' Windows 2000 o
Windows CE). En contraste, en el mercado de servidores, más de 85 por ciento de
los servidores corporativos de Estados Unidos utilizan alguno de los sistemas
operativos Unix o Linux.
Unix y Linux constituyen la columna
vertebral de la infraestructura de muchas corporaciones de todo el mundo porque
son escalables, confiables y mucho más económicos que los sistemas operativos
para mainframes.
Administración
y almacenamiento de dato
Existen pocas opciones de software de
administración de bases de datos empresariales, el cual es responsable de
organizar y administrar los datos de la empresa a fin de que se puedan acceder
y utilizar de manera eficiente
El mercado de almacenamiento físico de datos para sistemas de gran
escala lo domina EMC Corporation, junto con un pequeño número de fabricantes de
discos duros para PC encabezados por Seagate, Maxtor y Western Digital. Aparte
de los tradicionales arreglos de discos y bibliotecas de cintas, las grandes
empresas están recurriendo a tecnologías de almacenamiento basadas en redes.
Las redes de área de almacenamiento (SANs) conectan a múltiples dispositivos de
almacenamiento en una red de alta velocidad independiente dedicada a tareas de
almacenamiento
Cada tres años se duplica la cantidad de nueva información digital en todo el mundo, situación propiciada en parte por el comercio electrónico y los negocios en línea, lo mismo que por decretos y reglamentaciones que obligan a las empresas a invertir en instalaciones de gran extensión para el almacenamiento y administración de datos.
Plataformas de conectividad de redes y telecomunicaciones
COMPUTACIÓN AUTÓNOMA Y COMPUTACIÓN
TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE Y TECNOLOGÍAS EMERGENTES
ASPECTOS DE ADMINISTRACIÓN
Cada tres años se duplica la cantidad de nueva información digital en todo el mundo, situación propiciada en parte por el comercio electrónico y los negocios en línea, lo mismo que por decretos y reglamentaciones que obligan a las empresas a invertir en instalaciones de gran extensión para el almacenamiento y administración de datos.
Plataformas de conectividad de redes y telecomunicaciones
Las
empresas de Estados Unidos gastan la gigantesca cantidad de 769,000 millones de
dólares anuales en hardware y servicios de conectividad de redes y
telecomunicaciones. La parte más importante de este presupuesto, cerca de
620,000 millones de dólares, se dedica a servicios de telecomunicaciones (consistentes principalmente en cobros de las
compañías de telecomunicaciones, de cable y telefónicas por líneas de voz y
acceso a Internet; estos servicios no se incluyen en esta explicación pero se
deben tomar en cuenta como parte de la infraestructura de la empresa).
Plataformas
de internet
Las
plataformas de Internet se traslapan, y deben relacionarse con, la
infraestructura de conectividad de redes general de la empresa y con las
plataformas de hardware y software, Estados Unidos gastan alrededor de 35,000
millones de dólares anuales en infraestructura relacionada con Internet. Estos
gastos se hicieron en hardware, software y servicios de administración para
apoyar los sitios Web de las empresas, incluyendo servicios de alojamiento en
Web, y para intranets y extranets.
Un servicio de
alojamiento en Web mantiene un enorme servidor Web, o series de servidores, y
proporciona espacio a los suscriptores que pagan cuotas para mantener sus
sitios Web.
Un servicio de alojamiento en Web
mantiene un enorme servidor Web, o series de servidores, y proporciona espacio
a los suscriptores que pagan cuotas para mantener sus sitios Web.
Las principales
herramientas de desarrollo de aplicaciones y conjuntos de pro-gramas de
software para Web son proporcionadas por Microsoft (FrontPage y la familia de
herramientas de desarrollo Microsoft.
Servicios
de consultoría e integración de sistemas
Grandes empresas no cuentan con el
personal, los conocimientos, el presupuesto o la experiencia necesaria para
hacerlo. La implementación de nueva infraestructura requiere, cambios
significativos en los procesos y procedimientos de negocios, capacitación y
entrenamiento, así como integración del software, por esta razón, las empresas gastan 130,000 millones anuales en servicios de consultoría e
integradores de sistemas.
La integración de software significa
asegurar que la nueva infraestructura funcione con los sistemas heredados de la
empresa y garantizar que los nuevos elementos de la infraestructura funcionen
entre sí.
Por lo general, los
sistemas heredados son sistemas de procesamiento de transacciones creados para
computadores mainframe que continúan utilizándose para evitar el alto costo de
reemplazarlos o rediseñarlos. La sustitución de estos sistemas es prohibitiva
desde el punto de vista de los costos y, por lo no es necesaria si estos
sistemas más antiguos se pueden integrar en una infraestructura contemporánea.
TENDENCIAS DE LAS
PLATAFORMAS DE HARDWARE Y TECNOLOGÍAS EMERGENTES
Aunque
el costo de la computación se ha reducido exponencialmente, en realidad el
costo de la infraestructura de TI se ha incrementado como un porcentaje de los
presupuestos corporativos. ¿Por qué? Los costos de los servicios de
computación integración de sistemas) y
el software son altos, en tanto que la de-manda de computación y comunicación
se ha incrementado a medida que otros costos se han reducido.
LA
INTEGRACIÓN DE LAS PLATAFORMAS DE CÓMPUTO Y
TELECOMUNICACIONES.
El tema dominante en las
plataformas de hardware actuales es la con ver de las plataformas de
telecomunicaciones y de cómputo hasta el punto de que, cada vez más, la computación se
realice sobre la red. Esta convergencia se puede ver en varios niveles.
En el nivel del
cliente, los dispositivos de comunicaciones como los teléfonos celulares están
asumiendo las funciones de computadoras de mano, en tanto que éstas están
haciendo las funciones de teléfonos celulares.
COMPUTACIÓN
DISTRIBUIDA
La computación
distribuida implica conectar en una sola red computadoras que se encuentran
en ubicaciones remotas para crear una supercomputadora virtual al combinar la
potencia de cómputo de todas las computadoras de la red. La computación distri-buida era imposible
hasta que las conexiones de alta velocidad a Internet permitie-ron a las
empresas conectar máquinas remotas de una manera económica y despla-zar enormes
cantidades de datos, La computación distribuida
requiere programas de software para controlar y asig-nar recursos en la red,
como el software de código abierto proporcionado por Globus Alliance (www.globus.org) o
por proveedores privados.
COMPUTACIÓN BAJO DEMANDA (COMPUTACIÓN TIPO
SERVICIO
PÚBUCO)
La computación
bajo demanda se refiere a las empresas que satisfacen el exceso de demanda
de potencia de cómputo a través de centros remotos de procesamiento de datos a
gran escala. De esta manera, las empresas pueden reducir sus inversiones en
infraestructura de TI e invertir únicamente lo necesario para manejar las
cargas promedio de procesamiento y pagar solamente por la potencia de cómputo
adicional que demande el mercado. Otro
término para la computación bajo de-manda es computación tipo servicio
público, el cual sugiere que las empresas compran capacidad de cómputo a
compañías de servicios de cómputo centrales y pagan solamente por la cantidad
de capacidad de cómputo que utilizan, de la mis-ma manera que 10 harían por la
electricidad. IBM, HP, Orade y Sun Microsystems ofrecen servicios de
computación bajo demanda.
COMPUTACIÓN AUTÓNOMA Y COMPUTACIÓN
DE
VANGUARDIA
La computación
autónoma es una iniciativa de toda la industria para desarrollar sistemas
que puedan auto configurarse, optimizarse y afinarse a sí mismos, autor
repararse cuando se descompongan, y auto protegerse de intrusos externos y de
la autodestrucción.
La computación de
vanguardia es un esquema multicapa, de balanceo de carga para aplicaciones
basadas en la Web en el cual partes significativas del contenido, la lógica y
el procesamiento del sitio Web son ejecutados por servidores más pequeños y más
económicos, localizados cerca del usuario con la finalidad de incrementar el
tiempo de respuesta y la resistencia y, a la vez, reducir los costos de la
tecnología. la cual consta de servidores localizados en cualquiera de los más
de 5,000 proveedores de servicios de Internet que hay en Estados Unidos, y
computadoras empresariales localizadas en los principales centros de datos de
la empresa.
VIRTUALIZACIÓN y PRO CESADOR ES MULTINÚCLEO
La virtualización es el proceso de presentar
un conjunto de recursos de cómputo (como la potencia de procesamiento o el
almacenamiento de datos) de tal manera que se pueda acceder a todos sin ningún
tipo de restricción por su configuración física o su ubicación geográfica La
virtualización de servidores permite a las empresas ejecutar más de un sistema
operativo al mismo tiempo en una sola máquina. La
mayoría de los servidores operan a sólo 10 o 15 por ciento de su capacidad, y
la virtualización puede aumentar las tasas de utilización de los servidores a
70 por ciento o más. Las tasas de utilización más altas se traducen en menos
computadoras necesarias para procesar la misma cantidad de trabajo.
Además
de reducir los en hardware y en consumo de energía eléctrica, la virtualización
permite a las empresas ejecutar sus aplicaciones heredadas de versiones
anteriores de un sistema operativo en el mismo servidor en que ejecuta sus
aplicaciones más recientes. La virtualización también facilita centralizar la
administración del hardware.
TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE Y TECNOLOGÍAS EMERGENTES
- Linux y el software de código
abierto.
- Java.
- El software empresarial.
- Los servicios Web y la
arquitectura orientada a servicios.
- Los mashups y las aplicaciones de
software basadas en la Web.
La
sub contratación de software.
EL SURGIMIENTO DE LINUX Y
EL SOFTWARE
DE CÓDIGO ABIERTO
El software de código abierto es software producido por una
comunidad de cientos de miles de programadores de todo el mundo. Según la
principal asociación de profesionales del código abierto, OpenSource.org, el software de código
abierto es gratuito y puede ser modificado por los usuarios. Los trabajos
derivados del código original también deben ser gratuitos, y el software puede
ser redistribuido por el usuario sin necesidad de licencias adicionales.
El software de código abierto se fundamenta en la
premisa de que es superior al software propietario producido de manera
comercial porque miles de programadores de todo el mundo que trabajan sin
recibir ningún pago por ello, pueden leer, perfeccionar, distribuir y modificar
el código fuente mucho más rápido, y con resulta dos más confiables, que los
pequeños equipos de programadores que trabajan para una sola empresa de
software.
Linux
Tal vez el software de código abierto más conocido es Linux, un
sistema operativo derivado de Unix. Linux fue creado por el programador
finlandés Linus Thrvalds y colocado por primera vez en Internet en agosto de
1991. En la actualidad, Linux es el sistema operativo para clientes y
servidores de más rápido crecimiento en el mundo. En 2005, Linux fue instalado
en cerca de 6 por ciento de las nuevas PCs vendidas en Estados Unidos, y se
espera que para 2010 esta cifra crecerá a más de 20 por ciento de las PCs vendidas
(Bulkeley, 2004)
Java
Fue creado en 1992 por James Goslin y el Green Tham de Sun
Microsystems como un entorno de programación para soportar la transmisión de
contenido interactivo de televisión por cable. El uso generalizado de Java
comenzó en 1995 cuando una gran cantidad de personas empezaron a utilizar la
Wor1d Wide Web e Internet. Casi todos los navegadores Web traen integrada una
plataforma de Java. Más recientemente, la plataforma Java ha migrado a
teléfonos automóviles, reproductores de música, máquinas de juegos y, por
último, a sistemas de televisión por cable que entregan contenido interactivo y
ofrecen servicios de pago por evento.
El software de Java está diseñado para ejecutarse en cualquier
computadora o dispositivo de cómputo, independientemente del microprocesador
específico o el sistema operativo que utilice el dispositivo.
Java es particularmente útil en entornos de red como Internet.
Aquí, Java se utiliza para crear diminutos programas conocidos como applets que
están diseñados para residir en servidores de red centralizados.
SOFTWARE PARA LA
INTEGRACION EMPRESARIAL
Las aplicaciones de software heredado existentes con las nuevas
aplicaciones basadas en la Web para conformar un solo sistema coherente que se
pueda manejar de manera racional.
En el pasado, por lo general, las empresas construían su propio
software personalizado y hacían sus propias elecciones sobre su plataforma de
software. Esta estrategia producía cientos de miles de programas de cómputo que
con frecuencia no se podían comunicar con otros programas de software, su
mantenimiento era difícil y costoso, y era prácticamente imposible cambiarlos
con rapidez a medida que cambiaban los modelos de negocios
Las empresas podrían optar por escribir su propio software para
conectar una aplicación con otra, pero cada vez compran más paquetes de
software de integración de aplicaciones empresariales (EAI) para conectar
aplicaciones independientes o grupos de aplicaciones. Este software permite que
muchos sistemas inter-cambien datos por medio de un solo centro de software en
lugar de construir incontables interfaces de software personalizadas para
enlazar cada sistema (vea la figura 5-12). Algunos de los proveedores líderes
de software de aplicaciones empresariales son WebMethods, Tibco, SeeBeyond, BEA
y Vitria.
Servicios Web
y arquitectura orientada a servicios (SOA)
Las
herramientas de software de integración de aplicaciones empresariales son específicas
para un producto, es decir, pueden trabajar solamente con ciertas partes del
software de aplicaciones y sistemas operativos. Por ejemplo, una herramienta
EAI para conectar una parte específica de un software de captura de pedidos de
ventas con aplicaciones de manufactura, embarque y facturación, tal vez no
funcione con el software de captura de pedidos de otro proveedor. Un programa
de middleware desarrollado por BEA Systems, un importante integrador de
sistemas, tal vez no pueda comunicarse con la aplicación de middleware de otros
proveedores que usted haya comprado años atrás sin un gasto considerable en
recursos de programación y diseño.
SOFTWARE
DE INTEGRACIÓN DE APLICACIONES EMPRESARIALES (EAD EN COMPARACIÓN CON LA
INTEGRACIÓN TRADICIONAL
Los
servicios Web se refieren a un conjunto de componentes de software ligera-mente
acoplados que intercambian información entre sí por medio de estándares y
lenguajes de comunicación para la Web. Pueden intercambiar información entre
dos sistemas diferentes sin importar los sistemas operativos o los lenguajes de
programación en que estén basados. Se pueden combinar para construir
aplicaciones basadas en la Web con un estándar abierto que enlacen sistemas de
dos organizaciones diferentes, aunque también se pueden utilizar para crear
aplicaciones que enlacen sistemas distintos dentro de una misma empresa.
La tecnología que sustenta los
servicios Web es XML, que significa Lenguaje de Marcación Extensible. Este
lenguaje fue desarrollado en 1996 por el World Wide Web Consortium (W3C, el
organismo internacional que supervisa el desarrollo de la Web) como un lenguaje
de marcación más potente y flexible para páginas Web que el Lenguaje de
Marcación de Hipertexto. El Lenguaje de Marcación de Hipertexto (HTML) es un
lenguaje de descripción de páginas para especificar la manera en que el texto,
las imágenes, el video y el sonido se colocan en el documento de una página
Web.
Los
servicios Web se comunican por medio de mensajes XML sobre protocolos Web
estándar. SOAP, que significa Protocolo Simple de Acceso a Objetos, es un
conjunto de reglas para estructurar mensajes que permite a las aplicaciones
pasarse datos e instrucciones entre sí. WDSL significa Lenguaje de Descripción
de Servicios Web; es un marco de trabajo común para describir las tareas
realizadas por un servicio Web y los comandos y datos que aceptará y que podrán
ser utilizados por otras aplicaciones.
El conjunto de servicios
Web que se utiliza para construir los sistemas de software-re de una empresa
constituye 10 que se conoce como arquitectura orientada a servicios. Una arquitectura
orientada a servicios (SOA) es un conjunto de servicios
independientes que se comunican entre sí para crear una aplicación de software
funcional.
En otras palabras, SOA es
una forma completamente nueva de desarrollar software para una empresa. En el
pasado, las empresas acostumbraban construir aplicaciones de software para un
pro-pósito específico, como calcular facturas y enviarlas impresas. Con
frecuencia podía haber múltiples programas que realizaban partes de una tarea o
que la ejecutaban to-da pero utilizaban distinto código para cumplir sus objetivos.
Ninguno de los programas se podía comunicar con los demás.
AJAX,
MASHUPS, WEB 2.0 y APUCACIONES
DE SOFTWARE BASADAS EN LA WEB
Ajax (JavaScript y XML asíncronos) es
una técnica para permitir que su cliente y el servidor con el que está
trabajando sostengan una conversación en segundo Pla-no, y que la información
que usted introduzca se transfiera al servidor al instante sin que usted lo
note. Al hacer clic en un sitio de mapas, como Google Maps, el servidor
descarga tan sólo la parte de la aplicación que cambia sin esperar que se cargue
un mapa completamente nuevo.
Conjunto
de técnicas relacionadas, conocido como RlA (aplicaciones de Internet
enriquecidas), utilizan unos programas de JavaScript o Adobe Flash
(anteriormente Macromema Flash)) que se descargan a su cliente para mantener
una conversación continua con el servidor que esté usted utilizando. A pesar de
que facilitan mucho la vida a los usuarios, Ajax y RlA son aún más importantes
para otro nuevo desarrollo de software: las aplicaciones basadas en la Web.
En
menor medida, los empresarios emprendedores están creando nuevas aplicaciones y
servicios de software con base en la combinación de diferentes aplicaciones de
software en línea. Denominadas mashups (aplicaciones Web híbridas), estas
nuevas aplicaciones combinadas dependen de redes de datos de alta velocidad,
estándares de comunicaciones universales y código abierto. El propósito es
tomar diferentes recursos y producir un nuevo trabajo que sea "mayor
que" la suma de sus partes.
Parte
de un movimiento llamado Web 2.0, y al igual que los mashups musicales, los
mashups de la Web combinan las capacidades de dos o más aplicaciones en línea
para crear un tipo de híbrido que proporciona más valor al cliente que los
recursos originales por sí solos. Por ejemplo, Paul Rademacher, un programador
de Silicon Valley, abrió un sitio Web llamado HousingMaps.com que despliega listados de
bienes raíces en áreas locales de Craigs1ist.org sobrepuestos en mapas de
Goog1e, con chinchetas que muestran la ubicación de cada listado. El sitio ha
atraído a más de medio millón de visitantes y recibe alrededor de 10,000
visitas al día.
El servicio de Google ha simplificado el proceso de utilizar los
datos de sus mapas hasta el nivel de insertar cuatro líneas de código de
JavaScript en un programa. Esta simplificación ha hecho que el proceso de
integrar mapas en otras aplicaciones sea extremadamente sencillo para miles de
diseñadores de sitios Web. Las APls disponibles de manera pública proporcionan
a los programadores las herramientas para extraer datos de muchos sitios Web
diferentes y combinarlos con información adicional para crear un servicio Web
totalmente nuevo. El resultado es que la Web ha dejado de ser una simple
colección de páginas para convertirse en un conjunto de capacidades, una
plataforma donde miles de programadores pueden crear nuevos servicios con
rapidez y a bajo costo.
En
el texto anterior mencionamos que la "Web 2.0" es parte de un
"movimiento". Para nosotros es una expresión de todos los cambios
descritos anteriormente, además de otros cambios en la manera en que la y las
empresas utilizan la Web y cómo consideran la interacción humana en la Web.
Web 2.0 se puede resumir de la siguiente manera (O'Reilly, 2005):
·
Servicios, no software empacado, con escalabilidad rentable.
·
Control sobre recursos de datos únicos, difíciles de recrear, que
se enrique-cen a medida que los utiliza más gente.
·
Confiar en los usuarios como desarrolladores.
·
Aprovechar la inteligencia colectiva.
·
Hacer uso de la "larga mal! a través del autoservicio
del cliente.
·
El software arriba del nivel de un solo dispositivo.
·
Interfaces de usuario, modelos de desarrollo y modelos de negocio
ligeros.
SUBCONTRATACIÓN DE SOFTWARE
Se proyectaba que para 2006 las empresas estadounidenses gastarían
cerca de 340,000 millones de dólares en software. En el pasado, la mayor de
este software era desarrollado dentro de las empresas por equipos de
programadores. A pesar de que las empresas aún conservan grupos de personas de
TI, ya no se enfocan exclusivamente en la creación del software. En 2006 las
empresas encarga-ron cerca de la tercera parte del desarrollo de software a
desarrolladores externos, incluyendo empresas de software empresarial que les
venderían soluciones comerciales personalizadas a sus necesidades.
Una tercera fuente externa de software es la subcontratación,
en la cual una empresa contrata el desarrollo de software personalizado o el
mantenimiento de programas heredados existentes con empresas externas, las
cuales con frecuencia operan en regiones del mundo donde se pagan salarios
bajos. De acuerdo con la empresa consultora Gartner Group, la subcontratación
en todo el mundo totalizó más de 624,000 millones de dólares en 2005
(McDougall, 2006). En este rubro, el gasto más grande se pagó a empresas
estadounidenses de middleware, servicios de integración y otro soporte de
software que con frecuencia se requiere para operar sistemas empresariales
grandes.
La mayor parte del software sub contratado se crea en Estados
Unidos, pero una porción creciente de los proyectos de software subcontratados
se lleva a cabo en otros lugares que tienen salarios bajos, como India, China,
Europa Oriental, África y América Latina. Además, otro 15 por ciento de la
funcionalidad del software se obtendrá no por medio de la compra del software sino
del servicio -dejando que más desarrolle el software.
ASPECTOS DE ADMINISTRACIÓN
La
creación y manejo de una infraestructura de TI coherente da lugar a diversos retos:
manejo de la escalabilidad y el cambio tecnológico, administración y gobierno,
e inversiones acertadas en infraestructura.
MANEJO DE L CAMBIO EN LA
INFRAESTRUCTURA
A medida
que crecen, las empresas pueden rebasar rápidamente su infraestructura. Por el contrario, a medida que se reducen,
pueden verse obligadas a cargar con una infraestructura excesiva adquirida e n
tiempos mejores. La escalabilidad se refiere a la capacidad
de una computa-dora, producto o sistema de expandirse para dar servicio a un
mayor número de usuarios sin fallar.
ADMINISTRACIÓN Y
GOBIERNO
Una vieja cuestión entre los gerentes de sistemas de información y
los directores generales ha sido la duda de quién controlará y manejará la
infraestructura de TI de la empresa. Departamentos y las divisiones deben tener
la responsabilidad de tomar sus propias decisiones sobre tecnología de
información o debe controlarse y manejarse de manera central la infraestructura
de TI? ¿Cuál es la relación entre la administración central de los sistemas de
información y la administración por unidades de negocios de los sistemas de
información? ¿Cómo se asignarán los costos de infraestructura entre las
unidades de negocios? Cada organización tendrá que ob-tener respuestas con base
en sus propias necesidades.
INVERSIONES
ACERTADAS EN INFRAESTRUCTURA
La
infraestructura de TI es una inversión importante para la empresa. Si se gasta
demasiado en infraestructura, ésta permanecerá ociosa y constituirá un
obstácu-lo para el desempeño financiero de la empresa. Si se muy poco, no se
podrán entregar servicios de negocios importantes y los competidores (quienes
inviertan la cantidad exacta) superarán a la empresa.
Modelo de fuerzas competitivas para inversión en
infrasctutura de TI
ilustra
un modelo de fuerzas competitivas que se puede utilizar para abordar la cuestión
de cuánto debe gastar su empresa en infraestructura de TI.
Demanda
del mercado por los servicios de su empresa. Realice un inventa-rio de los
servicios que provee actualmente a clientes, proveedores y emplea-dos.
La
estrategia de negocios de su empresa. Analice la estrategia de negocios a cinco
años de su empresa e intente evaluar qué nuevos servicios y capacidades serán
necesarios para alcanzar las metas estratégicas.
La
estrategia, infraestructura y costo de la tecnología de información (TI) de su
empresa. Analice los de tecnología de la información de su empre-sa para los
próximos cinco años y evalúe su alineación con los planes de negocios de la
empresa. Determine los costos totales en infraestructura de TI.
Servicios
de las empresas competidoras. Trate
de evaluar cuáles servicios tecnológicos ofrecen sus competidores a
clientes, proveedores y empleados. Establezca medidas cuantitativas y
cualitativas para compararlos con los de su empresa. Si los niveles de servicio
de su empresa se quedan cortos, su empresa está en una desventaja competitiva.
Inversiones
en infraestructura de TI de las empresas competidoras. Compare sus gastos en infraestructura
de TI con los de sus competidores. Una gran cantidad de empresas hacen del
dominio público sus gastos en tecnología reciente.
COSTO TOTAL DE PROPIEDAD DE ACTIVOS TECNOLOGICOS
Al comparar
los gastos en infraestructura de TI de su empresa con los de sus
competidores, tendrá que considerar un
amplio rango de costos. El costo real de poseer recursos tecnológicos incluye
el costo original de adquirir e instalar el hardware y el software} así como
los costos continuos de administración así como los costos continuos de
administración por las actualizaciones del hardware y el software, el
mantenimiento, el soporte técnico, la capacitación e incluso los costos de los
servicios públicos y los bienes raíces necesarios para operar y alojar la
tecnología. El modelo del costo total de la propiedad (TCO) se puede
utilizar para analizar estos costos directos e indirectos y ayudar a las
empresas a determinar el costo real de las implementaciones de tecnología
específica.
No hay comentarios:
Publicar un comentario