Home

Noticias

Artículo

IBM se lanza a la siguiente fase de la computación autonómica

Propone una solución al desafío de la industria de simplificar la tecnología de la información con tecnología de autogestión.

19 de noviembre de 2007

Bogotá_  IBM encabeza la marcha hacia la siguiente fase de la computación autonómica que potencia las funciones de autogestión para ofrecer inteligencia operativa desde el centro de datos para los líderes comerciales.

Las nuevas propuestas permiten a los usuarios utilizar mejor la inteligencia que subyace en sus equipos de computación para beneficio de la estrategia y la planificación, el análisis, la implementación de recursos, las operaciones y el mantenimiento, a la vez que mejora la oferta de la tecnología como un servicio. En esta nueva fase, la computación autonómica mejora drásticamente la gestión del consumo de la energía, los activos y las instalaciones, la conducción y los riesgos, así como las finanzas y la contabilidad de las empresas.

Estas tecnologías y servicios respaldan los objetivos originales de la computación autonómica de lograr sistemas de tecnología de la información que regulen su propio estado, y al hacerlo, respalden los objetivos y políticas comerciales de las organizaciones.

En octubre de 2001, IBM Research presentó el “IBM Autonomic Computing Manifesto” a los líderes de la industria de TI y propuso una solución al desafío que supone el mantenimiento de los entornos de computación cada vez más complejos de los que dependen millones de negocios, miles de millones de personas y billones de dispositivos cada día: construir sistemas que se autorregulen de la misma manera en que el sistema nervioso autónomo regula y protege al cuerpo humano.

“Éste fue y sigue siendo un gran desafío para la industria, que IBM se impuso así misma y a las demás empresas de IT”, comentó Alan Ganek, vicepresidente de Computación autónoma y CTO de IBM Tivoli. “La dificultad no está en las máquinas, pues la industria ha superado ampliamente los objetivos de rendimiento y velocidad de computación. El desafío es crear los estándares abiertos y las tecnologías nuevas necesarias para que los sistemas interactúen en forma efectiva, para poner en práctica políticas comerciales predeterminadas en forma más eficiente y poder así protegerse, repararse y gestionarse con una mínima dependencia de la intervención de los seres humanos.

Desde el lanzamiento del desafío de la autonomía, IBM ha invertido cientos de millones de dólares en investigación y desarrollo para simplificar los sistemas de computación y ha integrado las prestaciones autónomas en más de 500 funciones de productos en más de 100 productos y servicios diferentes. Desde la tecnología que impulsa a Blue Gene\L, la supercomputadora más veloz del mundo, a las funciones de “auto-reparación” que son hoy estándar en su software de gestión del sistema, la empresa se ha dedicado a simplificar las operaciones de los centros de datos en temas tales como la virtualización, bases de datos, mantenimiento, gestión del uso de la energía, seguridad y otras áreas.

Las nuevas y actualizadas propuestas de IBM respaldan la computación autonómica con una mayor inteligencia operacional, mejoran las evaluaciones, monitoreo y rendimiento de IT, y ayudan a establecer una gestión de servicios de IT superior: 

-IBM Tivoli Usage and Accounting Manager: Software automatizado para contabilización de recursos, asignación de costos y facturación de cargos basado en al utilización de recursos, vínculos a la gestión operativa para mejorar la gestión integral de costos de IT 

- IBM Tivoli Security Operations Manager: Brinda un tablero de control consolidado en tiempo real para ayudar a los clientes a mantener sus sistemas y redes de computación funcionando a pesar de las amenazas a su seguridad de externos, empleados o contratistas maliciosos. El software analiza datos en forma autónoma en todo el centro de datos para detectar amenazas a la seguridad, optimizando y automatizando el proceso de detección, investigación y respuesta ante incidentes. 

-  IBM OPTIMIZETest: Propuesta de servicios que automatiza las evaluaciones y la garantía de funcionamiento de las operaciones de IT. Acelera el proceso de evaluación de TI y en forma autónoma brinda y gestiona los sistemas de computación a pedido. Reduce los costos de provisión de sistemas de servidores y almacenamiento.

- IBM Tivoli Monitoring: Supervisión de rendimiento y disponibilidad de recursos de IT, con datos de diagnóstico clave y medidas correctivas automatizadas, para ayudar a mejorar el rendimiento de las aplicaciones de IT y minimizar y evitar las interrupciones de disponibilidad. 

- IBM service management services: Brinda servicios de estrategias, planificación, diseño e implementación para ayudar a los clientes a adaptar estándares y prácticas aceptadas a sus entornos de computación individuales. Compatible con las mejores prácticas de gestión de servicios, tales como ITIL, para ayudar a mejorar la calidad del servicio, la eficiencia y la velocidad de la IT, mejorar la administración de los recursos, de los activos, los cambios y los servicios y producir una organización de TI más flexible. 

- IBM Tivoli Change and Configuration Management Database: Brinda una plataforma para la implementación de iniciativas de gestión de servicios. Hace un seguimiento automático de la propagación de la información de TI entre varios sistemas de computación de una empresa, incluyendo detalles sobre servidores, dispositivos de almacenamiento, redes, middleware, aplicaciones y datos, y ayuda al personal de TI a comprender las relaciones y dependencias entre los distintos componentes.

Además, el IBM Systems Director Active Energy Manager, presentado hace una semana, se constituye en el primer software de administración del uso de la energía de la industria que utiliza funciones autónomas para realizar el seguimiento del consumo de energía en centros de datos y ayuda a los clientes a supervisar el uso de energía y realizar ajustes para mejorar eficiencias y reducir costos. La nueva versión permite a los clientes controlar el uso de energía, prevenir excesos en los costos y supervisar las tendencias de uso de la carga de trabajo para permitir una mejor planificación antes de distribuir cargas de trabajo entre múltiples plataformas en los centros de datos.