La virtualización es más que una simple palabra de moda del sector o una tendencia de TI. Esta tecnología permite que varias instancias de un entorno operativo se ejecuten en una sola pieza de hardware. Estas máquinas virtuales (VM) luego ejecutan aplicaciones y servicios como cualquier otro servidor físico y eliminan los costos relacionados con la compra y el soporte de servidores adicionales. La virtualización también ofrece otros beneficios, como el aprovisionamiento más rápido de aplicaciones y recursos. Además, puede aumentar la productividad, la eficiencia, la agilidad y la capacidad de respuesta de TI, lo que permite que los recursos de TI se centren en otras tareas e iniciativas. Sin embargo, la virtualización tiene sus riesgos.

¿Cómo evolucionó la virtualización?

Para comprender mejor los argumentos comerciales a favor de la virtualización, así como los posibles riesgos de la virtualización, debemos recordar la época en que los mainframes dominaban el mundo de la computación.

Las grandes organizaciones utilizaban los mainframes para administrar sus aplicaciones y sistemas más críticos. Sin embargo, también podrían actuar como servidores, ofreciendo la posibilidad de alojar varias instancias de sistemas operativos al mismo tiempo. Al hacerlo, fueron pioneros en el concepto de virtualización.

Muchas organizaciones se dieron cuenta rápidamente del potencial. Comenzaron a repartir las cargas de trabajo para diferentes departamentos o usuarios a fin de proporcionarles recursos informáticos dedicados para obtener más capacidad y un mejor rendimiento. Este fue el principio del modelo cliente-servidor.

En la mayoría de los casos, una aplicación se ejecutaba en un servidor, al que accedían muchos PC diferentes. Otros avances, como la aparición de la tecnología x86 de Intel, ayudaron a que la computación cliente-servidor fuera más rápida, económica y eficaz.

Todo funcionó muy bien, hasta que su popularidad se hizo popular. Finalmente, pareció que todos en la empresa querían un servidor para alojar su aplicación. Esto dio lugar a demasiados servidores («expansión de servidores») que llenaron rápidamente incluso el centro de datos más grande.

El espacio no era la única preocupación. Todos estos servidores eran caros y requerían amplios servicios de soporte y mantenimiento. En general, los costos de TI aumentaron y muchas empresas comenzaron a buscar un nuevo enfoque.

Una solución: un enfoque virtualizado para cualquier servidor que utilice la tecnología x86. Con la virtualización, un servidor físico ahora puede alojar muchas máquinas virtuales y proporcionar el aislamiento y los recursos totales que cada aplicación necesita.

Un nuevo enfoque genera nuevas preocupaciones

Todo esto funcionó bien, excepto por el nuevo riesgo de que la capa de virtualización (el hipervisor) pudiera fallar. Peor aún, una sola falla en el entorno virtualizado desencadenaría un efecto dominó en el que también fallarían todas las aplicaciones virtualizadas, lo que generaría un riesgo inaceptable de tiempo de inactividad. Para evitar este escenario, muchas empresas optaron por virtualizar sus sistemas no productivos. De esta forma, si se produjera alguna falla, los sistemas críticos no dejarían de funcionar.

A medida que la tecnología mejoraba, las organizaciones se dieron cuenta de que los hipervisores podían ofrecer el rendimiento y la estabilidad que necesitaban, y comenzaron a virtualizar todas sus aplicaciones, incluso las cargas de trabajo de producción.

Por un lado, el esfuerzo no fue difícil y pareció allanar el camino para muchos beneficios importantes. Sin embargo, por otro lado, presentaba nuevos riesgos relacionados con el hardware y la disponibilidad. Por ejemplo, consideremos el caso en el que una empresa puede tener 20 máquinas virtuales críticas para la empresa en un servidor, solo para que falle.

¿Cuánto tiempo se tardaría en resolver el problema? ¿Cuánto costaría este tiempo de inactividad? ¿Qué implicaciones a largo plazo tendría para los clientes, los posibles clientes y la reputación de la empresa? Todas estas son preguntas razonables, pero a menudo no tienen respuestas satisfactorias.

Este escenario apunta a la necesidad de contar con la infraestructura de hardware adecuada y sistemas siempre disponibles como parte de cualquier estrategia de virtualización exitosa. Cubriremos estos temas, al tiempo que abordaremos algunos conceptos erróneos comunes, en nuestro próximo artículo. Estén atentos.

¿Podemos continuar la conversación?

Díganos lo que piensa al compartir su opinión sobre los riesgos de la virtualización en Twitter o LinkedIn.

Imagen del autor

Artículos relacionados

Server aisle

Hable con los expertos en
Penguin Solutions

En Penguin, nuestro equipo diseña, construye, implementa y administra soluciones empresariales de HPC e IA de alto rendimiento y alta disponibilidad, lo que permite a los clientes lograr sus innovaciones revolucionarias.

Comuníquese hoy mismo y analicemos las necesidades de su proyecto de solución de infraestructura.

Hablemos