La virtualización lleva ya una década en el centro del escenario tecnológico. Hoy la virtualización del servidor se da por descontada, pero la industria todavía tiene trabajo pendiente a la hora de desgajar el hardware del software al que va asociado. En estos momentos, las mayores oportunidades en el ámbito de la virtualización están en los terrenos del almacenamiento, el backup o las redes. Eso sí, pendiente queda la virtualización del escritorio (VDI), que se anunció como la gran revolución hace un lustro y que hoy se circunscribe a nichos de mercado muy concretos. De todo ello hablaron, en un desayuno de trabajo organizado por CHANNEL PARTNER, portavoces de Commvault, GTI, Intel y Red Hat.
En la primera parte del debate, los asistentes aseguraron que la virtualización está por todas partes, como el aire que respiramos, aunque también aportaron matices. César Funes, responsable del canal de empresas de Commvault en el sur de Europa, recordó que hoy el cien por cien de los proyectos que aborda incorporan virtualización, “algo que no pasaba hace tres o cuatro años”. “Cualquier despliegue de soluciones nuevas o de cargas de trabajo se está moviendo a entornos virtualizados. El estándar de facto a la hora de desarrollar aplicativos o infraestructura es la virtualización”, añadió Funes.
Por su parte, Sergio Ocón, ingeniero del equipo de Red Hat en España, aseguró que todavía queda mucho sistema heredado (legacy) en este país y que “hay muchos clientes que se resisten a virtualizar”. Además, adelantó que las cargas de trabajo en los sistemas se han multiplicado por 10 o 100 y que el gran problema que surge es cómo gestionarlo. “Hay que cambiar la forma de trabajar. La diferencia, por ejemplo, entre Openstack y KVM es la gestión”, explicó Ocón.
Juan Pablo Rossi, gerente del mayorista GTI, echó la vista atrás para poner en contexto el debate. “Realmente la virtualización es una tecnología muy antigua. Hace décadas se hablaba de ella, pero sólo en entornos de mainframe. En esos momentos, los fabricantes tenían el invento, pero lo ocultaban porque reducía las posibilidades de vender sistemas en los clientes. Sin embargo, esto cambió totalmente hace unos 10 años. Como resultado, ahora ya no se habla de virtualización porque es lo normal. De hecho, lo raro es toparse con un proyecto que no lleve virtualización”. También Rossi se adelantó para decir que el futuro de este proceso de virtualización de los sistemas tiene forma de nube híbrida y supondrá la extensión del mundo virtual a nichos como el almacenamiento o el backup.
Carlos Clerencia, responsable de alianzas corporativas de Intel, dijo que la virtualización en el servidor hoy se da por hecho. Sin embargo, queda camino por andar en términos de aprovechamiento de los sistemas. “La virtualización nos ha servido para manejar de forma más eficiente la tecnología existente. Antes de la virtualización, los servidores solían quedarse en un 10% o 15% de carga, y hoy hacemos un uso del 50% de la máquina. A partir de ahora, con el centro de datos definido por software la promesa está en que cerraremos este gap [distancia]”.
La cobertura completa de esta mesa redonda saldrá publicada en el número 161 de CHANNEL PARTNER, que estará disponible a principios de diciembre