El largo camino de la virtualización

CHANNEL PARTNER reúne en una mesa a varios expertos que coinciden en que todavía queda por llevar las ventajas de la virtualización al almacenamiento, el backup o las redes. También está pendiente la automatización del CPD

Publicado el 19 Nov 2015

mesa redonda virtualización CHANNEL PARTNER noviembre 2015

La virtualización lleva ya una década en el centro del escenario tecnológico. Hoy la virtualización del servidor se da por descontada, pero la industria todavía tiene trabajo pendiente a la hora de desgajar el hardware del software al que va asociado. En estos momentos, las mayores oportunidades en el ámbito de la virtualización están en los terrenos del almacenamiento, el backup o las redes. Eso sí, pendiente queda la virtualización del escritorio (VDI), que se anunció como la gran revolución hace un lustro y que hoy se circunscribe a nichos de mercado muy concretos. De todo ello hablaron, en un desayuno de trabajo organizado por CHANNEL PARTNER, portavoces de Commvault, GTI, Intel y Red Hat.

En la primera parte del debate, los asistentes aseguraron que la virtualización está por todas partes, como el aire que respiramos, aunque también aportaron matices. César Funes, responsable del canal de empresas de Commvault en el sur de Europa, recordó que hoy el cien por cien de los proyectos que aborda incorporan virtualización, “algo que no pasaba hace tres o cuatro años”. “Cualquier despliegue de soluciones nuevas o de cargas de trabajo se está moviendo a entornos virtualizados. El estándar de facto a la hora de desarrollar aplicativos o infraestructura es la virtualización”, añadió Funes.

Por su parte, Sergio Ocón, ingeniero del equipo de Red Hat en España, aseguró que todavía queda mucho sistema heredado (legacy) en este país y que “hay muchos clientes que se resisten a virtualizar”. Además, adelantó que las cargas de trabajo en los sistemas se han multiplicado por 10 o 100 y que el gran problema que surge es cómo gestionarlo. “Hay que cambiar la forma de trabajar. La diferencia, por ejemplo, entre Openstack y KVM es la gestión”, explicó Ocón.

Juan Pablo Rossi, gerente del mayorista GTI, echó la vista atrás para poner en contexto el debate. “Realmente la virtualización es una tecnología muy antigua. Hace décadas se hablaba de ella, pero sólo en entornos de mainframe. En esos momentos, los fabricantes tenían el invento, pero lo ocultaban porque reducía las posibilidades de vender sistemas en los clientes. Sin embargo, esto cambió totalmente hace unos 10 años. Como resultado, ahora ya no se habla de virtualización porque es lo normal. De hecho, lo raro es toparse con un proyecto que no lleve virtualización”. También Rossi se adelantó para decir que el futuro de este proceso de virtualización de los sistemas tiene forma de nube híbrida y supondrá la extensión del mundo virtual a nichos como el almacenamiento o el backup.

Carlos Clerencia, responsable de alianzas corporativas de Intel, dijo que la virtualización en el servidor hoy se da por hecho. Sin embargo, queda camino por andar en términos de aprovechamiento de los sistemas. “La virtualización nos ha servido para manejar de forma más eficiente la tecnología existente. Antes de la virtualización, los servidores solían quedarse en un 10% o 15% de carga, y hoy hacemos un uso del 50% de la máquina. A partir de ahora, con el centro de datos definido por software la promesa está en que cerraremos este gap [distancia]”.

La cobertura completa de esta mesa redonda saldrá publicada en el número 161 de CHANNEL PARTNER, que estará disponible a principios de diciembre

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

Juan Cabrera
Juan Cabrera

Juan Cabrera tiene más de 20 años de especialización en el sector tecnológico y sobre todo en el canal de distribución. También ha colaborado con otros medios y promociona siempre que puede la buena literatura, la música y la vida saludable.

email Sígueme en

Artículos relacionados

Artículo 1 de 3