Por José Ángel Plaza
Datos, datos, datos… El volumen de información digital continúa creciendo a un ritmo vertiginoso, hasta tal punto que varios estudios señalan que en 2007 se crearon más datos que los producidos durante los pasados 5.000 años. En concreto, IDC estima que en el anterior ejercicio este “universo digital” alcanzó los 287 exabytes, es decir, 281.000 millones de gigabytes, un 10% más que las previsiones iniciales de la consultora, que además vaticina que en 2011 los datos mundiales sumarán 1,8 zettabytes (1.800 exabytes). Una buena parte de esa cantidad de ceros y unos corresponderá a la actividad de las compañías, que cada vez necesitan gestionar un mayor número de usuarios y clientes a través de aplicaciones más complejas. Además, hoy en día las empresas ya son concientes de la importancia que deben otorgar a cada dato corporativo si quieren competir con éxito en el mercado, lo que las anima a replicar la información para solventar posibles caídas del sistema o catástrofes. Por si fuera poco, todas las organizaciones deben cumplir con diferentes normativas legales sobre la protección de datos, lo que les obliga a almacenar una gran cantidad de información durante un determinado periodo de tiempo. En este contexto, Rosa Capell, directora de canal de EMC, estima que el volumen de datos que debe gestionar una compañía crece a un ritmo anual cercano al 60%, un porcentaje “desmesurado” que repercute de forma muy clara en organizaciones de cualquier tamaño, “no sólo en la gran cuenta”. En palabras de Capell, una consecuencia “natural” de esta inmensa proliferación de datos es la inversión en soluciones que aporten un almacenamiento “seguro” que garantice la privacidad de la información, la fiabilidad de las infraestructuras y el cumplimiento de todas las normativas vigentes. Para la responsable de canal de EMC, hoy en día esto no sólo se consigue comprando “hierro”, es decir, un hardware que actúe como repositorio de todos los documentos generados por una empresa, sino que es necesario plantearse políticas de gobierno en las que entran en juego más soluciones, como aplicaciones de seguridad, herramientas de gestión y tecnologías que optimicen la administración de la capacidad de almacenamiento. Así las cosas, EMC estima que en 2008 este mercado moverá unos 50.000 millones de dólares en todo el mundo, es decir, un 7% más que durante el pasado ejercicio. Y a grandes rasgos, Rafael Achaerandio, analista de IDC, asegura que el almacenamiento camina hacia la simplificación de las infraestructuras tecnológicas, algo propiciado por la necesidad de contar con soluciones más “automatizadas, flexibles, versátiles y previsibles”. El efecto Windsor
“Aunque ya han pasado tres años, el incendio del edificio Windsor sigue siendo un revulsivo gracias al cual siguen surgiendo nuevos proyectos de replicación de datos y planes de contingencia”. Ésa es al menos la opinión de Sara Martínez, responsable de soluciones de almacenamiento corporativo de HP, que afirma que muchas empresas aún tienen pendiente el tema de cómo resolver una situación de pérdida de datos. En este contexto, Jordi Sabiol, director general de SM Data, mayorista que comercializa nueve marcas de almacenamiento, entre ellas la suya propia (Storage Data), señala que una vez asimilada la importancia del backup, ahora el mercado se enfrenta a una segunda fase en la que las empresas se plantean soluciones más avanzadas con las que recuperar inmediatamente su actividad ante posibles caídas del sistema. De igual modo, Andrés Miramontes, director de canal de NetApp, señala que el crecimiento constante de los datos espoleará la inversión en soluciones para preservar “los activos de información”. No obstante, Miramontes señala que las empresas que destinan más recursos a las aplicaciones de recuperación ante desastres, a la replicación de centros de datos o a la continuidad del negocio son las de gran tamaño. “Las pymes, por lo general, carecen de personal adecuado para mantenerse actualizadas respecto a esta necesidad crítica para el negocio”, matiza el directivo. Pero esta carencia puede transformarse en un nuevo filón de mercado, ya que los partners pueden ofrecer servicios en remoto a las compañías de menor tamaño, mediante contratos de outsourcing. Para ello, es preciso contar con data centers de gran capacidad, aunque una vez realizada la inversión el canal puede rentabilizar este gasto utilizando la misma infraestructura para replicar el mismo modelo de negocio en diferentes clientes. De todas formas, Sara Martínez, de HP, remarca que además de estos proyectos de mayor envergadura se seguirán demandando soluciones de backup: “Ahora lo más normal es hacer estas copias en cintas que se almacenan en armarios ignífugos, pero poco a poco irán ganando terrero las librerías virtuales basadas en disco, debido a la bajada de precios de esta tecnología”. En concreto, Martínez señala que las grandes corporaciones apostarán por librerías que permitan el backup en poco tiempo, mientras que a las pymes tardarán un poco más en dar este paso porque el disco aún resulta “algo costoso” para ellas. El futuro de los datos en red
El almacenamiento de toda la vida es el conocido como DAS (Direct Attached Storage), una práctica que a grandes rasgos consiste en adquirir servidores o cabinas donde se van guardando, de forma aislada, todo tipo de información en los más diversos soportes. Según la responsable de HP, las soluciones DAS se seguirán demandando y el principal reto dentro de este segmento es que los clientes distribuyan mejor su entorno y consoliden sus infraestructuras, algo que hoy en día se está consiguiendo con las plataformas blade. En cuanto al almacenamiento en red, y siguiendo el razonamiento de Martínez, los proveedores han dedicado muchos recursos a la parte de volúmenes, es decir, a gestionar grandes bases de datos, “pero ahora llega el momento de administrar tanto volúmenes como ficheros”. En este contexto, tradicionalmente las redes SAN (Storage Area Network) albergaban grandes volúmenes de información a los que acceden diferentes usuarios, mientras que las soluciones NAS (Network Attached Storage) estaban más orientadas a la compartición de ficheros y sus mejoras pasaban por ofrecer altos niveles de disponibilidad y rendimiento. Así las cosas, la responsable de HP asegura que hoy en día las redes SAN “ya son perfectas”, mientras que a las NAS “aún les queda una vuelta de tuerca”, puesto que “la siguiente revolución está en el mercado de compartición de ficheros”. Se trata de optimizar el acceso a esa información, de modo que existan varias alternativas para llegar rápidamente hasta el fichero deseado y que el usuario no se tope con cuellos de botella en ningún momento. ¿Pero dónde encaja mejor cada tipo de almacenamiento en red? Lo híbrido se impone
Hasta ahora, las pymes se han dedicado a abastecerse de entornos NAS para gestionar sus bases de datos. Para ello, han apostado por soluciones todo en uno, es decir, bundles compuestos por un servidor, software e infraestructura de red sobre las que se iban añadiendo módulos adicionales a medida que crecían las necesidades de la organización. Una vez consolidada esta tecnología en la pyme, el siguiente paso sería ir hacia redes SAN, sobre todo si las compañías de este tamaño comienzan a sustituir sus pequeñas bases de datos por las propuestas de fabricantes como Oracle o SAP. Según Martínez, en el momento en el que las pymes se decantan por aplicativos de este tipo, lo lógico es que pasen a un entorno SAN o a uno mixto entre NAS y SAN. De la misma opinión se muestra Martín Trullás, responsable de la división de almacenamiento de Magirus, que señala que el volumen de datos a gestionar sobre todo se está incrementando en la mediana empresa, es decir, compañías de hasta 500 o 1.000 empleados que trabajan con entre 2 y 5 Teras. Para Trullás, estos clientes empiezan a demandar soluciones para el almacenamiento de ficheros, para lo cual ya existen propuestas híbridas. De esta forma, hasta hace poco para configurar una SAN normalmente era necesario montar una red sobre Fiber Channel, pero ahora ya es posible almacenar en red vía iSCSI sobre TCP/IP, es decir, el protocolo en el que se basan los entornos NAS. Por lo tanto, una pyme que ya cuenta con una NAS puede migrar a una solución SAN aprovechando las infraestructuras ya existentes. Así, Sabiol, de SM Data, matiza que el coste de una red SAN hoy en día es justificable para muchas empresas, de modo que es más fácil “crecer de forma ordenada sin tener islas de almacenamiento desperdigadas por toda la compañía”. En concreto, Sabiol cree que hoy en día el mayor filón de negocio se encuentra en organizaciones que facturan más de 6 millones de euros, a las que se les puede ofrecer sistemas de hasta 50.000 euros.
Toda la vida de un dato
Por lo que respecta a la gran cuenta, estas organizaciones ya disponen desde hace tiempo con grandes infraestructuras, así que Trullás señala que ahora el reto de estas compañías pasa por gestionar esos recursos “de forma coherente”. Se trata de optimizar y organizar cantidades ingentes de datos para aprovecharlos mejor y obtener un mayor rendimiento. En este contexto, entre otras opciones se puede apostar por soluciones de segundo nivel, como establecer cabinas intermedias para mejorar la gestión de los datos o mejorar los servidores de correo a través del archivado de los e-mails en repositorios diferentes. En definitiva, la gran cuenta camina hacia el establecimiento de una política interna que le ayude a discriminar entre la información operacional (la que utiliza día a día) y la de referencia (datos que se utilizan esporádicamente). Eso es al menos lo que opina Martínez, de HP, que recuerda que esta tendencia se conoce como ILM (gestión del ciclo de vida de la información, en sus siglas en inglés). Y entre otras tendencias, la virtualización se está imponiendo como una de las formas de optimizar los recursos de almacenamiento, toda vez que los administradores de TI van repartiendo la capacidad de la que dispone la organización a medida que lo van necesitando los empleados. De esta forma, las compañías se aseguran que las infraestructuras se están aprovechando al máximo y sólo otorgan más capacidad una vez que se ha rebasado la asignada en un principio para una determinada tarea o aplicación.
Innovación y eficiencia en el almacenamiento
En la actualidad, compañías y organizaciones de todo el mundo acumulan e intercambian más información que nunca gracias a Internet y a las nuevas tecnologías, un imparable crecimiento que hace que las empresas necesiten contar con sistemas de almacenamiento cada vez más avanzados. La consultora IDC asegura en uno de sus informes que la demanda en cuanto a capacidad de almacenamiento crece un 60% anualmente. Este incremento representa numerosos retos para los directores de los departamentos de tecnología, por lo que ahora, más que nunca, los fabricantes de este tipo de soluciones deben innovar y facilitar aún más la correcta gestión de la energía y el espacio, aumentando la eficiencia a un precio más barato. Así, mejorar la eficiencia en el almacenamiento de datos hace patente la necesidad de contar con una mejor y más inteligente gestión de la información. Tanto a través de hardware inteligente como de software más sofisticado, los directores de los centros de datos deben implantar mejores herramientas para gestionar las inmensas cantidades de terabytes en circulación dentro de sus organizaciones. Pero las tecnologías de los grandes centros de proceso de datos se pueden adaptar también a las necesidades de las pequeñas y medianas empresas, ya que la tendencia del mercado es evolucionar hacia sistemas abiertos, menos complejos y más económicos. El abaratamiento progresivo de los equipos y las comunicaciones y la facilidad de implementación de soluciones hasta hace poco bastante sofisticadas (como la replicación entre centros de datos para asegurar la continuidad del negocio) registran un interés creciente por parte del mercado. Para hacer llegar al mercado todas estas nuevas soluciones de virtualización y continuidad de negocio, empresas como IBM cuentan con el canal de distribución como su mejor aliado. Para nosotros es importante seguir apostando por nuestros socios de negocio, formándolos y certificándolos en estas tecnologías. La implantación de estas tecnologías más complejas en todo tipo de empresas hace que el papel del canal sea más necesario que nunca. Carlos Roldán, director de programas cross brand de la vivisión de hardware de IBM
A pesar de todo, el mercado seguirá creciendo El mercado del almacenamiento es uno de los más asumidos en el mundo de la informática, ya que todos estamos convencidos de la necesidad de almacenar la información, consolidarla y tener un sistema de recuperación de desastres. Otro tema es que los clientes sepan por dónde comenzar un proyecto semejante, ya que los fabricantes se han preocupado principalmente de los grandes clientes y han evangelizado poco a los medianos y pequeños.
En este contexto, los clientes suelen alternar un año de inversión con otro de recato y contención del gasto. Pero a pesar de ello, el mercado del almacenamiento seguirá creciendo y principalmente se invertirá en virtualización y software para facilitar la gestión de la información y reducir los costes. Se espera una continuación en el predominio de la inversión en el high-end y un aumento en la inversión de equipos de almacenamiento de las empresas del segmento pyme. En el mercado de sistemas de disco, la tecnología iSCSI se presenta como una opción muy interesante para cubrir el deseado y atractivo mercado pyme, no sólo por su simplicidad y bajo coste, sino también por su capacidad para soportar una amplia variedad de entornos y aplicaciones. Así, sin distinguir entre SAN y NAS y gracias a las soluciones iSCSI, el almacenamiento en red tenderá a crecer en la pequeña y mediana empresa y en oficinas remotas. Por otro lado, frente a las políticas de algunos fabricantes de apartar de su canal principal a los mayoristas, desplazándolos al mercado pyme y vendiendo directamente a los grandes integradores, existen otros proveedores que apuestan cada vez más por los mayoristas, dándoles más herramientas y apoyo y reduciendo su canal de partners directos. Casualmente, estos últimos fabricantes son los más exitosos. Así las cosas, estamos convencidos de que 2008, a pesar de la crisis que se anuncia, será otro año de éxitos para el mundo del almacenamiento. Y para estar a la altura de las circunstancias, hemos aumentado los departamentos de ventas con nuevas incorporaciones y estamos focalizando a nuestro personal en la especialización de estas soluciones.
Elba Fernández Novoa, directora general de Distrilogie.
En la práctica
Omega Peripherals en Eroski
El grupo de distribución alimentaria Eroski ha instalado en su sede principal de Elorrio (Vizcaya) dos sistemas USP-V de Hitachi Data Systems, unas plataformas que permiten la virtualización de almacenamiento de otros fabricantes, así como el suministro inteligente de la capacidad de datos que puede albergar toda la infraestructura empresarial (thin provisioning). Gracias a este proyecto, Eroski aprovechará mejor sus recursos de TI, ya que hasta ahora tan sólo utilizaba al 15% las posibilidades de almacenamiento de los equipos adquiridos. Estas plataformas fueron instaladas por Omega Peripherals, uno de los principales partners de Hitachi Data Systems en el País Vasco que además está especializado en la comercialización, implantación y mantenimiento de soluciones de almacenamiento, protección de la información y servidores. Omega Peripherals instaló en modo de Alta Disponibilidad las dos plataformas USP-V, que prestan servicio a más de 200 servidores.
Core Systems en Euridiss
La compañía de servicios de seguridad Euridiss ha puesto en marcha un sistema de televigilancia basado en el envío en tiempo real de las imágenes captadas por cámaras de vídeo a un centro de control donde son monitorizadas y supervisadas continuamente por profesionales y, posteriormente, almacenadas. Por el momento, se ha implementado una primera fase, diseñada para un total de 250 cámaras de vídeo, dentro de un proyecto más ambicioso que pretende dar cobertura a más de 3.000 cámaras a mediados de 2008. Para ello, Sun y su partner Core Systems han implantado una plataforma estable y de alta disponibilidad sobre el sistema operativo Solaris 10 compuesta por soluciones de almacenamiento Sun StorageTek SL 8500 y Sun StorageTek 6540 y servidores Sun Fire T2000, Sun Fire x4600 y Sun Fire v245. La plataforma se ha completado, en cuanto a software, con Sun Cluster, Sun StorageTek QFS, Sun StorageTek Common Array Manager y ACSLS, además de los servicios de consultoría y diseño de la solución, implantación de la misma y ajuste final para la optimización de su rendimiento.
Satec en Ahorramas
NetApp ha sido el proveedor elegido por los supermercados Ahorramas para facilitar el paso de una arquitectura basada en almacenamiento directo o DAS (discos conectados directamente a los servidores) a una configuración en red. Para ello, los técnicos del fabricante instalaron dos sistemas de almacenamiento FAS920, mientras que la red, la migración de las bases de datos y la conexión de los servidores fue realizada por los propios profesionales de TI de Ahorramas. Todo este proceso apenas se extendió durante cinco horas. Los dos dispositivos FAS920 fueron desplegados en cluster y cuentan con 2 Terabytes de capacidad bruta en disco, destinados a gestionar el almacenamiento para las áreas administrativa, de compras y de gestión de almacén. La nueva solución está conectada con cuatro servidores HP-9000 que corren con el sistema operativo HP-UX. Este entorno se completa con equipos IBM RS-6000 basados en AIX y una plataforma Wintel que utiliza tanto Windows 2000 como 2003 Server. La compañía dispone igualmente de una librería de cintas conectada a uno de los equipos FAS920, a través de la que se lleva a cabo el backup de los dos sistemas vía NDMP (Network Data Management Protocol) utilizando software de Veritas. Esta solución fue instalada por el integrador Satec.