Virtualización los avances en la tecnología y la reducción de costos Aunque Aunque pareciera un concepto concepto de moda, la virtualización virtualización opera desde décadas en diversas diversas formas y estilos dentro del cómputo. Pero su evolución ha sido tal que representa una alternativa idónea para, entre otras cosas, ahorrar costos y conseguir mayores beneficios de uso en las TI. Por José Antonio Ramírez
¿Cadaa ve ¿Cad vezz es estoy toy má máss co conv nven enci cido do qu quee di dive vers rsos os el elem emen entos tos y co conc ncep eptos tos qu quee ac actua tualm lmen ente te predominan de las tecnologías de información (TI) como lo más nuevo, en realidad no lo son. Más bien aquí se adjudicaría adjudicaría el princ principio ipio aquel de que se después de nacer en los grandes centros centros de investigación y desarrollo del mundo, principalmente de Estados Unidos, de inmediato se ofrecen al mercado, se multiplican y reproducen. ¿Aplicará este princ ¿Aplicará principio ipio para la virtualización? virtualización? Quizá algunos piensen que sí, principalmente principalmente quiene qui eness com comien ienzan zan a fam famili iliari arizar zarse se con el uso uso,, cos costum tumbres bres y len lengua guajes jes que act actual ualmen mente te predominan en el ámbito de las TI y no se descarta que hay quienes lo vean como un concepto moderno, muy cool y que está a tono con la moda de los gadgets tecnológicos. Pero para qui quiene eness pie piense nsen n así así,, perm permíta ítanme nme des desenga engañar ñarlos los dic dicién iéndol doles es que en rea realid lidad ad la virtualización no es un término de reciente uso, en realidad se refiere a un concepto que se ha aplicado a muy diferentes aspectos y ámbitos del cómputo. Algunos estudios (“Consideraciones Clave para la Movilización de Virtualización y Mantenimiento de Aplicaciones Disponibles” de SunGard) ubican que este concepto surgió desde la década de los sesentas de los esquemas de paginación experimental de los sistemas de cómputo IBM M44/44X, que consistía en un equipo físico (IBM 7044) que simulaba múltiples máquinas virtuales. De igual manera, el CP-40 de 1967, también de IBM, consistía de un sistema operativo de tiempo compartido para máquinas virtuales con memoria virtual, desarrollado por el Centro Científico Cambridge de IBM. Todos hemos experimentado virtualización
Patricio Dueñas, Country Manager de F5 Networks México, indica que en realidad todos hemos venido usando la virtualización por décadas en nuestra interacción cotidiana con las TI, aunque “es probable que simplemente nadie lo haya notado”. “Cuan “Cuando do env enviam iamos os arc archiv hivos os a una con consol solaa de imp impres resión ión,, uti utiliz lizamo amoss una for forma ma si simpl mplee de virtualización”, ejemplifica. Sin embargo, refiere que por décadas las computadoras mainframe tuvieron capacidad de virtualización. Lo ci cierto erto es que la vir virtua tualiz lizaci ación ón ha sid sido o apl aplica icado do en dif diferen erentes tes aspectos aspectos y ámb ámbito itoss de la inform inf ormáti ática, ca, des desde de sis sistema temass com computa putacio cional nales es com comple pletos tos,, has hasta ta cap capaci acidad dades es o com compon ponente entess individuales y hoy, el concepto aplica como toda una tecnología que permite hacer un mejor uso de los recursos informáticos. Y es que ante el actual reto de las organizaciones de disponer diferentes aplicaciones, como nomina, nomin a, correo electrónico y la pagina den Intern Internet, et, entre otras, cada una de ellas seguramente seguramente se tienen en un solo servidor físico, lo cual hace que las organizaciones sólo aprovechen entre un 15% o 20% de capacidad del servidor, considera América Pérez Ruiz, encargada de Alianzas y Canales de VMware para México y Norte de Latinoamérica.
Bien aplicado –dice– la virtualización permite a las organizaciones tomar un solo servidor para disponer de varias máquinas virtuales. “Cada máquina virtual, con su propia aplicación, sustituye, por ejemplo, servidores físicos, logrando así un proceso de consolidación”. Entrevistada por Revista RED, la representante de VMware destaca el hecho que varios de sus clientes que utilizan su software de virtualización han sutituido cien servidores por solamente diez. “Estos clientes son las principales empresas de finanzas, gobierno, educación, salud y de la industria de transformación en México, que están ya utilizando la virtualización”. ¿Vendría siendo ésta la principal ventaja de aplicar la virtualización en las organizaciones? Al parecer, sí. Los especialistas argumentan que mientras los directores y gerentes informáticos puedan detectar un mejor aprovechamiento de los recursos al mismo tiempo de ahorrar costos, alternativas como la virtualización serán siempre bienvenidas. América Pérez se declara convencida de ello, al manifestar que con la tecnología de virtualización, las organizaciones pueden ahorrar entre un 30% y 70% del lo que actualmente utilizan en tecnología. “Imaginemos una empresa que se dedica al área de la salud, va a preferir ahorrar en tecnología y destinar esos recursos tal vez en un equipo médico que es justamente lo mas importante de su negocio. Eso es lo que obviamente les permite el beneficio de la virtualización a los clientes”. Ventajas para quienes virtualizan
Para Patricio Dueñas, Country Manager de F5 Network México, los ahorros pueden ser significativos al subrayar, en base a estudios de IDC, que la virtualización de servidores puede ofrecer una reducción hasta de 50% en el número de servidores físicos requeridos, disminuyendo con ello el uso de espacio, energía y enfriamiento. Al mismo tiempo, si se adopta una simple infraestructura virtualizada, el gasto total anual de servidor por usuario se reduce hasta en un 35%, en contraste con una configuración de servidor estático x86 sin virtualizar, según IDC. Otra ventaja adicional de la virtualización la manifiesta América Pérez, de VMware, al indicar que cuando se sutituyen varios servidores físicos por pocos, disminuyen las emisiones de CO2 (Bióxido de Carbono) en el medio ambiente. “Por cada servidor físico que se apaga o se virtualiza, se retirara en un año 1.4 automóviles de circulación”. Los beneficios no acaban aquí, en otros rubros Patricio Dueñas, de F5, asevera que la virtualización ofrece flexibilidad y fluidez para responder a momentos críticos. Algunos de éstos pueden ser cuando en una organización las compras en línea por temporada se elevan drásticamente a la demanda de la red, o cuando un éxito musical o en video inunda la empresa con solicitudes de descarga. O bien, cuando el éxito de una adquisición demanda una rápida integración de las aplicaciones ERP (Enterprise Resource Planning) del destino. Ni qué decir de la recuperación de desastres, en donde la virtualización representa una aplicación innovadora, considera SunGuard en su estudio citado líneas arriba. En muchos casos, esto se logra mediante el uso de las infraestructuras y sistemas redundantes alojados en lugares remotos, lejos de los centros de datos primarios Dentro de otras ventajas, Philip Dawson, Vicepresidente de Investigación de Gartner, al puntualizar que con el software de virtualización, se puede mejorar dramáticamente la eficiencia (tanto como cuatro o cinco veces) de los servidores y otros elementos mayores de entrada y salida (I&O). Durante su participación en la reciente Conferencia Anual de Gartner sobre “El Futuro de las TI”, celebrada en el Centro de Exposiciones Banamex del 1 al 3 de Septiembre pasado, el especialista expresa que si bien desde el punto de vista operativo virtualizar hace que las cosas “se compliquen”, de alguna manera desacopla el hardware. 1. Business Value of Virtualization: Three-Year ROI Analysis (All Values per Server)
Total Benefits Total investment Discounted benefits Discounted investment Net present value (NPV) Return on investment (ROI) Payback (months after deployment) Discount rate
Basic VirtualizationAdvance Virtualization $144.9 $212.4 $24.1 $23.3 $113.3 $166.1 $19.8 $19.1 $93.5 $147.0 472% 769% 6.8
4.3
12%
12.0%
“Tiene el beneficio de esto porque es mucho más portátil, la disponibilidad de las cosas es mucho más fácil, porque no puede utilizar herramientas para migrar una carga de trabajo de un servidor a otro; también permite que la gente tome las tecnologías y lateralmente haga el entorno de pruebas y desarrollo mucho mas fácil de administrar y mantener”. ROI, otro beneficio a la vista
Pero otro aprovechamiento no menos importante, quizá en el que más se fijan los compradores de tecnología, es el retorno de inversión (ROI), del que América Pérez menciona que cuando una organización desea invertir en virtualización, obtiene un ROI de entre 6 y 9 meses. En contraste, la consultora IDC considera que en las empresas que han implementado virtualización básica están reduciendo sus gastos de TI en $145 dólares por usuario alrededor de más de tres años, con una inversión total de $24 dólares por usuario. De acuerdo a sus propias proyecciones, publicadas en su estudio sobre “El Valor de la Virtualización en los Negocios: Realizando los Beneficios de las Soluciones Integradas”, IDC revela que una empresa media que despliega virtualización básica puede alcanzar un ROI de 472% y que su recuperación ocurriría en menos de un año, incluyendo el tiempo de implementación. “En realidad se trata de un retorno de inversión muy importante para un costo relativamente bajo y a través de una iniciativa de riesgo”, subraya IDC. Pero ¿cuál sería el escenario de beneficios para una virtualización avanzada? La consultora precisa que éstos se incrementan en un promedio de 49% (principalmente a través de mejorar las operaciones de TI y la productividad de las reducciones de costo para el usuario), mientras que los costos por usuario disminuyen 3%, debido a menores costos de hardware. El Gráfico 1 presenta la historia de retorno de la inversión asociada con un traslado a una base o una implementación de virtualización avanzadas 1. Key business outcomes of virtualization
¿Pueden ser estas las principales razones o motivos por los que una organización adopta la virtualización? Si se toma en cuenta las estimaciones de IDC seguramente que a nadie escaparía el atractivo de considerar que es una importante alternativa a implementar. Al menos así lo ven algunos análisis, como el publicado por Hewlett-Pakard, titulado “HP Estudio sobre la Virtualización”, en el que revela que directores y otros tomadores de decisiones de las áreas de TI están convencidos que los recortes de costos por la virtualización aumentan la eficiencia. (Ver Gráfico 2) 2.
Se incrementa la adopción de la virtualización
El 89% de quienes han iniciado proyectos de virtualización –añade el estudio de HP– espera virtualizar una cuarta parte de sus entornos de tecnología en 2010. La adopción global de la virtualización está aumentando constantemente: mientras el 86% de los tomadores de decisiones de tecnología han implementado proyectos de virtualización, la mayoría se encuentran en sus etapas iniciales, precisa HP. En comparación con Estados Unidos y Europa, donde trabajar en ambientes virtualizados es ya un común denominador, Latinoamérica se encuentra todavía inmersa en un proceso de adopción paulatina, donde Brasil, seguido de México y Argentina, son los países con mayor porcentaje de adopción de infraestructura virtual, de acuerdo con Erika García, Analista de Servidores y Almacenamiento de IDC Latinoamérica..
Detalla que en recientes estudios para Latinoamérica, IDC encontró que las empresas con más de 500 empleados reportan un promedio 22% de base instalada virtualizada y cerca del 42% de éstas planea implementar durante los próximos 12 meses algún tipo de virtualización en los nuevos equipos que compra actualmente”. Coincidentemente, IBM detectó en otro estudio (que encargó a Tech Research Group) que casi dos tercios de las organizaciones actualmente están aplicando o planean implementar, en los próximos 12 meses, alguna tecnología de virtualización en sus servidores, además de consolidar sistemas de almacenamiento o adaptación de sus cuartos en los que guardan sus servidores. En México, diversos estudios locales contemplan que el crecimiento del mercado de virtualización seguirá teniendo un desempeño positivo y seguirá creciendo a tasas superiores a las de la industria de TIC en México. Las estimaciones proyectan que en 2009 este mercado valdrá cerca de 10 millones de dólares, siguiendo con un crecimiento en los años subsecuentes. Reconocen beneficios de la virtualización
Como se puede apreciar, los ambientes virtuales ya son una realidad y los grandes corporativos han comenzado a implementar estos proyectos. Del caso de México, Erika García, de IDC, apunta que es en los sectores de Gobierno, Finanzas, Manufactura, así como otras industrias en México, en donde se han reconocido los beneficios de los ambientes virtuales. "Las empresas que capturan todo el potencial de la virtualización son capaces de acelerar el crecimiento mediante la racionalización de despliegue de nuevos o mejorados servicios a las empresas", revela Ann Livermore, Vicepresidenta Ejecutiva de Technology Solutions Group de HP. "Una estrategia basada simplemente en el costo y la eficiencia pasa por alto la capacidad de virtualización para reducir el riesgo mediante la mejora de la continuidad del negocio y aumentando la seguridad de los datos del usuario final", manifiesta. La ejecutiva expone: “Como el negocio se desarrolla, son necesarias más plataformas de operación y servidores y al haber invertido en virtualzación, no se tiene que agregar hardware adicional por un periodo de tiempo en el futuro, y es posible adaptarse a los cambios en los negocios y su demanda". Un mercado que crece y se diversifica
Y como una motivación principal para llevar a las organizaciones, no sólo de gran tamaño, sino medianas y hasta micro, la industria de TI actualmente dispone de una variedad de soluciones en el mercado. En los hechos significa que la virtualización nos llevará a seleccionar dos o tres tecnologías, según valora Philip Dawson, de Gartner. “Mi recomendación sería que debido a que tenemos diferentes virtualizaciones del hardware, del sistema operativo y de las aplicaciones, esperen elegir dos o tres soluciones de virtualización a lo largo de su portafolio, de manera que puedan ser, por ejemplo, Citrix, VMware o Microsoft para x86 y probablemente para el ambiente prueba se tendría un ambiente diferente”. En su participación en el foro sobre “El Futuro de las TI”, que se realizó en el Centro Banamex, Dawson expone: “Gartner ve que el mercado está cambiando dramáticamente”. Sin embargo, identifica a VMware como el principal líder (Ver Gráfico 3) y el más fuerte dentro del mercado, con el 90% de VMs o máquinas virtuales instaladas en más de 100 mil clientes en siete años. Enfatiza que si bien VMware ofrece la solución de virtualización más madura y probada, la competencia se amplía con Virtual Iron y XenSource, recientemente adquiridas por Oracle y Citrix, respectivamente; además de Sun y Microsoft, quienes incursionaron en el transcurso de 2008. Dawson destaca la participación de Microsoft como proveedor de soluciones de virtualización (con Microsoft Systems Center Virtual Machine Manager) que más está creciendo y del que proyecta que en los siguientes tres años tendrá la tercera parte del mercado que ahora tiene VMware. (Ver Gráfico 4) 1. Collaboration: Next wave of business productivity
Sin embargo, cree que la tecnología Hyper-V (funcionalidad de virtualización basada en un hypervisor, incluida como un rol de servidor específico de Windows Server 2008) carece de capacidad de migración y le falta penetración de mercado, aunque en términos de precio es muy accesible, incluso Microsoft está comenzando a ofrecer Hyper-V de forma gratuita en su Microsoft Systems Center Virtual Machine Manager. “VMware tiene la cuota de mercado dominante hoy en día, pero su fuerza reside sobre todo en las grandes empresas. El mercado de pequeñas empresas apenas está siendo penetrado, y Microsoft, en particular, lo hará bien ahí”, manifiesta el especialista de Gartnet. Opina que el mercado de proveedores de servicios, en cambio, y que Sun, Citrix, Virtual Iron, Novell y Red Hat tendrán grandes oportunidades con los proveedores de servicios. Respecto a los principales proveedores de hardware (Ver Gráfico 5), Dawson considera que actualmente se distinguen por su heterogeneidad, como HP Insight Dynamics – VSE, que acepta múltiples ambientes operativos (Unix, Linux y Windows en la integridad Itanium based) de partición, y la migración de carga de trabajo del servidor a través de la Integridad y x86. Sobrevivencia de algunos
IBM Ensembles es otro producto similar y “funcionalmente tan bueno como el de HP, pero no es tan prevaleciente en el mercado”, explica. IBM Ensembles agrupa características arquitectónicas comunes que permite a un centro de datos planificar y automatizar la carga de trabajo de forma dinámica las migraciones. De Sun, Dawson enfatiza que tiene una herramienta “muy buena” que es el xVM (ofrece servicios de infraestructura para plataformas x86 y SPARC) y de las que considera que fue una de las razones por las que Oracle lo compró y utilizó Oracle VM. ”Creo que el xVM de Sun no va a sobrevivir, pero espero que el Ops Center (consola de gestión de recursos físicos y virtuales en el hipervisor Xen) sí va a perdurar, porque maneja el entorno virtualizado para Oracle, quien también modificará los productos de Virtual Iron (compañía que recientemente adquirió). Recomendaciones para implementar la virtuación
Si bien los beneficios, ventajas y diversidad de opciones para adoptar la virtualización se han expuesto hasta aquí, su implementación no está exenta de las recomendaciones de los expertos. El propio Philip Dawson, de Gartner, estipula que si se virtualizan las cargas de trabajo, se consolidan y se dispone de un sistema bien manejado, permitirá incluir más recursos dentro y fuera de la organización de manera mucho mas sencilla. Sin embargo, advierte tomar algunas precauciones, como analizar la seguridad como una parte principal en la integración, al igual que
el cumplimiento de las normas, operación en diferentes países con distintas licencias, modos y calidad de servicio, entre otros. “Hay que ver qué servicios se pueden virtualizar y reutilizarlos en el portafolio, tratar siempre de compartir funciones y procesos en las dos comunidades cuando se tenga un segundo proveedor de virtualizacion, además de entender su impacto de la virtualización en los proyectos, el ciclo de vida y en particular, el soporte y costos de pruebas”. Recalca dar preferencia a proveedores que tengan capacidades de virtualización heterogeneas: “A ellos tenemos que dirigirnos, que tengan virtualización no solo de x86, sino de otras que no tengan virtualizacion como Unix”. Subraya además que resulta muy recomendable disponer de un proceso flexible para reasignar dinámicamente la capacidad servidor en vez de concebir un mapa perfecto de consolidación estático. Las cargas de trabajo son intrínsecamente cambiantes y tratar con tales cambios de forma dinámica constituye, por tanto, un objetivo clave, particularmente en la etapas tempranas de los proyectos de virtualización. 1. Collaboration: Next wave of business productivity • Al examinar los proyectos de TI, balancear los servicios virtualizados con las inversiones y compensaciones. • Servicios virtualizados a través de la reutilización del portafolio. Cada nuevo proyecto no justifica una nueva tecnología de virtualización o de enfoque. • Comprender el impacto de la virtualización en el ciclo de vida del proyecto. En particular, buscar la concesión de licencias, el apoyo y las limitaciones de las pruebas. • Focalizarse no sólo en las plataformas de virtualización, sino también en las herramientas de gestión y el impacto en las operaciones. • Observar cómo reducir costos mediante la racionalización de la infraestructura como parte de una consolidación / proceso de virtualización. Dar preferencia a los proveedores con heterogéneos mapas de carreteras de virtualización y los marcos. Fuente: Gartner
Erika García, de IDC Latinoamérica, aconseja, como primer paso, tener claros los objetivos que se buscan. Comúnmente la optimización de tiempos de respuesta y la reducción de costos operacionales son los principales objetivos. El momento para hacerlo, aseveró, dependerá de cada empresa. “Es deseable que antes de emprender un proyecto de esta naturaleza se realice un inventario de los recursos actuales, pues es importante tener bien definido el estado actual de la infraestructura para evitar pasar de una desorganización física a una virtual”, comenta. Patricio Dueñas, de F5 Network México, propone, como primer paso, evaluar y analizar los recursos implicados en la virtualización. Esta valoración –refiere- puede descubrir problemas que hace tiempo se ocultaron (como diseños deficientes, omisiones en la seguridad o el control del acceso, aplicaciones antiguas demasiado frágiles para ser virtualizadas, entre otros). Por lo tanto, la regla al implementar virtualización de cualquier clase es medir dos veces y cortar una vez, sugiere. El estudio de HP sobre virtualización hace hincapié en vencer los mayores obstáculos e inhibidores de la virtualización, como son los costos iniciales, la experiencia y formación del personal, además de lograr la aprobación de la administración empresarial y la planificación de la infraestructura. En otra vertiente, se pueden combinar diferentes enfoques de virtualización para abordar algunas de las más difíciles tareas de los centros de administración de datos, añade a su vez Anil Desai, consultor independiente y autor de numerosos libros técnicos sobre Virtualización. Resalta que con la virtualización, los departamentos de TI pueden beneficiarse claramente de la creciente utilización de los recursos del hardware. “Con la consolidación de servidores se reducen costos y simplifica la implementación y la gestión. Es común para crear una biblioteca de máquina virtual o algún otro conjunto de norma, aprobado por máquina virtual de plantillas para simplificar el proceso de implementación”.
Finalmente para SunGuard, en sus “Consideraciones Clave para la Movilización de Virtualización y Mantenimiento de Aplicaciones Disponibles”, al emprender la virtualización, las organizaciones deben tener en cuenta la expansión de la máquina virtual, el aumento de la complejidad de la administración y la gestión del servidor. También observa importante hacer énfasis en la gestión del cambio y la arquitectura de la migración de la infraestructura física para el medio ambiente virtual, al igual que el equilibrio de la inversión en comparación con las tasas de utilización y la necesidad de incluir nuevos conjuntos de habilidades y procesos de expansión de la máquina virtual. Con tales recomendaciones lo único que queda al lector es reflexionar como conclusión que con la virtualización las organizaciones podrán reducir el número de servidores necesarios para apoyar sus aplicaciones, pero estar consciente de que con esta tecnología habrá de tener mayores beneficios en la medida que su implementación sea la adecuada y esté al tanto de las recomendaciones de los expertos.
Retos y riesgos del Cloud Computing El que crezca el uso del Cómputo en Nube no indica que ya sea un modelo infalible, sino que se sigue poniendo a prueba. Por Andrea Franco
"Para el 2012, el 80% de las 1000 empresas de Fortune estarán utilizando algún nivel de servicios de Cloud Computing (CC) y el 30% de ellas usarán algún sistema o aplicación de infraestructura de servicios bajo dicha modalidad”, asegura David Cearley, analista de Gartner, en el estudio 'El Escenario del Cloud Computing', presentado el pasado mes de septiembre. Este vaticinio indica que la curva de adopción del ya no tan nuevo esquema de cómputo sigue creciendo y continúa dictando una transformación en la manera en cómo las soluciones de Tecnologías de Información (TI) se diseñan, construyen, entregan, proveen y se administran ahora. Sin embargo, es necesario analizar cuidadosamente para qué tipo de organizaciones, con qué tipo de soluciones y servicios y qué beneficios puede dar la aplicación de este esquema de cómputo. Concepto en boga
Gartner define el Cloud Computing (o Cómputo en Nube) como un modelo de computación en el cual capacidades habilitadas para TI escalables y elásticas son proveídas ‘como un servicio’ por parte de instancias externas a una compañía usando tecnologías de Internet. En el modelo tradicional de cómputo los usuarios adquieren la infraestructura (hardware y software), pagan por los activos fijos que tienen que administrarse, se comunican a través de una red interna corporativa y la tecnología empleada es estática –y muchas veces de un solo proveedor–. En cambio, en el modelo de cómputo a través de la nube, la infraestructura es externa y se compra como un servicio, el pago se basa en su nivel de uso, la comunicación o conexión se basa en Internet y se realiza a través de cualquier dispositivo, además de que la tecnología utilizada es escalable, elástica, dinámica y de proveedores múltiples (ver Revista RED, octubre 2008). Sin embargo, el concepto puede malinterpretarse: El analista de Gartner explica que Cloud (Nube) no es una arquitectura o infraestructura, sino una abstracción de la relación entre consumidores y proveedores de servicios, lo que puede causar confusión a la hora de ofrecerlo a un usuario. Por un lado, aclara Cearly, un proveedor de una solución de CC no creará una “nube” individual, sino que varios proveedores alimentarán servicios a los usuarios a través de una nube pública. Y por otro, visualiza que los proveedores de software como un servicio (SaaS, por sus siglas en inglés) y la modalidad de infraestructura como un servicio, se convertirán ambos en “Servicios Nube”. “Nosotros pensamos que la manera correcta de llamarle a este esquema es Cloud Computing para identificar a toda esta oferta de recursos, herramientas y plataformas disponibles a través de Internet”, afirma Rogelio Montekío, Director de Mercadotecnia para América Latina y El Caribe de Salesforce.com compañía pionera en el modelo de cómputo aquí expuesto. El directivo señala que las principales características del CC es la integración y facilidad de colaboración que dan al usuario, “el paso previo fue el SaaS pero este concepto y la explosión de herramientas de ese tipo ya dio paso, junto con el incremento de la banda ancha, al CC”, agrega. El poder de atracción del CC
Cearley de Gartner, refiere que elementos como la virtualización, la orientación al servicio e Internet, han convergido para impulsar un fenómeno que permite ahora a usuarios finales y empresas elegir cómo adquirirán o entregarán servicios de TI, con un reducido énfasis en las complicaciones de los modelos tradicionales de compra de hardware y licenciamiento de software. Así, la facilidad de acceso y estandarización de tecnologías, el incremento de las arquitecturas de software orientadas al servicio y –lo más importante– el dramático crecimiento en popularidad y uso de Internet, constituyen en conjunto una nueva oportunidad para darle forma a la relación entre quienes usan los servicios de TI y quienes los venden. La escalabilidad (crecimiento en capacidad) de aplicaciones o servicios que se proveen a través de la nube es otro de los atractivos (ver Cuadro 1) del esquema de Cómputo en Nube (CN) ante la variación que puede tener la demanda de aquéllos, lo mismo que la actualización de las versiones se hacen de manera automática y de forma transparente para el usuario.
1. ¿Qué atrae a alguien al Cloud Computing? • Velocidad, Flexibilidad, Agilidad
- Usuarios - enfoque en el auto-servicio (de todo TI) - TI - Fácil despliegue y cambio - Dirección altamente variable y/o demanda impredecible de recursos • Simplicidad y Conveniencia - Procuración (de transacciones, contratos, niveles de servicio) - Siempre usa la última tecnología y últimas versiones de ésta - Incita el uso de recursos y aplicaciones estandarizados - Acceso (navegador, menús, aplicaciones simples) y alcance globales • Capacidades - Soluciones que no fueron técnicamente y/o económicamente factibles antes - Seguridad y precisión superiores para compañías más pequeñas • Economía - Facilita economías de escala, multiproveedoras, de recursos compartidos - Ahorro en costos (percibidos y reales) - Se mueve de capital a gastos operativos - Pago por uso - Software libre Fuente: Gartner.
Sin embargo, explica el estudio de Gartner, la escalabilidad es menos importante en este modelo que la elasticidad de los servicios o soluciones que se ofrecen. La definición que se hace de esta característica es la habilidad de un sistema tanto para incrementar como para reducir de forma automática la capacidad de un servicio en nube, según la demanda que se tenga de ésta con base en los requerimientos del usuario. Servicios Nube
La oferta actual de aplicaciones y servicios del CC no es mínima y continúa creciendo a la par que los casos de éxito y las mejores prácticas que están demostrando que este modelo es viable aunque aún le falta mucho camino por recorrer para consolidarse. Aquí se mencionan las principales. Gestada en Internet y una de las pioneras en nuevos modelos de negocio online, Google es quizá el ejemplo más representativo –en cuanto a nivel de adopción y aceptación por parte de los usuarios– del uso de aplicaciones de productividad desde la Web. Alex Rodríguez-Torres, Gerente de Mercadotecnia de Enterprise para Google Latinoamérica, detalla que la oferta de Google se integra por Google Apps, Google Site Search, Postini Services, principalmente. Todas estas opciones aplican para cualquier tipo de empresa (desde pequeñas y medianas hasta grandes corporativos). Google Apps se divide en herramientas de Mensajería, que abarcan aplicaciones de correo electrónico (Gmail), mensajería instantánea (MI) y calendario (Google Calendar), y de Colaboración, con programas para la manipulación de documentos, hojas de cálculo y presentaciones (Google Docs), así como para la creación de sitios en una intranet para almacenar y compartir información entre los departamentos de una compañía (Google Sites). El costo de todas –excepto la última– es de 50 dólares por usuario por año. En el caso de Google Site es según el número de URLs del sitio y de las páginas a indexar. El servicio Postini es el alojamiento de servicios de archivo y de seguridad para empresas y su costo es en función de la capacidad requerida. Otra de las compañías que encabezan el nuevo mercado del CC es Salesforce.com (que es o fue usuario de Google Apps) que ofrece aplicaciones de productividad enfocadas a la administración de las relaciones con los clientes (CRM, por sus siglas en inglés) en diferentes modalidades. El Contact Manager para uno o dos usuarios sirve para almacenar contactos, llevar un registro de clientes, ejecutar reportes de actividades y administrar tareas y reuniones, funciona con cualquier aplicación de correo electrónico, incluso Outlook y Gmail, su precio es de 9 dólares por usuario al mes. El CRM para pequeños grupos (Group), por 35 dólares al mes por usuario, incluye todas las funciones de Contact Manager para hasta 5 usuarios, además de que captura prospectos del sitio Web, lleva un registro de oportunidades de ventas, ejecuta reportes de ventas, obtiene tableros en tiempo real, da asistencia telefónica 12 horas al día 5 días a la semana y hace seguimiento de Google AdWords. La versión Professional incluye las funciones de la anterior y no tiene límite de usuarios. Hace reportes analíticos, tableros personalizados, supervisión de casos de asistencia, previsión de ventas, acceso móvil y gestión de campañas, entre otras cosas, por 65 dólares mensuales por usuario (según el sitio Web de la compañía esta es la más difundida). Todas ofrecen diferentes periodos de prueba gratuita antes de adquirirlas. La herramienta que permite personalizar e integrar un CRM de acuerdo con las necesidades del usuario se llama Enterprise y cuesta 125 dólares por usuario por mes (PU/PM). Incluye la aplicación Professional y también una biblioteca de contenido, acceso fuera de línea, gestión de territorios de ventas y seguridad avanzada, entre otras funciones. Ésta por ejemplo, se puede probar durante un mes.
2. Riesgos y Retos del Cloud Computing*
Garantías de servicio Disponibilidad, capacidad, desempeño, calidad Políticas y procedimientos del proveedor Seguridad, privacidad
Propiedad, recuperación y migración de datos Soporte a e-descubrimientos e investigaciones Integración con sistemas tradicionales (bajo premisas) Dificultad para adaptar los servicios a la medida
del cliente Métricas del servicio, reporteo y Dificultad para cambiar de análisis proveedores Compromiso con requerimientos Legalidad de procesos de provisión de servicios Términos, uso mínimo Establecer tarifas de entrenamiento e integración Fuente: Gartner.
Ahora que si se quieren mayores capacidades es mejor la presentación Unlimited, que por 250 dólares PU/PM adiciona a la versión Enterprise un administrador exclusivo, acceso móvil completo, personalización ilimitada y desarrollo ilimitado, entre otras características. Según la edición, es la capacidad de almacenamiento que se otorga para cada servicio. El directivo de Salesforce.com explica que su oferta se divide en dos partes: aplicaciones comerciales (para administración, procesos de ventas, mercadotecnia) y servicios, en el que la compañía ofrece su plataforma a sus clientes para que diseñen aplicaciones a su medida sin límite de categoría. Hasta ahora se han desarrollado herramientas para procesos de administración, ventas, mercadotecnia y servicio al cliente. Una vez creadas, estas aplicaciones hechas por terceros (usuarios) se suben a la tienda virtual de Salesfoce.com y si alguna de éstas se vende, el desarrollador debe pagar un porcentaje al dueño de la plataforma. Hasta ahora alrededor de 63,000 compañías utilizan la tecnología de esta otra pionera del CN. Montekío comparte que todavía el negocio principal de la compañía lo representan las aplicaciones hechas pero la parte de desarrollo de soluciones registra un crecimiento importante. Otro proveedor que está incursionando en este modelo del CN es Microsoft, compañía que según especialistas en la industria de TI, requiere diversificar su negocio precisamente ante la nueva forma de proveer y usar tecnología a través de Internet. La compañía pionera en el modelo tradicional de distribución de software tiene disponible su Plataforma Windows Azure, una plataforma de servicios Nube escalables para Internet hospedados en los centros de datos de Microsoft, los cuales proveen un sistema operativo y un conjunto de servicios para desarrolladores que pueden ser usados individualmente o juntos. La plataforma Azure es flexible e interoperable y permite construir nuevas aplicaciones que corran a través de la Nube o mejorar otras ya existentes con capacidades basadas en el CC. Su arquitectura abierta da a los desarrolladores la opción de construir aplicaciones Web –que corran en dispositivos conectados, PCs, servidores– o soluciones híbridas que ofrezcan lo mejor del mundo en línea y del tradicional.
3. Antes de entrar en el Cómputo en Nube Hay cinco preguntas para quienes consideren un despliegue de servicios en este esquema: 1. ¿Necesita una cantidad flexible de capacidad? 2. ¿Necesita servicios de administración? 3. ¿Necesita una cantidad de capacidad que pueda ser transferible dinámicamente entre múltiples aplicaciones? 4. ¿Puede esta aplicación enfrentarse a Internet? 5. ¿Está Usted utilizando una plataforma de aplicación, tal como Ruby o Rails?
Riesgos en la Nube
El citado estudio de Gartner advierte sobre los riesgos y retos de adoptar el modelo de Cloud Computing, entre los que se encuentran, la disponibilidad, capacidad, desempeño y calidad de los servicios, así como la posible falta de políticas y procedimientos del proveedor de los mismos pero sobre todo, cómo se puede mantener la seguridad y privacidad de la información de los usuarios. Cearley establece que mientras muchos detonadores trabajan para el rápido crecimiento del CC, la velocidad y extensión para que los cuales puedan florecer se verán afectados por un número de barreras potenciales que incluyen: El no tener una percepción de confiabilidad total del CN disminuirá el uso de ésta para hacer negocios o que se perciba una falta se seguridad y de garantías de acceso a un servicio limitará el hospedaje de amplia escala. El directivo de Google señala como riesgos para el CC la falta de conocimiento de los usuarios sobre los productos, la falta de educación respecto a las nuevas tecnologías, los costos de banda ancha e Internet en general y el cambio generacional y usos del servicio de correo electrónico. En cuanto a la seguridad de la información, los productos de Google cumplen con las normativas internacionales como la SAS 70, así como con los máximos estándares de calidad que exige la normativa local e internacional. En la página Web de la creadora del buscador más utilizado en Internet se detallan las políticas y normas de seguridad que establece, entre las que se encuentra: “La actividad de Google se basa en la confianza de nuestros usuarios, una confianza que depositan en nuestra capacidad de proteger su información adecuadamente y en nuestro compromiso por salvaguardar la privacidad de la información que introducen en nuestros sistemas, es decir, no revelarla a terceros ni utilizarla indebidamente”. Otra dice así: “Google no es el propietario de tu información. Google no divulga a terceros el contenido privado de los usuarios, como correo electrónico o información personal, a menos que la ley así lo requiera, un usuario o administrador del sistema lo solicite, o resulte necesario para proteger nuestros sistemas”.
Sin embargo, el contenido del usuario de los servicios de Google se examina e indexa para ofrecer diversos servicios, como el filtrado de spam y la detección de virus y, en algunos casos, la compañía usa dicha tecnología para mostrar anuncios a sus clientes. Además, Google guarda varias copias de seguridad del contenido de los usuarios para poder recuperar la información y restablecer las cuentas en caso de que se produzca algún error o un problema en el sistema. “La seguridad la tomamos muy en serio”, asegura Montekio, de Salesforce.com, así como también la calidad del servicio, el mantenimiento y la actualización de las aplicaciones que provee. La compañía cuenta para ello con una herramienta que les reporta el número de transacciones realizadas por día a través de sus aplicaciones, así como las fallas en el servicio y el tiempo que duraron, lo que les da una visibilidad amplia de cada aspecto de su negocio. Las actualizaciones se hacen de manera automática (recién migraron a la versión 2010 de sus aplicaciones) y tienen diferentes niveles de soporte técnico remoto con un cargo extra. He aquí unos principios de seguridad de Salesforce.com: “Nuestra compañía entiende que la confidencialidad, integridad y disponibilidad de la información de nuestros clientes es vital para nuestras operaciones de negocios y para nuestro propio éxito, por lo que protegemos la información clave, hacemos monitoreo constante y mejoramos nuestras aplicaciones, sistemas y procesos continuamente”. Para cumplir lo anterior, la compañía tiene centros de datos seguros, respaldo para provisión de energía, sistemas de detección y supresión de fuego. Ofrece protección, recuperación de desastres y encripción de la información (igual que Google). Aún con todo y los riesgos, la demanda de aplicaciones y servicios a través del CN se ha incrementado, a decir de los directivos de Google y Salesforce.com: Incluso, una encuesta aplicada a más de 3000 usuarios de aplicaciones Nube de la segunda y realizada por MarketTools, una consultora independiente, reportó que los clientes del CRM Salesforce obtuvieron excepcionales resultados de negocio: 34% en crecimiento en ventas, 17% mejora de márgenes de ganancia y el 25% incrementó la satisfacción de sus clientes. Oportunidades para el Cloud Computing
Entre las recomendaciones que da Gartner en el estudio “El Escenario del Cloud Computing”, están las de aplicar las mejores prácticas que se han logrado y basarse en casos de éxito en lo que madura este nuevo modelo. Un ejemplo es el uso del correo electrónico en Nube dentro de corporativos (caso de uso de Gmail): “Hacia el 2012 el 20% de los servicios de email se entregarán bajo un esquema de Nube/SaaS”. El analista advierte que todos los casos son de personas o compañías que adoptaron muy tempranamente el esquema por su necesidad del cambio pero dice que esos son escenarios ideales, la realidad puede ser otra. Otra recomendación del analista es probar las soluciones y servicios antes de adquirirlos y preguntarse si en verdad se requieren (ver Cuadro 3). También es bueno hacer una verificación, auditoría y certificación de la información que se está compartiendo con el proveedor y si algo falla en su servicio, se podrían establecer una penalización por la falta de disponibilidad. A pesar de los riesgos del CN, David Cearley, proyecta que para el 2010, los ecosistemas conducidos por medio de proveedores individuales o de una consorte de ellos, emergerán para expandir plataformas Web y proveerles administración, legalidad y mercados de servicios. Bajo este escenario, agrega el analista, la mayoría de las empresas serán proveedores de servicios Nube bajo estándares e interfaces Web y construirán la siguiente generación de comercio electrónico de empresa a empresa y empresa a consumidor. Para esto se requerirá de legalidad, diseño de nuevas soluciones y arquitecturas tecnológicas, establecer precios y licenciamiento, asegurar más la seguridad y la privacidad, entre muchas otras necesidades. “Por lo pronto se espera que con el tiempo, la variedad de ofertas del CC se consoliden pero no en el futuro inmediato, en el cual esperamos una continua emergencia de nuevos e innovadores jugadores y ofrecimientos” concluye el analista.