Hiperconvergencia, el futuro para el Datacenter?

[Total: 0    Average: 0/5]

Muchas veces me han preguntado, a propósito de los continuos anuncios de Nutanix y VMware, si la hiperconvergencia es el futuro, si los datacenters debieran ponerse como objetivo la hiperconvergencia.  Lamentablemente, no tengo una respuesta corta para esta pregunta, por lo que usare este espacio para explicar un poco lo que pienso respecto a la hyperconvergencia y a los múltiples conceptos que nos han tratado de vender los últimos años.   Les pido paciencia, tiendo a divagar y extenderme a veces 🙂

Partiendo desde el principio

Hace ya muchos años surgió el concepto de la virtualizacion, algo que ahora nos parece común en su tiempo no lo fue.  La virtualizacion vino a solucionar muchos problemas serios que teníamos en nuestros Datacenter, problemas como eficiencia, flexibilidad, agilidad (explayar)…  Estos problemas eran comunes en todos los Datacenter sin distinción de tamaño o complejidad, por lo que después de superar los temores iniciales con esta nueva tecnología, la virtualizacion tuvo una adopción enorme por parte de los clientes.  Actualmente es extraño ver Datacenter sin algún porcentaje de servidores virtualizados, y aquellos clientes sin virtualizacion, les aseguro que están planificando o al menos evaluando un proyecto de este tipo.
Una de las claves del éxito de la virtualizacion, además de solucionar los problemas antes mencionados en los Datacenter, es su simplicidad.  Más allá de la solución de virtualizacion que hayamos elegido, con un buen diseño podemos obtener una infraestructura bastante sencilla de implementar y administrar.

Nuevos conceptos

Durante los últimos años nos han llenado de nuevos conceptos como Cloud Computing, Software Defined Datacenter y en el último tiempo la Hiperconvergencia.
Cuando surgió el concepto de Cloud Computing, su objetivo inicial era simplificar la administración de los entornos virtuales, proveer un nivel de abstracción mayor. Autoservicio, elasticidad, acceso ubicuo y a demanda, fueron conceptos que nos entregaron para intentar mostrarnos de que el Cloud Computing era el futuro para los Datacenter.  Pero han pasado varios años desde que se mencionó por primera vez el Cloud Computing y su adopcion sigue siendo bastante lenta. Que fue lo que paso?
Para empezar, una plataforma de Cloud requiere productos adicionales que se deben adquirir, lo cual implica una inversión adicional.  Esta inversión inicial se justifica solo si el cliente  se beneficia directamente de los beneficios antes mencionados del Cloud Computing.  A diferencia de la virtualizacion, no todos se benefician del Cloud Computing.
Luego, muchas veces vemos clientes que han adoptado o intentado adoptar el Cloud Computing, pero que no han logrado obtener beneficios de aquello. Una de las razones principales es que el Cloud Computing no se trata de simplemente instalar un producto, sino de una forma totalmente distinta de hacer las cosas, de cambiar la forma de trabajar, y es aquí donde han fallado las empresas de tecnología.
Lamentablemente muchas empresas de tecnología han fallado al vender a sus clientes una solución de Cloud y en ayudarlos adecuadamente en su adopción, y se han conformado simplemente en vender un par de licencias y algunas horas de ingeniera para instalar un producto. Estas empresas no han cambiado su enfoque de ventas, y ofrecen soluciones de Cloud como si fueran soluciones de virtualizacion y no mucho mas.
El problema del concepto de Cloud Computing, es que si bien como concepto busca simplificar la forma de trabajar y facilitarnos el día a día, las soluciones de Cloud Computing que nos ofrecen los distintos fabricantes no han seguido ese camino.
Por un lado, estas soluciones no han podido cumplir a cabalidad con la promesa del Cloud Computing, y frecuentemente terminan transformándose en soluciones complejas, que en vez de simplificar las tareas de administración del Datacenter, muchas veces terminan haciéndolas más complejas.  Debido a esto, muchos clientes que implementaron una solución de Cloud terminan dejándola de lado y siguen trabajando con una solución tradicional de virtualizacion, menos automatizada y con menor abstracción, pero mucho más sencilla y simple de administrar.
Por otro lado, el nivel técnico de los especialistas que deben implementar estas soluciones de Cloud, no siempre ha ido de la mano con los avances tecnológicos.  Tenemos muchos especialistas de virtualizacion, pero pocos especialistas de Cloud Computing.
Tampoco ayuda que ninguna solución de Cloud haya podido posicionarse verdaderamente como líder del mercado y como standard, como alguna vez logro Vmware con vSphere en la virtualizacion.  Productos como vCloud Director (que en paz descanse),  vRealize Automation (o vCAC), MS System Center, etc, no han ganado suficiente tracción en el mercado.
Resumiendo, el Cloud Computing como concepto no ha podido tener la adopción esperada, básicamente porque las soluciones de Cloud dejaron de lado el factor clave que llevó al éxito a la virtualizacion: La Simplicidad.
El concepto de Software Defined Datacenter ha seguido un camino similar al de Cloud Computing.  De este concepto hablé anteriormente en otro post, y al igual que el Cloud Computing, su adopción ha sido muy lenta por varias razones:
  • El Software Defined Datacenter aun existe principalmente como concepto.  Se han lanzado algunas soluciones de Software Defined Network (VMware NSX) y de Software Defined Storage (VSAN, vVols, Nutanix, Simplivity, Nexenta, etc), pero en general, el concepto sigue siendo muy nuevo, con un nivel de madurez muy bajo a nivel de soluciones.
  • Al igual como sucedió en sus comienzos con el Cloud Computing, existe mucho desconocimiento y confusión entre clientes finales acerca de qué es lo que significa este concepto y cuales son sus beneficios.
  • El SDDC implica necesariamente apoyo de los fabricantes de Storage y Networking, que no necesariamente estarán dispuestos a desarrollar productos para entornos de SDDC, y que beneficie finalmente al fabricante de la capa de Software (como VMware por ejemplo).  Aquí veremos una fuerte competencia entre distintas interpretaciones del SDDC, y de distintos intereses economicos, lo que podría retrasar o derechamente impedir la adopción de este concepto y sus tecnologias asociadas.

Hiperconvergencia

Hace ya algunos años comenzaron a salir soluciones llamadas Hiperconvergentes, que de a poco han ido generando más y más ruido en el mercado, con su punto más alto el mes pasado en la conferencia .Next de Nutanix. Algunos inclusos mencionan a la hyperconvergencia como una moda, y algo de eso hay.
SupermicroLa hiperconvergencia la verdad no es algo nuevo necesariamente como concepto. Podemos ver algo del concepto en las soluciones Blade que existen desde hace varios años ya, donde en un único chasis podemos integrar recursos de computo, networking y SAN. En generaciones Blade mas actuales como PureFlex de IBM, vemos que podemos incluso incorporar la capacidad de almacenamiento en el mismo chasis.  De todas maneras, este tipo de soluciones no eran lo suficientemente modulares para algunos clientes, ni tampoco ofrecían soluciones sencillas para ir escalando en el tiempo, sin considerar su alto costo.
En el camino también han ido surgiendo servidores cada vez mas pequeños, que pavimentaron el camino para la aparición de soluciones hiperconvergentes.  Podemos ver servidores Supermicro que desde hace varios años permiten, en un único chasis de 2U, montar hasta 4 nodos con su respectivo almacenamiento.
Nutanix4La hiperconvergencia se caracteriza por combinar componentes de hardware para computo, almacenamiento y networking en un unico dispositivo o “building block” definido por software, el cual puede ir escalando mediante la adición de nodos adicionales, o de “building blocks” adicionales.   Un dispositivo hiperconvergente no es solamente un conjunto de hardware, sino que también depende mucho de sus componentes de software.
  • Una infraestructura hiperconvergente esta diseñada y optimizada para entornos virtuales y de Cloud, por lo que contamos con un hypervisor.  Existen soluciones hiperconvergentes más agnósticas, que permiten el uso de distintos hypervisores (Nutanix con vSphere, Hyper-V o KVM), y otras soluciones más cerradas como EVO Rail (vSphere + VSAN)
  • Una infraestructura hiperconvergente tiene un alto grado de automatización, tanto para su implementación como para su administración.
  • Una infraestructura hiperconvergente es frecuentemente diseñada, suministrada y soportada por un único fabricante.  Esto la diferencia de soluciones convergentes como VCE y su vBlock (VMware, Cisco, EMC), y FlexPod (VMware, Cisco, NetApp)
Nutanix2Una de las grandes ventajas de la hiperconvergencia, es la simplicidad que tiene para ir escalando en el tiempo.  Soluciones como Nutanix permiten partir por ejemplo con un Appliance con 3 nodos (hasta 4 nodos por appliance), e ir creciendo sumando de un nodo a la vez.  En caso de no tener mayor capacidad en el Appliance, es posible sumar un Appliance adicional, el cual se puede integrar con los demás appliance existentes, y de esta forma ir sumando nodos adicionales.
Cada vez que sumamos un nuevo nodo a la plataforma, estamos sumando capacidad de computo, almacenamiento y networking, permitiendo un crecimiento lineal en el tiempo.
Al igual que los conceptos de Cloud Computing o Software Defined Datacenter, creo que la hiperconvergencia es una opción más, entre muchas otras para implementar un Datacenter.  De hecho estos conceptos pueden integrarse en una única solución si así lo requiere el caso de uso, implementando por ejemplo una Cloud privada utilizando una infraestructura hiperconvergente, la cual además adopta el concepto “Definido por Software”.
Por lo mismo, creo que cada cliente debe evaluar sus necesidades para poder determinar cual es la mejor solución para sus requerimientos.  En algunos casos será una solución hiperconvergente, en otros casos quizás sea una solución con una arquitectura SAN tradicional, etc.  Respecto a los casos de uso no ahondaré en este post, ya que hablé al respecto en el post “Introducción a Nutanix”
Les comparto también una publicación de Jose Luis Gomez Ferrer, quien hace un análisis de la hiperconvergencia y de la realidad de este tipo de tecnologías en el mercado español.  Comparto este análisis ya que creo que su análisis se ajusta también a la realidad latinoamericana, cuyo mercado es limitado en el adopción de este tipo  de nuevas tecnologías, principalmente por cuestiones económicas y de tamaño de las compañías.

Conclusiones

  • Creo que la virtualizacion sigue siendo el componente clave de cualquier Datacenter.
  • Creo que el Cloud Computing y el Software Defined Datacenter son conceptos muy interesantes y que pueden solucionar muchos problemas en los Datacenter, pero su adopción ha sido lenta por deficiencias de las soluciones existentes en el mercado, principalmente su excesiva complejidad, así como también por un mal enfoque de las compañías que ofrecen este tipo de soluciones.
  • Creo que el Cloud Computing y el Software Defined Datacenter son alternativas válidas para los clientes que se beneficien directamente de las ventajas implícitas de estos conceptos, en la medida que se mantenga cierto nivel de simplicidad, y cuenten con la asesoría correcta para su adopción real.
  • Creo que la hiperconvergencia es otra alternativa para los Datacenter, que no entra en conflicto con la virtualizacion tradicional ni con el Cloud Computing.
Entonces, en respuesta a la pregunta original al comienzo de este post, de si la hiperconvergencia es el futuro en tecnologías para el Datacenter.   La respuesta para mi es si y no, o sencillamente un GRAN “depende”:
  • Porque si bien la hiperconvergencia cambia el paradigma a nivel de hardware, con una arquitectura totalmente distinta, a nivel de software no necesariamente hay un cambio rotundo, pudiendo utilizar soluciones de virtualizacion tradicionales como vSphere o Hyper-V, así como también soluciones de Cloud.
  • Porque la hiperconvergencia no es una tecnología tan reciente ni que haya sido lanzada como concepto recientemente, la hiperconvergencia es una tecnología real que lleva ya algunos años en el mercado, y es una alternativa más para infraestructuras en Datacenter, como también lo son infraestructuras Blade, Infraestructuras Convergentes (VCE, FlexPod), e infraestructuras tradicionales.
  • Depende de que los fabricantes como Nutanix, Simplivity o VMware avancen en soluciones que nos permitan no solo contar con hiperconvergencia, sino también con soluciones mas simples y sencillas de implementar y administrar en entornos de Cloud, y que no dependan necesariamente de soluciones tradicionales de virtualizacion y Cloud Comouting. Ejemplo de esto es el reciente lanzamiento por parte de Nutanix de Acrópolis y Prism, el cual creo que va por el camino correcto, y de lo cual hablaremos en otro post.
  • Depende del caso de uso.  Como ya hemos analizado durante este post, a diferencia de la virtualización, la cual se ha transformado en un estándar en los Datacenter, el concepto de hiperconvergencia (al igual que el de Cloud Computing y Software Defined Datacenter) depende del caso de uso, del requerimiento que tenga el cliente.  Es decir, la hiperconvergencia no es para todos y su futuro en el mercado va a depender de lo que requiera cada cliente.
En resumen, la hiperconvergencia es una tecnología para hoy, y que puede extenderse en el futuro en la medida que existen casos de uso que se beneficien de la hiperconvergencia (y que puedan asumir su costo).  La clave, como ya he destacado un par de veces en este post, es la SIMPLICIDAD.
En la medida que las nuevas tecnologías permitan contar con una infraestructura robusta, pero a la vez sencilla de implementar y administrar, la adopción de estas tecnologías avanzará con mayor fluidez.

About the Author:

One Comment

  1. […] este post y en otros que publicare en los próximos días.  Ya hemos hablado ya de Nutanix y de la Hiperconvergencia, asi que no entraremos en explicaciones de lo que esto significa, y pasaremos directo al […]

Leave A Comment

EnglishPortugueseSpanish