Los expertos de los centros de datos han denominado el 2015 como el año del cambio, pero ¿Cuál de las tendencias del 2016 en el mundo IT predominará sobre las demás?
Algunos grandes proveedores se han hecho más grandes en este año que termina, como Dell al adquirir EMC y VMware, mientras que HP se dividió en dos. Las organizaciones de TI se apoyaron en sus equipos DevOps para ser más ágiles. El aumento de la IoT en aplicaciones de consumo y de negocios también promete grandes tensiones en los centros de datos.
Con el recién estrenado 2016, los expertos de los centros de datos predicen las tendencias que se quedarán en un futuro previsible.
Todo definido por software
El Software-defined eveything continuará activo en el 2016 según los expertos. Ya sea por software de almacenamiento (SDS), la creación de redes (SDN) o los centros de datos (SDC). El consultor Jim O’Reilly considera 2016 como el año en que el todo definido por software cambia fundamentalmente los centros de datos.
“Hay un punto en el que el legado de la infraestructura no puede mantenerse contra la economía, y estamos cerca, incluso lo hemos sobrepasado en algunos aspectos” Dijo O’Reilly. “El próximo año podría ser el punto de inflexión – SDS y SDN incidirán mucho en esta cuestión”.
El analista de la industria Joe Clabby es un poco más comedido en sus predicciones del software-defined everything. Él ve el almacenamiento como un área donde las empresas pueden ahorrar una gran cantidad de dinero tomando la decisión de migrar a un proveedor externo con una funcionalidad decente en SDS.
“2016 será un año con un efecto nivelador de SDS” dijo Clabby.
SDS permitirá que nuevos proveedores con nuevas funcionalidades compitan por las empresas con los ya establecidos – Como EMC y NetApp -.
No todo el mundo piensa que esta será la era del software, sino la “era del software asistida por el hardware”, dijo Clive Longbottom de la firma de análisis Quocirca.
Incluso en una era definida por software “todavía hay oportunidades para la innovación en hardware” cuando hablamos de creación de redes, dijo O’Reilly. También señaló la influencia de los avances en hardware, con la sustitución de las unidades de disco duro reemplazados por los discos de estado sólido.
“El tema de los centros de datos definidos por software empezará a desaparecer” “Es la plataforma holística SDDC” dijo Longbottom.
El Auge de la IoT es real.
IoT está relacionado con los sensores de captura de datos que alimentan los programas que encuentran problemas o crean información útil a partir de los datos. Ya sea tu Fitbit calculando la calidad de tu ciclo de sueño, un dispositivo conectado al puerto OBD-II de un camión de reparto para rastrear el kilometraje y la ubicación o contadores inteligentes de la red eléctrica. Todos esos datos necesitan ser almacenados y analizados en un centros de datos en algún lugar físico. Dijo Paul Korzeniowski, un escritor independiente que escribe sobre la nube y centros de datos.
Se van a unir más empresas al tren de la IoT, dijo Clabby. Todas estas empresas utilizan los centros de datos para apoyar sus aplicaciones actuales. La pregunta sobre la IoT es ¿Cómo se preparan las empresas para la inevitable irrupción de los servicios de la IoT? La respuesta es no utilizar x86 para todo.
“Usar la máquina correcta para la tarea correcta” dijo Clabby.
Eso significa, el uso de un ordenador mainframe si estás haciendo análisis o la agrupación de IBM Power System para obtener resultados más rápidos, ya que la IoT trata de eso, de encontrar información relevante rápido.
La seguridad de todos los datos se convierte en el siguiente tema de la orden del día, sobre todo porque muchas empresas habilitadas para la IoT almacenan los datos que se recogen en la nube pública. Los profesionales de TI saben que la seguridad es un tema muy importante pero los ejecutivos son reacios a gastar más dinero en TI. Sin embargo varias brechas en seguridad de datos de alto perfil en 2015 han llevado a la vanguardia este tema.
El mercado de venta de infraestructura
Los expertos de centros de datos fueron unánimes sobre los cambios en el paisaje del proveedor de infraestructura que los compradores de TI deben recorrer. Las cargas de trabajo en movimiento a la nube afecta a los proveedores de centros de datos tradicionales, como se ha visto con la compra de EMC y VMware por parte de Dell, la división de HP y la ruptura de Symantec / Veritas.
[Hewlett Packard Empresa] está fuera de la nube pública, mientras que IBM lo ha apostado todo por ella con SoftLayer. Esta confusión de los grandes no se acabará en 2016.
Joe Clabby, analista de la industria de centros de datos
Amazon Web Services está compitiendo con IBM y Oracle, convenciendo a las empresas a migrar los sistemas modernos y heredados a AWS. Azure de Microsoft también ha llamado la atención con sistemas heredados. A la sombra de la nube, los líderes empresariales no ven el momento de gastar mucho en infraestructura de TI cuando pueden solo cambiar sus sistemas a un proveedor.
«Las empresas están tratando de gastar lo menos posible», dijo Korzeniowski. «Entonces, ¿qué es más valioso: el coste o características que consiguen?»
Y los proveedores implicados están confundidos acerca de cómo evolucionar en un mercado en crecimiento que está sintiendo el impacto de la globalización y la creciente agilidad de la pequeña empresa.
«Los proveedores de servicios de mediano tamaño están siendo adquiridos por los más grandes», dijo Clabby. » Hewlett Packard Enterprise está fuera de nube pública, mientras que IBM lo ha migrado todo a ella con SoftLayer. Esta confusión de los grandes jugadores no terminará en 2016.»
Importancia de la API
Con el fin de mantener su relevancia, los profesionales de TI necesitan más experiencia con los sistemas de software y API. Las API les permiten automatizar el centro de datos.
«Las personas involucradas tienen la necesidad de adquirir nuevas habilidades», dijo Longbottom. «Tienen que aprender las API y los sistemas de gestión de virtualización ya que cada compañía viene con su propia API -. Que necesitan para comunicarse a través de los sistemas de back-end».
Clabby ve el 2016 como el año donde los vendedores salen con herramientas de la API.
«No quiero tener que soportar todas estas conexiones – sería mejor tener un proveedor que lo haga por mí – interfaz de programación, que envíe y ejecute la solicitud», dijo. «¿Qué exige la aplicación, y cómo la API puede mejorarla?»
Pero no se trata sólo de la gestión de las API con el software de la talla de Apogee, CloudBees y Varnish. Longbottom hizo hincapié en la importancia de conocer lo que está por encima del nivel de API, y la comprensión de la programación, en lugar de secuencias de comandos.
«Todo lo que los profesionales de TI hagan en esa capa de software tendrá un impacto más grande que los avances de hardware.»
Sobre el edificio del centro de datos
Robert McFarlane, quien dirige el diseño del centro de datos de la consultora internacional Shen Milsom y Wilke, piensa que la gestión de la infraestructura del centro de datos (DCIM) pasará a un segundo plano en el año 2016, al tiempo que conservará su importancia como una herramienta esencial para TI, y las instalaciones de equipos.
«No quiero decir que el mercado DCIM haya madurado, porque no creo que lo haya hecho», dijo McFarlane, “Solo va a dejar de ser la palabra de moda en la industria”.
Con más híbridos de virtualizado en la nube, en las instalaciones o en los sistemas de colocación de TI, tener la correcta monitorización y las herramientas de gestión de la información es esencial, dijo Longbottom.
Basado en el artículo en inglés aparecido en http://searchdatacenter.techtarget.com/news/4500269146/Data-center-experts-predict-2016-IT-trends