Este website utiliza cookies propias y de terceros. Alguna de estas cookies sirven para realizar analíticas de visitas, otras para gestionar la publicidad y otras son necesarias para el correcto funcionamiento del sitio. Si continúa navegando o pulsa en aceptar, consideramos que acepta su uso. Puede obtener más información, o bien conocer cómo cambiar la configuración, en nuestra Política de cookies?

Suscríbete a nuetro boletín gratuito
Está usted en: Firmas > Economía

Tendencias que marcarán la gestión inteligente de datos en 2019

Los datos han cambiado el mundo actual de forma drástica. Todos los procesos, ya sean las interacciones con clientes externos como las tareas internas de los empleados, dejan un rastro de datos a su paso. Los datos generados por las máquinas y los humanos crecen diez veces más rápido que los datos tradicionales de negocios y, en comparación con estos últimos, los datos generados por máquinas crecen cincuenta veces más.

Actualizado 12 enero 2019  
Compartir:  Comparte esta noticia en Twitter 
 Añadir a del.icio.us Buscar en Technorati Añadir a Yahoo Enviar a Meneamé  |   Imprimir  |   Enviar  |  
Comentarios 0
Dave Russell, vicepresidente de estrategia de producto, Veeam
  
Dado que el modo en el que consumimos e interactuamos con los datos cambia a diario, también contamos con un número considerable de innovaciones para mejorar la agilidad de las empresas y su eficacia operacional. En este entorno, resulta fundamental para las empresas entender la demanda de gestión inteligente de datos para así poder mantenerse un paso por delante y ofrecer servicios mejorados a los clientes.
Con el mercado EMEA en mente, he destacado las siguientes 5 tendencias relevantes que los responsables de la toma de decisiones deben conocer de cara a 2019:
Aumentará el uso y aprovechamiento en entornos multi-cloud.

Un informe de McKinsey & Company ha mostrado que el flujo de datos a Asia es hasta 45 veces mayor que en 2005. Los datos de regiones clave como Norteamérica y Europa han crecido de manera considerable pasando de 5.000 a 20.000 Gbps y de 1.000 a 5.000 Gbps respectivamente, partiendo de las cifras originales de 100-500 Gbps y menos de 50 Gbps en 2005. Con empresas que operan más allá de sus fronteras y siendo más dependientes de la tecnología que nunca, resulta prácticamente inevitable la ampliación del uso del entorno multi-cloud. IDC estima que los clientes gastarán 554.000 millones de dólares en informática en la nube y servicios relacionados en 2021, más del doble que en 2016. Los datos y aplicaciones on premises no se quedarán obsoletos, pero aumentarán los modelos de despliegue de los datos mezclando cada vez más la opción on premise (dacenter propio), software como servicio (SaaS), infraestructura como servicio (IaaS), nubes gestionadas y nubes privadas.
Con el tiempo, esperamos que una mayor parte de la carga de trabajo salga de las instalaciones, no obstante, esta transición se realizará a lo largo de varios años y creemos que es importante estar preparados hoy para hacer frente a esta nueva realidad.
La escasez de suministro de memoria flash y los precios mejorarán en 2019.
 
De acuerdo con un informe de Gartner de octubre de este año, se espera que vuelva a haber un ligero problema de desabastecimiento en el suministro de memoria flash a mediados de 2019 y que los precios se estabilicen en gran medida gracias al incremento de la producción de memoria en China. Un mayor suministro y una mejora en la fijación de precios supondrán que se utilizará más el despliegue flash en el ámbito de la recuperación operativa, donde normalmente se alojan los catorce días más recientes de backup y de datos de replicación. En nuestra opinión, esta mayor capacidad flash dará como resultado un uso creciente del montaje instantáneo de imágenes de máquinas de backup (o gestión de datos de copia).
Los sistemas que ofrecen la función de gestión de datos de copia (CDM) podrán aportar valor más allá de la disponibilidad, además de mejores resultados comerciales. Algunos de los ejemplos prácticos de uso para aprovechar el backup y los datos de replicación son: DevOps, DevSecOps y DevTest, Patch Testing, Analytics y Reporting (prueba, análisis y generación de informes de parches).
El análisis predictivo se convertirá en algo generalizado y en la norma.
Las previsiones indican que el mercado del análisis predictivo alcanzará los 12.410 millones de dólares en 2022, lo que supondrá un incremento del 272 % desde 2017, con una tasa de crecimiento anual compuesto del 22,1 %. En concreto, se espera que el mercado Asia-Pacífico (APAC) registre la mayor tasa de crecimiento anual compuesto durante el periodo de esta previsión.
El análisis predictivo basado en datos de telemetría, esencialmente asesoramiento y recomendaciones impulsadas por el aprendizaje automático (ML o machine learning), es una de las categorías que seguramente se convierta en algo generalizado y en la norma.

Las previsiones del aprendizaje automático no son nada nuevo, pero empezaremos a ver que usa firmas y huellas dactilares, que contiene configuraciones y políticas de mejores prácticas que permitirán a las empresas obtener un mayor valor de la infraestructura que se ha implantado y de la que son responsables.
El análisis predictivo, o diagnóstico, nos ayudará a garantizar la continuidad de las operaciones, al tiempo que reduce la carga administrativa que supone mantener los sistemas optimizados. Esta función se convertirá en algo fundamental a medida que se pida a las empresas TI que gestionen un entorno cada vez más diverso, con más datos y objetivos de nivel de servicio más estrictos.
Ahora que el análisis predictivo se está convirtiendo en algo más generalizado, los contratos de nivel de servicios (SLA) y los objetivos de niveles de servicio de recuperación (SLO) aumentarán y las expectativas de niveles de servicio (SLE) serán incluso mayores. Esto significa que necesitaremos más ayuda, más inteligencia, para poder ofrecer lo que esperan las empresas de nosotros.
La función “versátil” (o generalista) se convertirá en el nuevo modelo operativo para la mayoría de las empresas TI.
Si bien las dos primeras tendencias se centraban en aspectos tecnológicos, el futuro de lo digital sigue siendo analógico: la gente. Si juntamos la escasez de talento con infraestructura nueva y al borde del colapso on premises, la nube pública + software como servicio (SaaS), nos encontraremos con que se necesitan especialistas con experiencia en una amplia serie de disciplinas, que además tienen que conocer mejor el negocio. Por ejemplo, el mercado de trabajo de la tecnología de la información (TI) en Singapur sigue registrando altos niveles de contratación.
 
La estandarización, organización y automatización son factores que contribuyen a su aceleración, dado que sistemas más capaces permitirán a los admistradores adoptar un punto de vista más horizontal en lugar de centrarse en una única especialización extrema. Por supuesto que la especialización seguirá siendo importante, pero a medida que TI pase a ser cada vez más fundamental en relación con los resultados comerciales, es lógico pensar que el talento TI tendrá que conocer la totalidad del negocio de la empresa para poder aportar valor en diversos ámbitos TI.
Sin embargo, aunque veremos como estas tendencias plantean retos para el statu quo el año que viene, algunas cosas no van a cambiar. Siempre existen constantes en el mundo y hemos identificado dos factores principales que se mantendrán como prioridades para las empresas de todo el mundo...
La frustración con los enfoques y soluciones de backup tradicional.
Los tres proveedores principales en el sector seguirán perdiendo cuota de mercado en 2019. De hecho, el mayor proveedor en el sector lleva perdiendo cuota de mercado desde hace diez años. Las empresas están dejando de lado a los proveedores tradicionales y prefieren opciones más ágiles, disruptivas y dinámicas, como Veeam, que les ofrezcan las funciones que necesitan para crecer en la era impulsada por los datos. Un informe de Cognizant destacó que el 82 % de los líderes de empresas en el mercado Asia-Pacífico (APAC) cree que el futuro del trabajo radica en las máquinas inteligentes.
 
Los puntos críticos de las tres C: Coste, complejidad y capacidad
Estas tres C siguen siendo el motivo por el que los que trabajan con data centers no están contentos con las soluciones de otros proveedores. En líneas generales, los costes son excesivos, es innecesariamente complejo y carece de capacidad suficiente, lo que afecta a la velocidad del backup, de la restauración o al montaje instantáneo a una imagen de máquina virtual. Estos tres criterios clave seguirán siendo las principales razones por las que las empresas aumenten o reemplacen del todo sus soluciones de backup.
La llegada de las primeras redes 5G crearán nuevas oportunidades para que los distribuidores y los proveedores de servicios cloud (CSPs) puedan recopilar, gestionar, almacenar y procesar el mayor volumen posible de datos.
A principios de 2019 seremos testigos de la llegada al mercado de los primeros terminales 5G en el CES en Estados Unidos y en el MWC en Barcelona. Creo que la 5G será adoptada rápidamente para la comunicación máquina a máquina y para la tecnología de Internet de las cosas (IoT). La red móvil de consumo ha llegado a un punto en el que es probable que la velocidad 4G ya sea suficientemente rápida como para satisfacer las necesidades de la mayoría de los consumidores.
2019 se centrará más en la estandarización y testeo generalizado de la tecnología, en dispositivos pensados para el futuro capaces de garantizar que son compatibles con la tecnología cuando esté disponible y en Europa convertida en una auténtica “Sociedad Gigabit”.
Los distribuidores y los proveedores de servicios cloud (CSPs) disfrutarán de la llegada de nuevas oportunidades de ingresos al poder aprovechar la 5G o la infraestructura necesaria para darle soporte. Procesar estos grandes volúmenes de datos en tiempo real, a una mayor velocidad, con nuevos requisitos de hardware y dispositivos, así como nuevas aplicaciones para la gestión de datos supondrán oportunidades y ayudará a facilitar las conversaciones sobre edge computing.

 
Comentario (máx. 1500 caracteres - no utilizar etiquetas HTML)


Título (obligatorio)


Nombre (obligatorio)


E-mail (obligatorio)


Por favor rellene el siguiente campo con las letras y números que aparecen en la imagen superior
     
NOTA: Los comentarios son revisados por la redacción a diario, entre las 9:00 y las 21:00. Los que se remitan fuera de este horario, serán aprobados al día siguiente.
CLÁUSULA DE EXENCIÓN DE RESPONSABILIDAD
Todos los comentarios publicados pueden ser revisados por el equipo de redacción de cronicaeconomica.com y podrán ser modificados, entre otros, errores gramaticales y ortográficos. Todos los comentarios inapropiados, obscenos o insultantes serán eliminados.
cronicaeconomica.com declina toda responsabilidad respecto a los comentarios publicados.
Esta noticia aún no tiene comentarios publicados.

Puedes ser el primero en darnos tu opinión. ¿Te ha gustado? ¿Qué destacarías? ¿Qué opinión te merece si lo comparas con otros similares?

Recuerda que las sugerencias pueden ser importantes para otros lectores.
 Otros artículos de Economía

Las implicaciones económicas de la calidad del vídeo Online

Las implicaciones económicas de la calidad del vídeo Online

La nueva ley hipotecaria: tarde y en detrimento de las rentas bajas

21 de junio de 2019: Día Internacional del Sol

´Centennials´ o Generación Z: ¿están los productos bancarios listos?

Claves para entender la esperada ley de crédito inmobiliario

La Montaña rusa de las hipotecas previa a la Ley Hipotecaria

La aversión al riesgo se impone entre los inversores

Reflexiones sobre el GDPR cuando cumple un año

¿Quién tiene un plan de pensiones y para qué?

© Copyright CRÓNICA ECONÓMICA, S.L. 2019 | Suscríbete al boletín | Mapa web | Contacto | Publicidad | Política de cookies | Política de privacidad | Estadísticas | RSS
Celindas, 25. 28016 Madrid.