Junto con el aspecto social, móvil y la nube, las tecnologías de analítica y datos asociados han surgido como disruptores del negocio principal en la era digital. A medida que las empresas dejaron de ser generadoras de datos para volverse organizaciones impulsadas por datos en el 2017, los datos y la analítica se convirtieron en el centro de gravedad de muchas empresas. En el 2018, estas tecnologías deben comenzar a generar valor. Estos son los enfoques, roles e inquietudes que impulsarán las estrategias de analítica de datos en el futuro.
Los datos se han acumulado en la empresa a un ritmo vertiginoso durante años. Internet de las cosas (IoT, por sus siglas en inglés) solo acelerará la creación de datos a medida que las fuentes de datos se trasladan de la web a los dispositivos móviles, y luego a las máquinas.
“Esto ha creado una gran necesidad de escalar los canales de datos de una manera rentable”, señaló Guy Churchward, CEO del proveedor de plataforma de datos en tiempo real DataTorrent.
Para muchas empresas, impulsadas por tecnologías como Apache Hadoop, la respuesta fue crear lagos de datos -plataformas de administración de datos para almacenar todos los datos de una organización en formatos nativos. Los lagos de datos prometieron dividir los silos de información proporcionando un único repositorio de datos que podía ser usado por toda la organización para cualquier tema, desde la analítica empresarial hasta la extracción de datos. Los lagos de datos sin procesar y sin gobernar se han establecido como un gran ‘catch-all‘ y ‘cure-all‘ de datos.
“El lago de datos funcionó en las empresas fantásticamente bien durante la era de datos ‘en reposo’ y ‘en lote’”, anotó Churchward. “En el 2015, comenzó a ser evidente que esta arquitectura se estaba utilizando en exceso, pero ahora se ha convertido en el talón de Aquiles para la verdadera analítica de datos en tiempo real. Aparcar los datos, y luego analizarlos, pone a las empresas en una situación de gran desventaja. Cuando se trata de obtener información y tomar medidas tan rápido como lo permita el cálculo, las empresas que se basan en datos de eventos obsoletos crean un eclipse total de visibilidad, acciones y cualquier posible solución inmediata. Esta es un área donde ‘lo suficientemente bueno’ resultará estratégicamente fatal”.
Monte Zweben, CEO de Splice Machine, está de acuerdo. “La era de desilusión de Hadoop golpea con todo; con muchas empresas ahogadas en sus lagos de datos, incapaces de obtener un ROI debido a la complejidad de los motores de cómputo basados en Hadoop”, predijo Zweben para el 2018.
Para sobrevivir al 2018, los lagos de datos tendrán que comenzar a probar su valor empresarial, añadió Ken Hoang, vicepresidente de estrategia y alianzas del especialista en catálogos de datos Alation.
Como parte de este nuevo impulso para obtener mejores perspectivas de los datos, Langley Eide, director de estrategias del especialista en análisis de datos de autoservicio Alteryx, dijo que TI no estará solo en la tarea de hacer que los lagos de datos generen valor: analistas de líneas de negocios (LOB) y jefes digitales (CDOs) también tendrán que asumir la responsabilidad este 2018. También predijo que el rol de CDO se desarrollará plenamente en este año.
“Los datos son esencialmente el nuevo petróleo, y el CDO comienza a ser reconocido como el eje para abordar uno de los problemas más importantes en las empresas hoy en día: impulsar el valor de los datos”, señaló Eide. “A menudo, con un presupuesto de menos de 10 millones de dólares, uno de los mayores desafíos y oportunidades para los CDOs es hacer realidad la muy publicitada oportunidad de autoservicio mediante el acercamiento de los activos de datos corporativos a los usuarios de la línea de negocio. En el 2018, los CDOs que trabajan para lograr un equilibrio entre una función centralizada y las capacidades integradas en LOB, finalmente obtendrán los presupuestos más grandes”.
Eide consideró que los CDOs que logran que los recursos, habilidades y funcionalidad cambien rápidamente entre centros de excelencia y LOB, encontrarán el mayor éxito. Eide indicó que para esto las plataformas y metodologías agile son clave.
A medida que los proyectos pasan a producción, la calidad de los datos es cada vez más preocupante. Esto es especialmente cierto, pues IoT abre aún más las compuertas. Infogix dice que en el 2018 las organizaciones recurrirán a los algoritmos de aprendizaje automático para mejorar la detección de anomalías en la calidad de los datos. Mediante el uso de patrones históricos para predecir los resultados futuros de la calidad de los datos, las empresas pueden detectar de forma dinámica anomalías que de otro modo podrían haber pasado inadvertidas, o que podrían haberse encontrado mucho más tarde solo mediante la intervención manual.