10 principales tendencias en tecnología de datos 2019

La tecnología de datos y análisis sigue evolucionando; Desde el nombramiento de directores de datos hasta la adquisición del último software de análisis, los líderes empresariales intentan utilizarlo desesperadamente, pero no es fácil.

“El tamaño, la complejidad, la naturaleza distribuida de los datos, la velocidad de acción y la inteligencia es parte indispensable del negocio digital”, dice Donald Feinberg, vicepresidente y distinguido analista de investigación de Gartner. “La supervivencia continua de cualquier negocio dependerá de una arquitectura ágil y centrada en los datos que sepa adaptarse a los constantes de cambios".

Pero mientras que los líderes empresariales tienen que abordar dichos conflictos digitales buscando los servicios y la tecnología adecuados para ayudar a agilizar sus procesos de datos, también han surgido oportunidades sin precedentes. La gran cantidad de datos, combinada con el aumento de las capacidades de procesamiento sólidas habilitadas por las tecnologías de la nube, dan la posibilidad de entrenar y ejecutar algoritmos a gran escala necesarios para finalmente alcanzar el potencial completo de la IA.

Según Gartner, es fundamental asumir un compromiso más firme con de las siguientes 10 tendencias tecnológicas principales, impulsando así la evolución y manteniéndose actualizado en este sector.

1. Analítica automatizada

Gartner dice que para 2020, el análisis automático será el principal punto de venta para el análisis y las soluciones de BI.

Usando el aprendizaje automático y la inteligencia artificial, Gartner considera que la analítica aumentada es un factor clave en el mercado de datos y analíticas pues transformará la forma en que se desarrollan, consumen y comparten los contenidos analíticos.


2. Gestión de datos automatizada

La gestión de datos aumentada utiliza capacidades de aprendizaje automático y tecnología de IA para hacer que las categorías de gestión de datos (incluida la calidad de los datos), la gestión de datos maestros, la gestión de metadatos, la integración de datos y los sistemas de gestión de bases de datos (DBMS), se configuren automáticamente.

Según Gartner, también ayuda a los recursos técnicos altamente calificados a centrarse en más tareas de valor agregado. Hasta finales de 2022, las tareas manuales en gestión de datos se reducirán en un 45% gracias a ML y la gestión automatizada de nivel de servicio.


3. Inteligencia continua

Los datos continuos son más que una nueva forma de decir datos en tiempo real. En su lugar, se trata de un patrón de diseño donde los análisis en tiempo real se combinan con las operaciones comerciales, procesando datos actuales e históricos para prescribir acciones en respuesta a eventos.

"La inteligencia continua representa un cambio significativo en el trabajo del equipo de datos y análisis", dice Rita Sallam, vicepresidenta de investigación de Gartner. "Es un gran desafío, y una gran oportunidad, para los equipos de analítica y BI (inteligencia empresarial) ayudar a las empresas a tomar decisiones más inteligentes en tiempo real en 2019. Podría considerarse como lo último en BI operacional".

Para 2022, más de la mitad de los nuevos sistemas de negocios importantes incorporarán inteligencia artificial que utilizará datos de contexto en tiempo real para mejorar las decisiones.
 

4. AI Explicativa

La AI ya se está utilizando cada vez más en la gestión de datos, pero ¿cómo explican las herramientas de AI los resultados de sus analisis? Aquí es donde entra en juego la inteligencia artificial.

La AI explicativa trata de generar una explicación de los modelos de datos en términos de precisión, atributos, estadísticas de modelos y características en lenguaje natural.
 

5. Análisis Gráfico

Según Gartner, el análisis gráfico es un conjunto de técnicas analíticas que ayudan a las empresas a explorar las relaciones entre entidades de interés, como transacciones, procesos y personal.

La aplicación de los sistemas de procesamiento de gráficos, así como los de gestión de bases de datos de gráficos, crecerá el 100% anualmente hasta 2022.

 

6. Tejido de datos

La estructura de datos tiene que ver con un marco de administración de datos único y consistente. Considera la posibilidad de permitir el acceso y el intercambio de datos en un entorno de datos distribuidos en silos en lugar de almacenamientos.

Hasta el año 2022, las configuraciones de tejido de datos a medida se utilizarán principalmente como una infraestructura estática, lo que obligará a las organizaciones a un nuevo flujo de costos para rediseñar completamente los enfoques de malla de datos más dinámicos.

 

7. NLP / Analítica Conversacional

Para 2020, el 50% de las consultas analíticas se generarán mediante búsqueda, procesamiento de lenguaje natural (NLP) o voz, o se generarán automáticamente. La necesidad de analizar combinaciones complejas de datos y hacer que los análisis sean accesibles para todos impulsará una adopción más amplia, permitiendo que las herramientas de análisis sean tan fáciles como una interfaz de búsqueda o una conversación con un asistente virtual.

Los casos de uso son tan vastos que se anticipa que el mercado de PNL tendrá un valor de $ 13,4 mil millones para 2020, según estudios de mercado.
 

8. ML y AI

Gartner dice que para 2022, el 75% de las nuevas soluciones para usuarios finales que aprovechan las técnicas de ML y AI se construirán con soluciones comerciales en lugar de plataformas de código abierto.

Los proveedores comerciales han creado conectores en el ecosistema de código abierto, y proporcionan a las organizaciones las características necesarias para escalar y democratizar la inteligencia artificial y el desarrollo empresarial, como la gestión de proyectos y modelos, la transparencia, la reutilización, el linaje de datos, la cohesión de la plataforma y la integración de las que carecen de las tecnologías de código abierto.

 

9. Blockchain

Las tecnologías como blockchain, parecen prometedoras en el área de análisis de datos debido a la posibilidad de que brinden confianza a través de una red de usuarios pública.

Las ramificaciones para los casos de uso de análisis son importantes, especialmente aquellas que aprovechan las relaciones e interacciones de los participantes.

Pero, según Gartner, va a pasar varios años para que blockchain despegue completamente en esta área. Mientras tanto, las empresas se integrarán en parte con las tecnologías y estándares de blockchain que probablemente dicten sus clientes o redes dominantes. Esto incluye la integración con su infraestructura de datos y análisis existente.
 

10. IMC

Las tecnologías de memoria tienen como objetivo reducir los costos y la complejidad de adoptar arquitecturas con capacidad de computación en memoria (IMC). La memoria persistente representa un nuevo nivel de memoria entre la memoria flash DRAM y NAND que puede proporcionar una memoria masiva rentable para cargas de trabajo de alto rendimiento.

Según Gartner, tiene el potencial de actualizar el rendimiento de la aplicación, la disponibilidad, los tiempos de inicio, los métodos de agrupación en clústeres y las prácticas de seguridad. También ayudará a las organizaciones a reducir la complejidad de sus aplicaciones y arquitecturas de datos al disminuir la necesidad de duplicación de datos.

"La cantidad de datos está proliferando y la urgencia de transformar los datos de valor en tiempo real está creciendo a un ritmo rápido", dice Feinberg. "Las nuevas cargas de trabajo del servidor exigen no solo un rendimiento más rápido de la CPU, sino también una memoria masiva y un almacenamiento más rápido".

En Dynasoft somos expertos en tratamiento de datos como partner oficial de Microsoft con el programa por excelencia Navision o Microsoft Dyamics 365. Contáctanos si quieres estar a la última en la teconología de tratamiento de datos.

Share