La revolución de la analítica de datos sigue evolucionando: Big Data, aprendizaje automático, ciencia de los datos. ¿Pero qué tendencias vale la pena revisar y tener en cuenta este año?
Te contamos a continuación cuáles son las tecnologías, técnicas y estrategias de analíticas de datos que están en tendencia.
9 tendencias en analítica de datos que van a la alza en 2017
Autoservicio en inteligencia de negocios
Actualmente surgen cadas vez más herramientas de autoservicio en inteligencia de datos. Por ejemplo, Tableau, Qlik Sense, Power BI y Domo son productos con los cuales los gerentes pueden obtener información actual del negocio en forma gráfica y a demanda.
Se requiere, sin duda, configuración de parte del departamento de Tecnologías de la Información, desde la instalación hasta el momento de añadir datos, pero la mayoría del trabajo de limpiar los datos y crear análisis la pueden hacer los analistas de negocios, con los resultados actualizándose con los datos más recientes cada vez que se abren.
Con estas herramientas los managers pueden interactuar con los análisis en forma gráfica para identificar retos que necesitan ser superados. Entre estos datos se encuentra tendencias en los números de venta, ventas comparativas año a año, datos sobre el inventario, entre otros.
Tableros de configuración en móviles
Actualmente casi nadie está todo el tiempo en su oficina o escritorio. Por ello, las herramientas de manejo necesitan estar presentes en un ambiente amigable al móvil para ser útiles y oportunas.
[Tweet “Conoce 9 tendencias en #AnalíticasDeDatos que van a la alza este año”]
La mayoría de las herramientas de Inteligencia de Negocios tienen ya esta función. Pero otras herramientas necesitan ponerse al día, por ejemplo, para que los gerentes puedan saber si sus líneas de producción están a tiempo, así como reciban una alerta en caso de que alguna se salga del límite aceptable, de modo que puedan resolver el problema de inmediato.
Lenguaje R
Los científicos de datos tienen un número de opciones para analizar los datos usando métodos estadísticos.
Una de las herramientas más convenientes y poderosas es el lenguaje de programación R. Es una de las mejores formas de crear análisis de alta calidad, repetibles y de forma gratuita.
A diferencia de las hojas de cálculo, este lenguaje y sus repositorios ofrecen un amplio rango de técnicas estadísticas, manipulación de datos y trazado, al punto que si una técnica existe, probablemente ya está implementada en un paquete R.
Además, soporta el aprendizaje automático, aunque podría no ser la primera opción para redes neurales profundas, que requieren computación de alto rendimiento, mucho mayor al lenguaje R.
Puede usarse en conjunto de productos comerciales, como Microsoft Azure Machine Learning Studio y SQL Server 2016.
Redes neurales profundas
Algunos de los algoritmos más poderosos del aprendizaje profundo son las redes neurales profundas (DNNs, por sus siglas en inglés).
Estas son redes neurales construidas con muchas capas (de ahí el término ‘profundas’) de unidades de procesamiento alternativas lineales y no lineales.
Están entrenadas para usar algoritmos a gran escala y cantidades masivas de datos. Una red neural profunda puede tener de 10 a 20 capas escondidas, mientras que una red neural típica puede tener unas pocas.
Algunos paquetes para crear redes neurales profundas incluyen Caffe, Microsoft, Microsoft Cognitive Toolkit, MXNet, Neon, TensorFlow, Theano, and Torch.
Otra herramientas a la alza
TensorFlow
Herramienta de aprendizaje automático y librería de redes neuronales de Google, que es usada en casi todos los servicios de aprendizaje automático del gigante de la tecnología, entre otros, Translate, Maps y apps de Google.
MxNet
MxNet (pronunciado “mix-net”) es un marco de referencia de aprendizaje profundo similar a TensorFlow. Ofrece un lenguaje para cálculos del cual carece TensorFlow. Realiza operaciones simbólicas e imperativas al vuelo, además de que crea una capa de optimización de gráficas lo cual hace la ejecución rápida y eficiente.
Microsoft Cognitive Toolkit 2.0
Esta herramienta es un toolkit unificado de aprendizaje automático que describe a las redes neuronales como una serie de pasos computacionales a través de una gráfica dirigida. Tiene muchas similaridades con TensorFlow y MxNet, pero Microsoft afirma que es más rápida, especialmente para redes recurrentes.
Aprendizaje vía Scikits
Los Scikits son herramientas científicas basadas en Python, elaboradas con Scipy, la librería de Python para computación científica. Scikit-learn es un proyecto open source enfocado en el aprendizaje automático que evita los algoritmos no probados.
Jupyter Notebooks
Este tipo de aplicación web permite a los científicos crear y compartir documentos que contienen código en vivo, equaciones, visualizaciones y texto explicatorio. Sus usos incluyen transformación y limpieza de los datos, simulación numérica, modelado estadístico, aprendizaje automático y más.
Mantente informado de las noticias más relevantes en nuestro canal de Telegram