Big Data y sus 5 tendencias que la hacen evolucionar cada vez más

0

La rápida evolución de las tecnologías de los macro datos, o mejor conocida como la Big Data, está conectada a 5 tendencias principales, que incluyen aplicaciones prácticas de aprendizaje automático, recursos informáticos baratos relativamente, abundantemente disponibles y usados por muchos.

Hace tiempo entre los expertos de las tecnología de los datos se expresó que toda la información eventualmente se convertiría en macro datos, y las plataformas de procesamiento de la nueva Big Data evolucionaría increíblemente en la próxima generación.

Pero, hemos llegado al punto de la evolución de la Big Data el cual los expertos hablaban hace años, donde ahora es la corriente principal, y si actualmente su organización, empresa o compañía, no es consciente de cómo implementar las nuevas tecnologías, como la inteligencia artificial y el internet de las cosas, es posible que se esté quedando sin tiempo de ser parte de la revolución de la Big Data barata.

De hecho, el mundo de los grandes datos continua cambiando rápidamente, se puede notar por ejemplo en las personas que atienden a las conferencias. Las personas que asisten a estas reuniones son cada vez menos tontos, ingenuos e idealistas,  ahora son personas inteligentes enfocadas en la investigación de los códigos abiertos, y ya son profesionales del tema, los cuales ya la estudiaron en ciertas universidades, y están buscando resolver los problemas comerciales reales en entornos de producción empresarial competitivo, usando la Big Data y la machine learning.

Actualmente hay 5 tendencias que están impulsando a los grandes datos, haciéndolo ganar terreno rápidamente dentro del mundo real.

 

  1. Datos estructurados:

La Big data ya no se trata sólo de datos estructurados o semi estructurados en celdas de Excel o Stata, muchos de los proveedores claves de las plataformas de cómputos como Hortonworks, MapR y Cloudera, ahora están hablando de la implementación de la Big Data como depósitos empresariales completos (EDW). La idea pasiva, a menudo muy complicada de llevar, de los lagos de datos parece un poco pasada de moda, mientras que existen una gran cantidad de energía destinada a proporcionar inteligencia comercial practica (BI) y en tiempo real a un sector corporativo mucho más amplia de consumidores y mucho más exigentes o, estos lagos de data semi estructurada está muriendo.

Dentro de los congresos se puede notar una gran cantidad de competidores presentado plataformas de aceleración de muestra de los grandes datos, que están aplicando análisis bajo demanda contra volúmenes tremendamente grandes, tanto históricos como de transmisión de los miles de dispositivos IoT, todos datos estructurados.

 Claramente, hay una guerra para la inversión corporativa entre BI y EDW, pero la rapidez con que muestran los datos la tecnología de la BI, superara inevitablemente a la EDW heredada y muy lenta.

2.   Sistemas de acción convergente:


Esto llega gracias a la observación oportuna de que la evolución de la Big Data incluye implementaciones que alojan cada vez más la huellas digitales de los datos completos de una empresa (tanto los datos estructurado como los que no).

Anteriormente notamos que existían muchos enfoques analíticos avanzados que podían agregar un valor cuando combinan muchos conjuntos de información corporativos, los cuales son no ordenados y de todos los tipos. Ahora muchas de las discusiones hablan de cómo hacer que BI incluya y converja en fuentes de datos semi o los no estructurados.

No está del todo claro si las plataformas de Big Data actuales están listas para ser consideradas sistemas maestros de registros para todas las transacciones y en cualquier circunstancia. Sin embargo, diría que están listos para ser sistemas de acción realmente convergente en la evolución de los grandes datos, reemplazando los centros de procedimientos inconexos y dispares, distribuidos en múltiples plataformas, todas a una sola aplicación, pero mucho más poderosa para el análisis operativo y la toma de decisiones en tiempo real.

 

3.  Aprendizaje automático:


A medida que más y más compañías implementan sistemas Big Data a la producción real, los asistentes a las conferencias de esta tecnología parecen estar más centrados en los negocios serios y pragmáticos, ya no existen tantas ambiciones de ciencia ficción sobre la inteligencia artificial, sino afirmaciones con bastante propiedad, un montón de material practico sobre el aprendizaje automático efectivo, en vez de las historietas de Star Trek o Star Wars. Lo que demuestra la increíble madurez que ha alcanzado este mercado.

Los temas principales de la inteligencia artificial son, como implementar y mantener el aprendizaje automático dentro de las líneas de producción, del sentido humanista del aprendizaje automático y lo que le puede proporcionar a la sociedad, y de un tema que si parece ciencia ficción que últimamente rodea seriamente al ecosistema de la IA, y es la sensibilidad de las maquinas.

 

4. Sistemas de Big Data manejados por la inteligencia artificial:


Dentro de las tendencias se habla mucho sobre el uso del aprendizaje automático para administrar de manera eficiente, cuando hablamos de los recursos, los procesos de aprendizaje automático a gran escala, dentro de las líneas de producción, o al menos usar el aprendizaje automático para administrar mejor las cargas de trabajo de los grandes datos, por sobre todo la transmisión y el análisis de la información generada por la IoT

También se habla de la aplicación interna del aprendizaje automático en otros segmentos que necesitan un administración robusta y automatizable a gran escala, como centro de datos y operaciones en la nube hibrida (pública y privada).

5.  Big Data barata o HPC de escritorio:


 

El ultimo de las tendencias, es que ya algunos proveedores están empezando a fabricar pequeños nodos de clúster computables apilables (HPC), o llamados Hivecells, cada uno de tamaño de un antiguo disco duro.

Estos están diseñado para ejecutar un software basado en la tecnología Blockchain, como plataformas de Big Data para desarrolladores, a un costo mucho menor que ejecutar un mismo poder de computo en la nube. Es una pila relativamente pequeña de aproximadamente de 30 centímetros de alto que se podrá crear y mantener un clúster personal, al mismo tiempo servidores similares a los HPC.

Esto va de la mano con la tendencia de hacer más accesible la tecnología de los grandes datos, pues hoy en día dejó de ser cuentos de historias de ficción, para convertirse en un mundo totalmente nuevo, que nos da un poder de conocimiento sin precedentes, maquinas interconectadas gracias a la IoT, que aprenden solas y cada vez mejor gracias al aprendizaje automático que brinda la inteligencia artificial, que son cargados a la nube en servidores descentralizados que dependen de la Blockchain y que todos estos procesos reúnen datos que pueden ser estructurados y recopilados automáticamente por la IA y procesados por las plataformas de Big Data, y lo más importante, todo a un costo bastante accesible, no se necesita ser Google, Apple o Microsoft para ingresar en este mundo.