Qué entendemos por “Big Data”

Qué entendemos por “Big Data”

Terminada la IV Edición del Máster en Big Data propio de la UMA y a la espera de la siguiente edición, aprovechamos para dar a conocer (de una forma más popular si nos lo permiten) que es exactamente el Big Data y cómo puede ayudarnos en nuestro día a día…

El Big data (palabra anglosajona que se traduce literalmente como macrodatos o conjunto masivo de datos) es a un fenómeno que surgió en los años ochenta. Hoy día nos vamos a encontrar este término anglosajón en cualquier libro, ensayo o periódico, aunque la RAE aún no lo ha aceptado como tal.  El uso actual del término Big Data, se refiere a esgrimir el comportamiento del usuario, implementando valor a los datos almacenados y por ende se pueden formular predicciones de los patrones observados.

La tecnología va mejorando día a día y con ella los computadores que han aumentado de manera significativa, el procesamiento, el almacenamiento la capacidad y la velocidad. Esta situación ha traído consigo otros y nuevos inconvenientes. Se han tenido que crear nuevas herramientas para solventarlos.

Para poder trabajar con los macrodatos se necesitan aplicaciones informáticas no tradicionales para poder procesar esos datos y poder manejarlos de manera correcta. La RAE nos define dato como “1. Información sobre algo concreto que permite el conocimiento exacto o sirve para deducir las consecuencias derivadas de un hecho. 2. Información dispuesta de manera adecuada para su tratamiento por una computadora.” Por tanto, los parámetros que se usan para hallar patrones repetitivos dentro de esos datos son más avanzados y necesitan un software más avezado.

¿Cuáles son las principales características?

Podemos de un concepto denominado las 5 Vs:

  • Volumen:  el volumen de datos creados y guardados.
  • Variedad: la diversidad y la naturaleza de los datos para ayudar a terceros a cuantificar y usar esos datos de manera de manera eficaz. Se usan imágenes, textos, vídeos y audios.
  • Velocidad: la velocidad a la que se generan y se procesan estos datos.
  • Veracidad: el hecho de que no sean de calidad puede variar en el resultado del análisis.
  • Valor: deben ser útiles y tener valor.

¿Quién se ocupa de estudiarlos?

Están enmarcados dentro de las tecnologías de la información y de la comunicación. Trabajan sobre los propios sistemas que a su vez gestionan grandes conjuntos de datos. El principal problema de gestionar ese gran conjunto de datos es en compilar, en almacenar, comparticiones, visualizaciones y en las representaciones.    

¿Cuál es el fin de esta gestión de datos?

Principalmente se utiliza para la creación de estadísticas, de modelos predictivos en diferentes ámbitos ya sea relacionado con los negocios, acerca de la publicidad, relacionado con la salud y/o enfermedad, hechos delictivos como el crimen organizado, espionaje, hábitos de consumo, etc …

Podríamos resumirlo como la densidad de información para medir cosas, para detectar tendencias, revelar relaciones, dependencias y/o comportamientos.

Related Posts

NVIDIA revoluciona el control de robots humanoides con HOVER
Noticias y Novedades
NVIDIA revoluciona el control de robots humanoides con HOVER

NVIDIA ha lanzado HOVER, una innovadora red neuronal que permite el control de movimientos de cuerpo entero en robots humanoides con una eficiencia sin precedentes. Con solo 1,5 millones de parámetros, esta solución unifica múltiples modos de control, optimizando la versatilidad y adaptabilidad en tareas complejas como la locomoción y la manipulación.

Deja un comentario

Your email address will not be published. Required fields are marked.*

× ¿Cómo puedo ayudarte?