av byron theran 2 år siden
254
Mer som dette
Un ejemplo de la velocidad en el big data son las publicaciones de las diferentes redes sociales, ya que están se postean y al instante están el red
El volumen de datos se refiere al tamaño de los conjuntos de datos que deben ser analizados y procesados, que ahora suelen superar los terabytes y petabytes.
El gran volumen de los datos requiere distintas y diferentes
tecnologías de procesamiento que las capacidades tradicionales de almacenamiento y procesamiento. En
En otras palabras, esto significa que los conjuntos de datos en Big Data son demasiado grandes para procesarlos.
con un ordenador portátil normal o un procesador de escritorio. Un ejemplo de un gran volumen de datos
conjunto serían todas las transacciones con tarjeta de crédito en un día dentro de Europa.
ejemplo
Todo este tiempo atrás, los datos se han obtenido de forma manual, sin la ayuda de ninguna máquina ni tecnología que facilite este trabajo. Sin embargo, si hubiera que analizar el volumen masivo de datos ahora, hacerlo manualmente llevaría mucho tiempo y no se haría con exactitud. Seguramente, muchos de esos datos se perderían.
Los datos de alta veracidad tienen muchos registros que son valiosos para analizar y que contribuyen de manera significativa a los resultados generales. Los datos de baja veracidad, por otro lado, contienen un alto porcentaje de datos sin sentido. Lo no valioso en estos conjuntos de datos se denomina ruido. Un ejemplo de un conjunto de datos de alta veracidad serían los datos de un experimento o ensayo médico. Los datos de gran volumen, alta velocidad y gran variedad deben ser procesado con herramientas avanzadas (análisis y algoritmos) para revelar información significativa.
La variedad requiere con frecuencia distintas capacidades de procesamiento y algoritmos especializados.
SEMIESTRUCTURADO
NO ESTRUCTURADO
ESTRUCTURADO