Historia del big data pdf

El término “Big Data” se utiliza desde principios de los años 90. Aunque no se sabe con exactitud quién utilizó el término por primera vez, la mayoría de la gente atribuye a John R. Mashey (que por aquel entonces trabajaba en Silicon Graphics) la popularización del término.

En su verdadera esencia, el Big Data no es algo completamente nuevo o sólo de las últimas dos décadas. A lo largo de los siglos, la gente ha intentado utilizar las técnicas de análisis de datos y analítica para apoyar su proceso de toma de decisiones. Los antiguos egipcios, en torno al año 300 a.C., ya intentaron capturar todos los “datos” existentes en la biblioteca de Alejandría. Además, el Imperio Romano solía analizar cuidadosamente las estadísticas de sus militares para determinar la distribución óptima de sus ejércitos.

Sin embargo, en las dos últimas décadas, el volumen y la velocidad con la que se generan los datos ha cambiado, más allá de las medidas de comprensión humana. La cantidad total de datos en el mundo era de 4,4 zettabytes en 2013. Se prevé que esta cifra aumente considerablemente hasta los 44 zettabytes en 2020. Para ponerlo en perspectiva, 44 zettabytes equivalen a 44 billones de gigabytes. Incluso con las tecnologías más avanzadas hoy en día, es imposible analizar todos estos datos. La necesidad de procesar estos conjuntos de datos cada vez más grandes (y no estructurados) es la forma en que el análisis de datos tradicional se transformó en “Big Data” en la última década.

Leer más  Nuevas monedas de euro

Historia del big data en la sanidad

El big data, y sus necesidades de computación y almacenamiento asociadas, han tenido un impacto significativo en la industria de los centros de datos. El centro de datos, o granero de bits, es el cerebro de una organización. En él se recogen, almacenan, analizan y difunden todos los datos que la organización necesita. Como la cantidad de datos generados se ha disparado en los últimos años, los centros de datos se han visto obligados a evolucionar y crecer.

Historia del big data: antes de 1980, las empresas utilizaban ordenadores centrales para almacenar y analizar los datos. Dos tecnologías clave fueron fundamentales para las primeras formaciones de los centros de datos tal y como los concebimos hoy. Ambas se produjeron a principios de la década de 1980; la primera fue la llegada de los ordenadores personales (PC), que proliferaron cuando el software operativo Windows de Microsoft se convirtió en el estándar mundial. La segunda fue el desarrollo del protocolo del sistema de red por parte de Sun Microsystems, que permitió a los usuarios de PC acceder a los archivos de la red. A partir de entonces, los microordenadores comienzan a llenar las salas de los mainframes como servidores, y las salas pasan a conocerse como centros de datos.

Desde entonces, una serie de hitos críticos cambiaron la evolución del sector, como la aparición del software de virtualización y el cambio hacia la computación en nube. Estos y otros hitos importantes en el viaje del tema de los grandes datos se exponen en la línea de tiempo que aparece a continuación.

Apache cassandra

Los seres humanos llevan quejándose de ser bombardeados con demasiada información desde la aparición de las tablillas de arcilla. La queja del Eclesiastés de que “la fabricación de muchos libros no tiene fin” resonó en el Renacimiento, cuando la invención de la imprenta inundó Europa occidental con lo que un alarmado Erasmo llamó “enjambres de libros nuevos”. Pero la revolución digital -con su creciente horda de sensores, dispositivos digitales, bases de datos corporativas y sitios de redes sociales- ha cambiado las reglas del juego, ya que el 90% de los datos del mundo actual se han creado sólo en los dos últimos años. En respuesta, todo el mundo, desde los profesionales del marketing hasta los responsables políticos, ha empezado a adoptar un término vagamente definido para los conjuntos de datos masivos de hoy en día y los desafíos que presentan: Big Data. Aunque el diluvio de información actual ha permitido a los gobiernos mejorar la seguridad y los servicios públicos, también ha sembrado el temor de que los Big Data sean otro eufemismo de Gran Hermano.

Leer más  Frases de mujeres emprendedoras

1887-1890 El estadístico estadounidense Herman Hollerith inventa una máquina eléctrica que lee los agujeros perforados en las tarjetas de papel para tabular los datos del censo de 1890, revolucionando el concepto de recuento nacional, que se había originado con los babilonios en el 3800 a.C. El dispositivo, que permite a Estados Unidos completar su censo en un año en lugar de ocho, se extiende a nivel mundial a medida que comienza la era del procesamiento moderno de datos.

Software tableau

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. “Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos”[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión para las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].