Qué es big data
comentarios
La ética de los grandes datos, también conocida simplemente como ética de los datos, se refiere a la sistematización, la defensa y la recomendación de conceptos de conducta correcta e incorrecta en relación con los datos, en particular los datos personales[1] Desde los albores de Internet, la cantidad y la calidad de los datos ha aumentado de forma espectacular y sigue haciéndolo exponencialmente. Los big data describen esta gran cantidad de datos que son tan voluminosos y complejos que los programas tradicionales de aplicación de procesamiento de datos son inadecuados para tratarlos. Las recientes innovaciones en la investigación médica y la asistencia sanitaria, como la secuenciación genómica de alto rendimiento, la obtención de imágenes de alta resolución, los historiales médicos electrónicos de los pacientes y una plétora de dispositivos sanitarios conectados a Internet, han desencadenado un diluvio de datos que alcanzará el rango de los exabytes en un futuro próximo. La ética de los datos es cada vez más importante a medida que aumenta la cantidad de datos debido a la escala del impacto.
La ética de los big data es diferente de la ética de la información porque el enfoque de la ética de la información se centra más en las cuestiones de propiedad intelectual y en las preocupaciones relacionadas con los bibliotecarios, los archiveros y los profesionales de la información, mientras que la ética de los big data se ocupa más de los recolectores y difusores de datos estructurados o no estructurados, como los corredores de datos, los gobiernos y las grandes empresas.
qué es la tecnología big data
Escanear activamente las características del dispositivo para su identificación. Utilizar datos de geolocalización precisos. Almacenar y/o acceder a la información de un dispositivo. Seleccionar contenidos personalizados. Crear un perfil de contenido personalizado. Medir el rendimiento de los anuncios. Seleccionar anuncios básicos. Crear un perfil de anuncios personalizados. Seleccionar anuncios personalizados. Aplicar la investigación de mercado para generar información sobre la audiencia. Medir el rendimiento de los contenidos. Desarrollar y mejorar los productos.
El término big data hace referencia a los grandes y diversos conjuntos de información que crecen a un ritmo cada vez mayor. Abarca el volumen de información, la velocidad o rapidez con la que se crea y recopila, y la variedad o el alcance de los puntos de datos que se abarcan (lo que se conoce como las “tres v” del big data). Los big data suelen proceder de la minería de datos y llegan en múltiples formatos.
Los big data pueden clasificarse como no estructurados o estructurados. Los datos estructurados consisten en información ya gestionada por la organización en bases de datos y hojas de cálculo; suelen ser de naturaleza numérica. Los datos no estructurados son información que no está organizada y no se ajusta a un modelo o formato predeterminado. Incluyen los datos recogidos en las redes sociales, que ayudan a las instituciones a recopilar información sobre las necesidades de los clientes.
minería de datos
Los modelos de madurez de big data (BDMM) son los artefactos utilizados para medir la madurez de big data[1]. Estos modelos ayudan a las organizaciones a crear una estructura en torno a sus capacidades de big data y a identificar por dónde empezar[2]. Proporcionan herramientas que ayudan a las organizaciones a definir objetivos en torno a su programa de big data y a comunicar su visión de big data a toda la organización. Los BDMM también proporcionan una metodología para medir y supervisar el estado de la capacidad de big data de una empresa, el esfuerzo necesario para completar su etapa actual o fase de madurez y para progresar a la siguiente etapa. Además, los BDMM miden y gestionan la velocidad tanto del progreso como de la adopción de los programas de big data en la organización[1].
Las áreas clave de la organización se refieren a “personas, procesos y tecnología” y los subcomponentes incluyen[3] alineación, arquitectura, datos, gobierno de los datos, entrega, desarrollo, medición, gobierno del programa, alcance, habilidades, patrocinio, modelado estadístico, tecnología, valor y visualización.
apache spark
¿Qué es el big data? Es una buena pregunta. Parece que hay tantas definiciones de big data como empresas, organizaciones sin ánimo de lucro, agencias gubernamentales y personas que quieren beneficiarse de él.
Una interpretación popular de big data se refiere a conjuntos de datos extremadamente grandes. Un informe del Instituto Nacional de Estándares y Tecnología definió los big data como “conjuntos de datos extensos -principalmente en las características de volumen, velocidad y/o variabilidad- que requieren una arquitectura escalable para un almacenamiento, manipulación y análisis eficientes”. Algunos han definido los big data como una cantidad de datos que supera un petabyte -un millón de gigabytes-.
Estos datos proceden de innumerables fuentes: teléfonos inteligentes y publicaciones en las redes sociales; sensores, como señales de tráfico y contadores de servicios públicos; terminales de puntos de venta; dispositivos portátiles de los consumidores, como los medidores de peso; historiales médicos electrónicos; y un largo etcétera.
En las profundidades de estos datos hay inmensas oportunidades para las organizaciones que tienen el talento y la tecnología para transformar sus vastos almacenes de datos en una visión procesable, una mejor toma de decisiones y una ventaja competitiva.