BIG DATA

Incluido en la revista Ocronos. Vol. V. Nº 11–Noviembre 2022. Pág. Inicial: Vol. V; nº11: 152

Autor principal (primer firmante): Marina Isabel Pérez Meana

Fecha recepción: 20 de octubre, 2022

Fecha aceptación: 17 de noviembre, 2022

Ref.: Ocronos. 2022;5(11) 152

Autores:

  1. Marina Isabel Pérez Meana, auxiliar administrativo en el Hospital Universitario de Cabueñes, Gijón.
  2. Ana María Tuero Iglesias, auxiliar administrativo en el Hospital Universitario de Cabueñes, Gijón.
  3. Cristina Victoria Gayol Torres, auxiliar administrativo en el Hospital Universitario de Cabueñes, Gijón.
  4. Miryam Brandon Martínez, auxiliar administrativo en el Centro de Atención Primaria Zarracina, Gijón.
  5. Gloria Fariña Arango, auxiliar administrativo en el Hospital Universitario Central de Asturias, Oviedo.

Desarrollo

“Big Data” hace referencia al conjunto de datos y al volumen de los mismos y las múltiples posibilidades de análisis de los mismos, estos datos son estructurados como no estructurados.

El sistema sanitario cada día genera más información que deben ser procesados y analizados coyuntural mente asociándolos a una necesidad y momento específico para mejorar el sistema sanitario, la salud de la población y la calidad de vida de cada individuo, así como la mejor en la gestión de los centros hospitalarios.

publica-TFG-libro-ISBN

“Big Data” es el término que describe el volumen de datos, tanto estructurados como no estructurados, que nos rodean cada día, dónde tan importante como la cantidad de datos son las posibilidades de análisis de esos datos.

En 1987 la Organización Internacional de Normalización (ISO) publicó las normas ISO 9000 para garantizar la calidad de productos y servicios. Sin embargo, el estudio de los estándares de calidad de los datos no comenzó hasta los años noventa y no fue hasta 2011 cuando ISO publicó las normas de calidad de datos ISO 8000. Es necesario que transcurra más tiempo ya que la investigación sobre la calidad de datos de big data ha comenzado hace poco y hay apenas resultados.

El concepto “big data” es relativamente nuevo, los orígenes de los grandes conjuntos de datos se remontan a las décadas de 1960 y 1970, cuando el mundo de los datos acababa de empezar con los primeros centros de datos y el desarrollo de las bases de datos relacionales.

Alrededor de 2005. la gente empezó a darse cuenta de la cantidad de datos que generaban los usuarios a través de Facebook, YouTube y otros servicios online. Ese mismo año, se desarrollaría Hadoop, un marco de código abierto creado específicamente para almacenar y analizar grandes conjuntos de datos, y más recientemente Spark, que serían esenciales para el crecimiento del big data al hacer que resulte más fácil de usar y más barato de almacenar.

Con la llegada del Internet de las cosas (IoT), hay un mayor número de objetos y dispositivos conectados a Internet que generan datos sobre patrones de uso de los clientes y el rendimiento de los productos. El surgimiento del aprendizaje automático ha producido aún más.

Al hablar de “Big Data” se hace referencia al conjunto de datos o combinaciones de conjuntos de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales. Estos conjuntos de datos son tan voluminosos que el software de procesamiento de datos convencional no puede gestionarlos.

La mayoría de profesionales consideran que se habla de Big Data cuando se trabaja con conjuntos de datos que van desde 30-50 terabytes a varios petabytes. En la mayoría de los casos, con el fin de utilizar eficazmente esta herramienta, deben combinarse datos generados por las tecnologías modernas como los weblogs con datos estructurados, normalmente de una base de datos racional.

Como ya hemos dicho, las tres “V” que definen al Big Data son:

  • Volumen: como feeds de datos de Twitter, flujos de clics de una página web o aplicación para móviles, o equipos de sensores. Para algunas organizaciones, esto puede suponer decenas de terabytes de datos, para otras, incluso, cientos de petabytes.
  • Velocidad: es el ritmo al que se reciben los datos y al que se aplica alguna acción. La mayor velocidad de los datos normalmente se transmite directamente a la memoria, en vez de escribirse en un disco.
  • Variedad: hace referencia a los diversos tipos de datos disponibles. Los datos convencionales eran estructurados y podían organizarse claramente en una base de datos relacional. Con el auge del big data, los datos se presentan en nuevos tipos de datos no estructurados. Los tipos de datos no estructurados y semiestructurados, como el texto, audio o vídeo, requieren un preprocesamiento adicional para poder obtener significado y habilitar los metadatos.

En los últimos años han surgido otras dos “V”, que son el valor y la veracidad de los datos, ya que los datos poseen un valor intrínseco, pero no tienen ninguna utilidad hasta que dicho valor se descubre.

El volumen de datos existentes es tal que sólo se puede explorar una pequeña parte de los mismos. Las mejoras en las capacidades de almacenamiento y procesamiento, así como la aparición de nuevos algoritmos, resultan insuficientes si no existe personal capacitado para realizar la labor de análisis e interpretación de la información adquirida.

En estos momentos hay aplicaciones de técnicas propias de análisis de la información que permiten optimizar tanto en la gestión clínica (para predecir cómo utilizar los recursos sanitarios de forma más eficiente: frecuencia de asistencia a consultas médicas, ingresos en el hospital, etc) como en el tratamiento y la atención al paciente, dando apoyo a la medicina personalizada, ofreciendo, entre otros, servicios de alertas, predicciones de necesidades y generación de recomendaciones.

En el sistema sanitario y en concreto los hospitales cada vez se dispone de más datos, más variados y más capacidad para ser procesados. Estos datos muchas veces no son almacenados para su posterior reutilización, sino que son usados para un análisis coyuntural asociado a una necesidad y momento específico. Es en este contexto donde aparece el Big Data, que trata de generar valor a partir de los datos relacionados con la salud.

La historia clínica electrónica y el resto de los registros electrónicos de salud digital se están extendiendo y universalizando en los últimos años y son la base necesaria para la ordenación de los datos del paciente, a fin de obtener valor y generar nuevo conocimiento con la utilización de las capacidades aportadas por el Big Data.

Estas nuevas formas de recogida de información y de agregación de la misma, así como las tecnologías y técnicas asociadas, pueden mejorar la prestación de asistencia sanitaria, tanto a nivel individual como para conjuntos poblacionales de pacientes.

El Big Data en medicina permite crear fórmulas eficaces para la población, creando una medicina participativa, predictiva, personalizada y poblacional.

La medicina participativa permite, a través de Internet y las nuevas tecnologías, crear comunidades online enfocadas al concepto del e-paciente, consiguiendo una mayor implicación del ciudadano. El objetivo es el diseño de nuevos tratamientos, la creación de medidas de prevención más eficaces, y conseguir un trato más personalizado y la reducción de errores médicos.

La medicina predictiva, por su parte, busca intensificar las necesidades de los pacientes y, a través del análisis de datos, anticiparse a ellas creando medidas preventivas específicas, que pueden tener su reflejo en estudios que muestren la probabilidad de que una enfermedad aparezca o programas de investigación de salud pública, entre otras posibilidades.

Con el Big Data en medicina se logra también que los pacientes mantengan una relación más estrecha con sus médicos. El análisis de datos permite una medicina personalizada y adaptada a las características y necesidades más específicas, logrando así un sistema de salud más eficaz. En este caso, la teleasistencia toma cada vez más protagonismo, aprovechando las ventajas de los datos ofrecidos por las apps de salud y los wereables.

Las tecnologías de Big Data ahorran tiempo y costes y tienen su impacto en la medicina poblacional. Así analizando a un grupo de personas se pueden extrapolar los resultados a la población en general. Esta forma de entender la medicina es contraria a la personalización, pero ambas son complementarias.

El análisis de datos médicos, en definitiva, pueden mejorar el sistema sanitario, la salud de la población y la calidad de vida de cada individuo. Esto permite evaluar los riesgos de ciertos procedimientos para buscar tratamientos individualizados y se puede aplicar para una mejora en la gestión de la sanidad en los centros hospitalarios, además de reducir el gasto médico y las tasas de mortalidad.

Bibliografía

  1. Caser, Grupo Helvetia. https://magazine.caser.es /tecno/aplicaciones-big-data-medicina/
  2. https://www.powerdata.es/big-data
  3. https://support.sas.com /en/technical-support.html
  4. https://www.eleconomista.es/ diccionario-de-economia/big-data
  5. https://www.masterbigdataucm. com/que-es-big-data/
  6. https://postgrado.ucsp.edu.pe/ articulos/que-es-big-data/ La escuela de postgrado de la Universidad Católica San Pablo
  7. https://www.datahack.es/ aplicaciones-big-data- salud/#:~:text=El%20Big% 20Data%20en%20Salud, o%20la%20compra%2 0de%20materiales.
close

BOLETÍN DE NOVEDADES

Datos opcionales:

(En ocasiones enviamos información específica para una zona o categoría concreta)

He leído y acepto la Política de Privacidad *

Ver Política de Privacidad y Aviso legal

Su dirección de e-mail solo se utilizará para enviarle nuestra newsletter, así como información sobre las novedades de la revista y Editorial Ocronos. Puede utilizar el enlace integrado en la newsletter para cancelar la suscripción en cualquier momento.