Esta vez y camino de preparar mi debate sobre el impacto de la tecnología conjuntamente con Chema Cepeda en las II Jornadas de Humanización de los Cuidados Intensivos quiero olvidar mis historias tecno-humanas con debate ético para introducir un escenario -o una predicción- que seguro tendremos sobre la mesa en los próximos años.

Big data se refiere al conjunto de datos e información tan grandes y tan complejos que hace muy difícil su procesamiento utilizando herramientas de gestión de bases de datos convencionales.

La cuestión es: ¿cómo utilizar esta vasta cantidad de datos no estructurados?.Los pacientes, las clínicas, los hospitales tienen cantidades masivas de datos clínicos, en formatos escritos en papel o electrónicos pero que permanecen sin utilizar por la dificultad e imposibilidad material de “digerirlos” de forma efectiva, por muy buenos deseos que pueda tener el equipo sanitario.

Los sistemas de ordenación y la gestión masiva de datos va a revolucionar la Sanidad y lo hará en un plazo menor del esperado y aunque no debemos temerla cambiará nuestros perfiles profesionales.

Se discute mucho sobre las posibilidades de la gestión masiva de datos, pero… ¿Dónde están los límites?

Los límites naturales se hallan en el derecho a la privacidad de las personas. Entretanto, es posible secuenciar y evaluar a bajo coste el genoma de los pacientes, la información radiológica, o todo aquello de lo que dispongamos. Por ejemplo, si un seguro de enfermedad utiliza estos datos para proponer una prima de riesgo a los pacientes con una enfermedad hereditaria, entonces, estará excediendo los límites, pero todos deseamos esa información para escoger el mejor antibiótico o incluso desearíamos esta información para ajustar el modo ventilatorio.Eso por lo que respecta a la ética. Y ¿desde el punto de vista técnico? ¿No se sigue necesitando los clínicos que se ocupan de cada paciente?

Sí, se necesita y mucho, ya no solo para realizar estudios selectivos. Con la inteligencia de los datos en la sanidad se trata precisamente de adaptar individualmente los tratamientos a los pacientes y hacerlo incluso a tiempo real. Cuantos más datos, tanto más personalizado será el tratamiento, eso le permitirá ser más eficiente. Por ejemplo, olvidaremos las alarmas actuales por sistemas de Meta-alarmas que serán predictores de decisiones y comportamiento.¿Cómo funciona eso?

Se toman todos los datos que hay de un paciente. Valores médicos, medicación, datos genéticos –pueden ser miles de datos más como los procedentes de los monitores y ventiladores- y se comparan con los datos de millones de pacientes diferentes. Con el llamado método del vecino más próximo, la computadora busca casos similares. Puede que el tratamiento tuviera éxito y apoye el trabajo del médico haciéndole propuestas. Esto abrirá escenarios de predicción impensables hace unos años.¿Por qué es mejor que el principio clásico?

Por lo general, es así: un médico aprende cuales son los síntomas de las enfermedades. A ello hay que añadir su experiencia clínica basada en la práctica. Eso es un ratio relativamente pequeño. Los métodos de Big Data se fundamentan en una base mucho más amplia que permanentemente se va actualizando.¿Estos métodos pueden hacer que se llegue a prescindir del diagnóstico y la estrategia terapéutica?

No, pero sí que pueden ser de gran ayuda. Lo que el big data hace superfluo es el principio que había hasta ahora con su complejidad y propensión a los errores. Los métodos de gestión masiva de datos pueden contribuir a evitar, al menos, por ejemplo, gran parte de los errores de medicación, incrementando la seguridad del paciente.Si este tema os ha interesado y sois iniciado en él, os recomendamos la ver esta conferencia del Julio Mayol: La Transformación sanitaria: la salud en los tiempos del Big Data.

 

 

Modality Manager Intensive Care Area at Dräger Hispania & Portugal
Associated Teacher at UdG – Universitat de Girona