La privacidad en la era digital es un bien cada vez más escaso. En el ámbito de la medicina, donde la confidencialidad es crucial para la confianza entre pacientes y médicos, surge una nueva amenaza: la capacidad de la Inteligencia Artificial (IA) para memorizar datos personales. Un estudio reciente del MIT investiga este riesgo en modelos de IA entrenados con historiales clínicos electrónicos (EHRs) desidentificados.
El Juramento Hipocrático y la IA: ¿Confidencialidad en Riesgo?
El Juramento Hipocrático, pilar de la ética médica, establece la obligación de mantener en secreto la información de los pacientes. Sin embargo, los modelos de IA, diseñados para aprender y generalizar a partir de grandes cantidades de datos, pueden, sin querer, memorizar información específica de un paciente. Esto podría permitir que, mediante una consulta adecuada, se revele información privada.
Memorización vs. Generalización: La Delgada Línea de la IA
Idealmente, los modelos de IA entrenados con EHRs deberían generalizar el conocimiento para realizar mejores predicciones basadas en patrones observados en muchos registros de pacientes. No obstante, la ‘memorización’ ocurre cuando el modelo recurre a un registro individual para generar una respuesta, lo que podría violar la privacidad del paciente. Es importante destacar que los modelos fundacionales ya son conocidos por ser propensos a la fuga de datos.
Sana Tonekaboni, investigadora del Eric and Wendy Schmidt Center en el Broad Institute del MIT y Harvard, señala: ‘El conocimiento en estos modelos de alta capacidad puede ser un recurso para muchas comunidades, pero atacantes adversarios pueden incitar a un modelo a extraer información sobre los datos de entrenamiento’.
Tests de Ataque: Evaluando el Riesgo Real para la Privacidad
El equipo de investigación del MIT ha desarrollado una serie de pruebas para evaluar el riesgo que representan los modelos de IA en medicina. Estas pruebas miden diferentes tipos de incertidumbre y evalúan el riesgo práctico para los pacientes, considerando diversos niveles de posibilidad de ataque.
Marzyeh Ghassemi, profesora asociada del MIT, enfatiza la practicidad de las pruebas: ‘Si un atacante necesita conocer la fecha y el valor de una docena de pruebas de laboratorio de tu registro para extraer información, hay muy poco riesgo de daño. Si ya tengo acceso a ese nivel de datos de origen protegidos, ¿por qué necesitaría atacar un modelo fundacional grande para obtener más?’.
Brechas de Datos y Pacientes Vulnerables
La digitalización de los registros médicos ha incrementado las brechas de datos. En los últimos dos años, el Departamento de Salud y Servicios Humanos de EE. UU. ha registrado 747 brechas de datos de información médica que afectaron a más de 500 personas, la mayoría de ellas por incidentes de hacking/IT.
Los pacientes con condiciones únicas son especialmente vulnerables, ya que son más fáciles de identificar. Como señala Tonekaboni, ‘Incluso con datos desidentificados, depende de qué tipo de información filtres sobre el individuo. Una vez que los identificas, sabes mucho más’.
¿Qué Información es Más Peligrosa?
No todas las filtraciones de información son iguales. Revelar la edad o datos demográficos de un paciente es menos grave que revelar información sensible como un diagnóstico de VIH o abuso de alcohol. Los investigadores del MIT encontraron que, cuanta más información tiene un atacante sobre un paciente, mayor es la probabilidad de que el modelo filtre información.
El Futuro de la Privacidad en la Medicina Digital
La investigación del MIT subraya la necesidad de proteger la privacidad de los datos médicos en la era de la IA. Los investigadores planean expandir su trabajo, incorporando a clínicos, expertos en privacidad y abogados.
Como concluye Tonekaboni: ‘Hay una razón por la que nuestros datos de salud son privados. No hay razón para que otros lo sepan’.
En Resumen
La investigación del MIT pone de manifiesto un riesgo importante en el uso de la IA en la medicina: la posibilidad de que los modelos memoricen y revelen información privada de los pacientes. Es crucial desarrollar e implementar medidas de seguridad robustas y protocolos de evaluación rigurosos para garantizar que la privacidad de los datos médicos se mantenga protegida en la era digital.
Fuente: MIT News – AI
Leave a Comment