La IA no tiene cabida en el NHS si no se garantiza la privacidad del paciente

DeepMind está trabajando en una solución técnica para aumentar la transparencia en lo que respecta a la inteligencia artificial en la atención médica, pero queda un largo camino por recorrer que se gana la confianza de los pacientes.

Las empresas de tecnología le piden que venga a los consultorios de nuestros médicos con nosotros y escuche todos los síntomas y preocupaciones que compartimos con nuestros médicos. Si bien los médicos y otro personal médico están sujetos a la confidencialidad y la ética, aún no hemos aprendido lo que significa cuando un tercero digital (aplicaciones y algoritmos) también está permitido en la sala.

La atención médica no es el lugar para imitar el antiguo lema de Facebook de “moverse rápido y romper las cosas” o impulsar las regulaciones para ver dónde se inclina Uber. En cambio, los pacientes deben confiar en quién está en la sala de consulta con ellos, dice Nathan Lea, investigador asociado principal del Instituto de Informática de la Salud de la UCL y del Instituto Farr de Investigación en Informática de la Salud. “Quiere que el individuo pueda compartir tantos detalles como sea necesario con el médico o el equipo clínico, sin la ansiedad de que alguien más lo mire”, dice.

La inteligencia artificial, la inteligencia artificial y los algoritmos pasan por datos médicos, lo que ayuda a leer las imágenes con mayor precisión e incluso sugiere un diagnóstico. Pero el uso de dicha tecnología en el campo de la salud ha resultado problemático. La Oficina del Comisionado de Información consideró ilegal un acuerdo entre la empresa de aprendizaje automático con sede en Londres y Royal Free London NHS Foundation Trust a principios de este año.

El hecho de que Royal Free no busque el consentimiento del paciente no solo es una mala noticia para la privacidad, sino que también podría ralentizar o incluso prevenir el uso de los avances del aprendizaje automático que salvan vidas en la atención médica. De hecho, ya sucedió. Antes de DeepMind, el esquema de registros de pacientes digitales, que ahora colapsó, se destacó no por errores técnicos, aunque se filtraron datos de pacientes en línea, sino por no buscar el consentimiento informado de los pacientes. A Lea le preocupa que el aprendizaje automático caiga en el mismo obstáculo, haciendo que el público sea “tecnofóbico”.

Esta preocupación ha surgido para DeepMind, que está trabajando en una solución técnica para aumentar la transparencia y, a su vez, tener confianza, revelando un proyecto de seguimiento llamado Verifiable Data Audit (VDA). “Está diseñado para permitir que los socios vean quién accedió a los datos, cuándo y por qué motivo”, dijo Andrew Eland, ingeniero jefe de salud de DeepMind. “Aumenta la transparencia al garantizar que se puedan realizar ‘comprobaciones sobre el terreno’ precisas en el acceso a los datos, lo que genera una responsabilidad real”.

Leer más: DeepMind responde a las críticas sobre su acuerdo de intercambio de datos del NHS

VDA se diferencia de los sistemas de auditoría existentes en que utiliza criptografía para proteger los datos de cambios sin que nadie se dé cuenta. “Si bien el VDA será útil para auditar el acceso a los datos de salud, también podría usarse para generar confianza en sistemas más generales”, dice Eland. “Por ejemplo, crear marcas de tiempo inolvidables para aclarar cuándo se escribió o crear algo o establecer marcas de agua en conjuntos de datos para asegurarse de que no hayan cambiado, algo muy importante para el aprendizaje automático y las comunidades académicas”. Un sistema así suena ideal para mantenerse actualizado con los datos de salud pública, ya que se refiere a las empresas privadas, lo que ayuda a generar confianza, pero hay un problema. El VDA aún no existe.

Si bien DeepMind ya administra datos reales sobre pacientes en hospitales del NHS, sus medidas técnicas para garantizar la confidencialidad y la confidencialidad permanecen vigentes. “Esta es una tecnología compleja, y aunque DeepMind está haciendo grandes avances en tecnología central, hay muchos desafíos prácticos que superar antes de que los sistemas VDA estén listos para su uso en la práctica”, dice Eland, señalando en particular problemas de interoperabilidad de datos.

Hay otro problema. Eland explica que la implementación inicial solo permitiría a los hospitales asociados verificar que DeepMind utilice los datos de los pacientes para fines aprobados, extendiendo esa capacidad a pacientes, grupos de pacientes o quizás reguladores que plantearían “preguntas de diseño complejas”, dice Eland. Es problemático. Con el caso de privacidad de DeepMind, de hecho, la ICO ha convocado al Royal Free NHS Foundation Trust, por lo que los hospitales también tienen la culpa cuando se trata de la privacidad del paciente.

Pero es un comienzo, y si la auditoría inteligente de DeepMind no funciona, hay otras tecnologías disponibles, como blockchain. El VDA de DeepMind es, de alguna manera, similar a un sistema de registro público, y si bien la compañía señala que la naturaleza distribuida de la cadena de bloques significa que sería difícil para la mayoría de los hospitales y consumiría demasiada energía, su naturaleza abierta podría abordar los problemas de acceso que Destacados de Eland.

Un informe de la Royal Society publicado a principios de este año sugirió otras soluciones técnicas a los problemas de privacidad planteados por el aprendizaje automático, utilizando el aprendizaje automático en sí. “El aprendizaje automático confidencial ofrece un enfoque tecnológico interesante para abordar los problemas de gobernanza y acceso a los datos”, dijo Peter Donnelly, presidente del Grupo de Trabajo de Aprendizaje Automático de la Royal Society.

“Si un paciente puede entender lo que se propone, puede ver los beneficios, encontrará que estará más obligado a participar en tal cosa” Nathan Lea, UCL

Por ejemplo, la confidencialidad diferencial introduce la aleatoriedad en los datos agregados, lo que reduce el riesgo de reidentificación, al tiempo que conserva las conclusiones extraídas de los datos, explica el Dr. Mark Wardle, neurólogo consultor y experto en informática de la salud.

Otra técnica es el cifrado homomórfico, que “permite el cifrado de información como datos médicos privados y su posterior procesamiento sin necesidad de descifrado”, explica Wardle, y añade: “Hasta donde yo sé, esta tecnología se encuentra en una fase inicial. Extremadamente intensa. en términos de cálculo. “

Mientras tanto, la asesora de políticas de Wellcome Trust, Natalie Banner, señala la Red de anonimización del Reino Unido, que proporciona marcos para guiar a cualquier persona que trabaje con datos personales, así como el uso de conjuntos de datos sintéticos, por lo que no hay riesgo para los datos de los pacientes cuando las empresas preparan su IA. “Hay diferentes tipos de controles que puede introducir para asegurarse de proteger su privacidad”, dice.

Pero estas medidas técnicas protegen los datos contra el uso indebido, una vez que ya están en manos de terceros, lo que ocurre, o debería suceder, solo después de que se haya seguido un aspecto clave de nuestras leyes de protección de datos: el consentimiento informado. Si bien DeepMind está tratando de generar confianza en sus sistemas mediante la verificación de la ingeniería de sistemas, esto no resuelve el problema de preguntar a los pacientes si permitirán que sus aplicaciones y herramientas de aprendizaje automático ingresen a la sala de consulta.

La respuesta a este aspecto de la protección de datos y la confidencialidad puede no necesitar una respuesta tecnológica. Aunque existen muchas herramientas tecnológicas para ayudar a mejorar la comunicación y hacer una pregunta de sí / no, asegurarse de que las personas realmente comprendan los riesgos y beneficios de cualquier sistema tecnológico puede requerir ni más ni menos que una conversación con el médico. Familia – una idea mencionada en la Revisión del tema por el National Data Guardian. “Ya tiene una base para comunicar lo que hace al paciente a través de su cuidador, su médico”, dice Lea de UCL. “Si un paciente puede entender lo que se propone, puede ver los beneficios y puede equilibrar el riesgo para la privacidad y el beneficio para su salud, creo que encontrará que estará más limitado a participar en algo así”.

En última instancia, las barreras de la IA en la medicina no se resuelven con tecnología o legislación, dice Wardle. “La principal conclusión es que no hay una respuesta única, sino una combinación de soluciones: dar a las personas la opción, generar confianza pública a través de marcos regulatorios y legislativos adecuados, adoptar las garantías técnicas adecuadas e identificar la información a un nivel que minimice el riesgo. .reidentificación y cumpla con los requisitos específicos para el análisis en esa ocasión, utilice registros verificables para asegurar que el acceso a la información confidencial esté registrado y pueda ser inspeccionado. “

Puede parecer una larga lista de desafíos, pero si podemos enseñar a los automóviles a buscar signos de cáncer en las fotos de nuestros ojos o recopilar flujos de datos en predicciones que salvan vidas, estos son obstáculos que podemos eliminar para encontrarnos con la IA y sus parientes en consultorio. “Los datos médicos son tremendamente valiosos, poderosos y proporcionan un gran campo para hacer el bien, pero también tenemos la gran responsabilidad de proteger esos datos y asegurarnos de que el acceso sea seguro y transparente”, dice Wardle.

Andrew Eland hablará en DyN Noticias Security 2017.

Gran parte de las noticias de la ciencia de el planeta tierra en un sólo sitio. noticias de Ciencia.