Inteligencia Artificial aplicada en salud puede dañar a pacientes, alerta OMS
Los gobiernos, proveedores de atención médica, y empresas de tecnología, no deben precipitarse en la introducción de la IA en los sistemas sanitarios.
La incorporación de la Inteligencia Artificial (IA) en los sistemas de salud del mundo debe ser puntualmente analizada por los gobiernos, ya que esta tecnología -si no se usa con el debido cuidado y verificación- puede causar daños a los pacientes, alerta la Organización Mundial de la Salud (OMS), institución que ha emitido una “Guía para la ética y gobernanza de la Inteligencia Artificial” en las instituciones sanitarias del orbe.
Las autoridades gubernamentales, los proveedores de atención médica, y las empresas de tecnología, no deben “precipitarse en la incorporación de la Inteligencia Artificial” pues, si se utilizan sistemas no comprobados, estos podrían inducir a errores, “causar daños a los pacientes, erosionar la confianza en la IA”, y socavar o retrasar los posibles beneficios y usos a largo plazo de estas tecnologías, advierte la OMS.
A lo largo de 98 páginas, la guía describe más de 40 recomendaciones sobre la aplicación de la IA en las áreas de salud, destacándose los sesgos que pueden presentarse en los datos utilizados para entrenar a los modelos automatizados de diagnóstico.
“Los datos utilizados para entrenar la IA pueden estar sesgados, lo que generaría información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusividad”.
De hecho, la OMS apunta que la IA genera respuestas que pueden parecen autorizadas y plausibles para el usuario final, aunque cabe la posibilidad que esos resultados sean totalmente incorrectos o que contengan errores graves.
Asimismo, se debe poner especial cuidado en los datos que son introducidos en los grandes modelos lingüísticos (LLM por sus siglas en inglés), pues es factible que no se haya obtenido el consentimiento previo de los pacientes para el uso de esa información.
Es decir, la OMS considera que es esencial proteger los datos confidenciales de salud de todos los usuarios de los sistemas sanitarios, por lo que esa información de ninguna forma puede usarse en la IA sin la autorización expresa de las personas.
Riesgos graves
En esta guía, la OMS ya tiene un diagnóstico sobre los peligros y la inseguridad que pueden generarse si la IA no se utiliza de manera adecuada, tanto en las áreas e instituciones de salud, como con los mismos pacientes.
Por ejemplo, si la IA se usa para el diagnóstico y atención clínica, se corre el riesgo de obtener respuestas inexactas, incompletas o falsas, pues los datos que se introduzcan para el entrenamiento de estos modelos pueden ser de mala calidad, contener sesgos, y no contar con el consentimiento informado de los pacientes.
Si es el paciente el que utiliza la IA, los resultados -reitera la OMS- pueden ser falsos e inexactos. De igual forma, lo que arroje la Inteligencia Artificial puede manipularse, trasgredir la privacidad de las personas, y propiciar una menor interacción entre médicos y pacientes, haciendo que se preste atención fuera del ámbito sanitario formal.
En cuanto a las tareas administrativas relacionadas con la salud, la IA puede inducir a errores, inexactitudes e inconsistentes, dependiendo de las indicaciones que se le den al sistema.
En el ámbito de la educación de los profesionales sanitarios, la OMS advierte que la IA puede contribuir al sesgo de automatización, pues los errores o la información falsa minan la calidad de la educación médica.
De igual forma, en el tema de la investigación científica para el desarrollo de fármacos y medicinas, la IA puede socavar los principios clave de la ciencia como lo es la revisión por pares. También es posible que se exacerbe el acceso diferencial al conocimiento científico, además de que los algoritmos “codifican el sesgo hacia las perspectivas de los países de altos ingresos”.
La OMS también advierte que la IA puede generar información y/o referencias que no existen, tal y como ya ocurrió en Estados Unidos en el ámbito jurídico, cuando un abogado promovió una demanda que redactó con esta tecnología, en la que se citaban diversos precedentes que sustentaban el caso, aunque en realidad las jurisprudencias mencionadas fueron inventadas por el programa que utilizó el letrado.
ENTÉRATE: Los Chatbots con Inteligencia Artificial también mienten y “alucinan”
Directrices fundamentales
Con el fin de evitar estos riesgos y el uso indebido de la IA en las áreas de salud de todos los países del mundo, la OMS ha establecido seis principios fundamentales que deben observarse por todos los actores públicos y privados. Estas directrices son:
- Proteger la autonomía de los pacientes y del público en general
- Promover el bienestar y la seguridad del ser humano y del interés público
- Garantizar la transparencia, la claridad y el entendimiento de esta tecnología
- Fomentar la responsabilidad y la rendición de cuentas
- Garantizar la inclusión y la equidad
- Promover una IA que sea receptiva y sostenible
Además, los gobiernos y los sistemas de salud deben estar atentos para evitar la utilización sin ética de la Inteligencia Artificial, ya que es posible que se genere y difunda “desinformación muy convincente en forma de contenido textual o audiovisual”, propiciando que los ciudadanos crean que se trata de contenidos de salud fidedignos.
Tal y como ya ocurre con los buscadores de internet, las personas pueden preguntar cuestiones de salud a los distintos chats de Inteligencia Artificial Generativa, señala la OMS. El problema es que las respuestas que se obtengan pueden ser erróneas y no constituyen un diagnóstico médico que deban seguir los usuarios.
Por ello se propone realizar pruebas de evaluación “que demuestren inequívocamente los beneficios de estas tecnologías”, antes de que sean utilizadas de forma generalizada en los servicios de atención a la salud.
MÁS NOTICIAS:
- CEO de Nvidia dice que la IA no puede reemplazar su trabajo
- XRP de Ripple recupera su puesto como la tercera criptomoneda más valiosa
- Sector privado eleva a 1.55% el pronóstico de crecimiento para México en 2024
- Remesas caen 1.6% en octubre: hilan dos meses a la baja
- “México nunca va a ser menos que Canadá”, responde Sheinbaum a comentarios de Trudeau