OMS alerta sobre los riesgos de la inteligencia artificial en la salud


La inteligencia artificial aplicada a la salud puede generar orientaciones incorrectas, violación de datos personales y difundir desinformación, alerta la Organización Mundial de la Salud (OMS). La entidad pide precaución con plataformas como ChatGPT, Bard, Bert y varias otras que imitan la comprensión, el procesamiento y la producción de la comunicación humana.

Los expertos de la agencia consideran que la rápida y amplia difusión de los lenguajes de la inteligencia artificial (IA) y el creciente uso experimental para fines relacionados con la salud no está acompañado de mecanismos de control. Esto incluye la adhesión de las plataformas de inteligencia artificial a valores como la transparencia, la inclusión, el compromiso público, la supervisión especializada y la evaluación rigurosa.

ERRORES GRAVES

Estas plataformas pueden generar respuestas que parecen confiables y plausibles para un usuario final. Sin embargo, estas respuestas pueden ser completamente incorrectas o contener errores graves, especialmente para temas relacionados con la salud.

Además, “pueden ser entrenados en datos para los que el consentimiento puede no haber sido proporcionado anteriormente. Además, estas herramientas no protegen necesariamente los datos confidenciales, incluidos los de salud, que un usuario proporciona para generar una respuesta”, añade la OMS.

Otro temor de la organización es que “la IA puede utilizarse para generar y difundir desinformación altamente convincente en forma de texto, audio o video, lo que dificulta al público diferenciar el contenido falso del contenido confiable”.

LA INTELIGENCIA ARTIFICIAL DEBE CENTRARSE EN REDUCIR LA DESIGUALDAD

La OMS propone que estas preocupaciones se aborden sobre la base de la evidencia. Un análisis de riesgos y beneficios debe preceder al uso generalizado en la atención sanitaria y la medicina de rutina, ya sea por individuos, proveedores de servicios y formuladores de políticas.

La OMS reconoce que el uso adecuado de tecnologías, puede contribuir a apoyar a los profesionales de la salud, los pacientes, los investigadores y los científicos. Las nuevas plataformas pueden ser una herramienta de apoyo a las decisiones médicas y aumentar la capacidad de diagnóstico en entornos con pocos recursos. La atención debe centrarse en proteger la salud de las personas y reducir la desigualdad.

DAÑO A LOS PACIENTES

Pero la entidad señala que los riesgos asociados con el uso de estas herramientas para mejorar el acceso a la información sanitaria deben evaluarse cuidadosamente. La adopción precipitada de sistemas no probados puede provocar errores por parte de los profesionales sanitarios, dañar a los pacientes y socavar la confianza en la inteligencia artificial y en las tecnologías futuras.

Los datos utilizados para entrenar la Inteligencia Artificial pueden ser sesgados, generando información engañosa o inexacta que puede suponer riesgos para la salud, la equidad y la inclusión. N

Newsweek en Español te recomienda también estas notas:

Los audiolibros, una víctima más de la inteligencia artificial

‘Bard’, el chatbot de Google, estará disponible en 180 países

Los accidentes de la inteligencia artificial se dispararán este año