Los médicos enfrentan dificultades con el uso de la inteligencia artificial en la atención al paciente y hablan de una supervisión poco rigurosa

Jesse Ehrenfeld, presidente del consejo de la Asociación Médica Estadounidense, en Chicago, el 20 de agosto de 2019. (David Kasnic/The New York Times).
Jesse Ehrenfeld, presidente del consejo de la Asociación Médica Estadounidense, en Chicago, el 20 de agosto de 2019. (David Kasnic/The New York Times).

En el área de la medicina, las anécdotas acerca de los efectos no deseados de la inteligencia artificial ya son legendarios.

Hubo el programa destinado a predecir cuándo los pacientes desarrollarían sepsis, una infección mortal del torrente sanguíneo, que desencadenó una serie de falsas alarmas. Otro, destinado a mejorar los cuidados de seguimiento para los pacientes más enfermos, pareció profundizar las preocupantes disparidades en la salud.

Cautelosos por esas fallas, los médicos han mantenido a la inteligencia artificial al margen: como un secretario, como una segunda opinión esporádica y como un organizador administrativo. Pero este campo ha recibido inversiones y dinamismo para su uso en la medicina y fuera de ella.

Dentro de la Administración de Alimentos y Medicamentos (FDA, por su sigla en inglés), la cual tiene una participación fundamental en la aprobación de los nuevos productos médicos, la inteligencia artificial es un tema central, ya que está ayudando a descubrir nuevos medicamentos, podría identificar efectos secundarios inesperados e incluso se le está considerando como un auxiliar para el personal que se ve sobrepasado con tareas repetitivas y rutinarias

No obstante, de una manera crucial, la responsabilidad de la FDA ha estado sujeta a fuertes críticas: con qué minuciosidad analiza y explica los programas que aprueba para ayudarles a los médicos a detectar desde tumores, pulmones colapsados, y hasta coágulos sanguíneos.

“Vamos a tener muchas opciones y es fascinante”, dijo en una entrevista Jesse Ehrenfeld, presidente de la Asociación Médica Estadounidense (AMA, por su sigla en inglés), un importante grupo de cabildeo de médicos. “Pero si los médicos van a incorporar estas herramientas en su proceso de trabajo, si van a pagar por ellas y si las van a usar, debemos tener cierta confianza en que funcionan”.

Roy Fagan en su oficina de Reidsville, Carolina del Norte, el 22 de septiembre de 2023. (Jesse Barber/The New York Times)
Roy Fagan en su oficina de Reidsville, Carolina del Norte, el 22 de septiembre de 2023. (Jesse Barber/The New York Times)

El lunes, el presidente Joe Biden emitió un decreto presidencial para solicitar que en un amplio espectro de agencias haya normas para tratar de controlar los riesgos de seguridad y privacidad de la inteligencia artificial, entre ellos los relacionados con la atención a la salud. El decreto solicita más financiamiento para la investigación de la inteligencia artificial en la medicina y también para un programa de seguridad que reúna informes acerca de las prácticas nocivas o peligrosas. A fines de esta semana se celebrará una reunión con algunos líderes mundiales para hablar sobre el tema.

En un evento del lunes, Biden señaló que era importante supervisar el desarrollo y la seguridad de la inteligencia artificial y construir sistemas en los que la gente pueda confiar.

Biden explicó que: “Con el fin de proteger a los pacientes, por ejemplo, usaremos la inteligencia artificial para desarrollar medicamentos contra el cáncer que funcionen mejor y cuesten menos. También pondremos en marcha un programa de seguridad para garantizar que los sistemas de salud que usan inteligencia artificial no causen ningún daño”.

Ninguna agencia del gobierno de Estados Unidos regula todos los ámbitos. El senador demócrata por Nueva York, Chuck Schumer, líder de la mayoría, citó en el Capitolio a los ejecutivos de tecnología en septiembre para hablar de las maneras para promover este campo y también de identificar los peligros.

Google ya ha llamado la atención del Congreso con su nuevo chatbot piloto para los trabajadores de la salud llamado Med-PaLM 2, que está diseñado para responder preguntas médicas, pero que ha generado preocupación acerca del consentimiento informado y la privacidad del paciente.

El modo de supervisar esos “grandes modelos de lenguaje” —programas que imitan a los asesores expertos— es solo un área donde la FDA está rezagada respecto a los rápidos avances en el desarrollo del campo de la inteligencia artificial. Los funcionarios de la agencia apenas han empezado a hablar acerca de revisar una tecnología que seguiría “aprendiendo” mientras procesa miles de escáneres de diagnóstico. Además, las reglas existentes de la agencia recomiendan a los desarrolladores que se concentren en un problema a la vez —un soplo cardiaco o un aneurisma cerebral— a diferencia de las herramientas de inteligencia artificial que se usan en Europa para escanear toda una gama de problemas.

El alcance de la agencia se limita a aprobar los productos para su venta. No tiene ninguna autoridad sobre los programas que los sistemas de salud construyen y emplean de manera interna. Los grandes sistemas de salud, como los de Stanford, la Clínica Mayo y Duke (así como las aseguradoras médicas), pueden construir sus propias herramientas de inteligencia artificial que participen en las decisiones sobre los cuidados y las coberturas de miles de pacientes con poca, o ninguna, supervisión gubernamental directa.

Sin embargo, los médicos están planteando más preguntas mientras intentan implementar casi 350 herramientas de software que la FDA aprobó para ayudar a detectar coágulos, tumores o alguna perforación en el pulmón. No han encontrado muchas respuestas a preguntas básicas: ¿cómo se construyó el programa?, ¿en cuántas personas se probó?, ¿es probable identificar algo que cualquier médico pasaría por alto?

La falta de información disponible al público, tal vez algo paradójico en un terreno repleto de información, está haciendo que los médicos se queden rezagados, cautelosos de que esta tecnología que suena tan fascinante pueda originar más biopsias, cuentas médicas más elevadas y medicamentos tóxicos sin que mejore de manera significativa la atención médica.

Jeffrey Shuren, jefe de la división de dispositivos médicos de la FDA, reconoció la necesidad de seguir trabajando para garantizar que los programas de inteligencia artificial cumplan sus promesas después de que la división los apruebe. Los medicamentos y algunos dispositivos se prueban en los pacientes antes de ser autorizados, pero esto normalmente no se exige para los programas de software de inteligencia artificial.

Un nuevo planteamiento podría ser construir laboratorios donde los desarrolladores tengan acceso a enormes cantidades de datos y construir o probar programas de inteligencia artificial, señaló Shuren durante la conferencia de la Organización Nacional de Enfermedades Raras que se celebró el 16 de octubre.

“Si en verdad queremos garantizar ese equilibrio justo, tendremos que cambiar las leyes federales debido a que el marco actual que nosotros usamos para estas tecnologías tiene casi 50 años de antigüedad”, explicó Shuren. “En realidad no fue diseñado para la inteligencia artificial”.

Hay otras fuerzas que complican las iniciativas para adaptar el aprendizaje automático a las principales redes hospitalarias y sanitarias. Los sistemas de software no se comunican entre sí. Nadie se pone de acuerdo en quién debe pagarlos.

Según un cálculo, el 30 por ciento de los radiólogos (un campo en el que la inteligencia artificial ha incursionado mucho) están usando la tecnología de la inteligencia artificial. Algunas sencillas herramientas que pueden mejorar una imagen son fáciles de vender. Pero a los médicos les preocupan las que conllevan mayores riesgos, como las que deciden cuáles escáneres deben tener prioridad, si no saben, por ejemplo, si el programa fue entrenado para captar las molestias de alguien de 19 años en comparación con alguien de 90.

James McKinney, un vocero de la FDA, comentó que los miembros del personal de la agencia revisan miles de páginas antes de aprobar programas de inteligencia artificial, pero reconoció que los fabricantes de software podrían redactar los resúmenes publicados para la población. Estos no “están destinados a orientar decisiones de compra” y añadió que la información más detallada se proporciona en las etiquetas del producto, las cuales no son de fácil acceso para el público.

Es indispensable hacer que la supervisión de la inteligencia artificial en la medicina sea adecuada, una tarea que involucra a muchas agencias, señaló Ehrenfeld, el presidente de la AMA, quien comentó que los médicos han analizado la participación de la inteligencia artificial en accidentes aéreos mortales para advertir sobre los peligros de los sistemas automatizados de seguridad que ignoran la opinión del piloto (o del médico).

Ehrenfeld agregó que las investigaciones del accidente del Boeing 737 Max demostraron cómo los pilotos no fueron entrenados para desactivar un sistema de seguridad que contribuyó con los mortales accidentes. A él le preocupa que los médicos puedan encontrarse con un uso parecido de la inteligencia artificial que esté en un segundo plano de la atención al paciente y que pueda ser perjudicial.

“Un punto de partida evidente debería ser tan solo entender que la inteligencia artificial existe”, comentó Ehrenfeld. “Pero no se sabe si eso siempre sucederá si no tenemos el marco regulatorio adecuado”.

c.2023 The New York Times Company