La protección de los derechos de las personas en la era de la inteligencia artificial


A medida que las organizaciones adoptan la inteligencia artificial (IA) de manera creciente, los derechos de las personas en relación con la toma de decisiones automatizadas se vuelven esenciales por el impacto que esto puede tener en su vida.

Por ejemplo, la IA se utiliza para evaluar solicitudes de préstamos, seleccionar candidatos para empleos, aprobar o rechazar reclamaciones de seguros, proporcionar diagnósticos médicos y moderar contenido en redes sociales, entre otros usos. Estas decisiones, que se llevan a cabo sin intervención humana, pueden influir profundamente en aspectos críticos como la situación financiera, las oportunidades laborales, los resultados en salud y la reputación en línea de las personas.

De acuerdo con el IBM Global AI Adoption Index 2023, actualmente los casos de uso de la inteligencia artificial abarcan diversas áreas desde tecnología y ciberseguridad, hasta operaciones como la automatización del procesamiento y el flujo de documentos, con un 24 por ciento; en recursos humanos y adquisición de talento, un 19 por ciento, y un 18 por ciento en planificación y análisis financiero. Estos porcentajes reflejan la versatilidad de la IA en diversas industrias, lo que, a su vez, intensifica la necesidad de prácticas éticas y responsables para preservar los derechos.

PUBLICIDAD

Si bien la IA ha traído grandes beneficios como la reducción de tiempos de procesamiento y la mejora en la eficiencia, también existen desafíos que es necesario analizar. Entre ellos se incluyen la limitada experiencia que tenemos en inteligencia artificial, la complejidad excesiva de los datos y la dificultad para integrarlos de manera efectiva.

PREOCUPACIONES ÉTICAS PARTICULARMENTE CRÍTICAS

Además, el alto costo de implementación y la falta de herramientas accesibles para el desarrollo de modelos de IA son barreras que muchas organizaciones enfrentan. Asimismo, las preocupaciones éticas son particularmente críticas, sobre todo en el manejo de información sensible tanto corporativa como personal.

A esto se le suman los retos particulares de cada una de las áreas en las que es adoptada la IA. En el caso del sector financiero, la utilización de algoritmos para evaluar el riesgo de crédito puede generar inquietudes en materia de privacidad y discriminación. La recopilación y el análisis de datos personales deben manejarse con extremo cuidado, garantizando el consentimiento del usuario y la protección de su información.

En cuanto a la selección de personal, la falta de transparencia e interpretabilidad en los sistemas de IA es otra preocupación importante. Si un sistema de IA dificulta explicar por qué no se eligió a un candidato en particular, esto puede generar desafíos adicionales para los empleadores que intentan defenderse en casos de discriminación. Las decisiones opacas pueden dar lugar a un descontento significativo y a la desconfianza entre los colaboradores y la organización.

PUBLICIDAD

De hecho, la posibilidad de sesgo y discriminación es uno de los mayores riesgos asociados a esta tecnología en el proceso de contratación. Un caso reciente en Estados Unidos de América: la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC, por sus siglas en inglés) resolvió demandas por discriminación contra una empresa por 365,000 dólares, debido a que su software de selección presentaba sesgos por edad.

LOS DERECHOS DE LAS PERSONAS ESTÁN SOBRE LA IA

Este caso subraya que los empleadores son responsables de las decisiones tomadas por el software que utilizan, independientemente de quién lo haya diseñado. Por lo tanto, es imperativo que incluyan en sus contratos con proveedores de IA cláusulas de indemnización y cooperación en caso de litigios.

Por otro lado, en el ámbito de la aprobación o rechazo de reclamaciones de seguros y la provisión de diagnósticos médicos, el riesgo de sesgo se amplifica aún más. Las decisiones que afectan la salud y el bienestar de las personas deben tomarse con la mayor precisión y cuidado posible. Por ejemplo, un algoritmo que subestima el riesgo de enfermedad en ciertos grupos demográficos puede llevar a diagnósticos erróneos y a un tratamiento inadecuado, poniendo en peligro la vida de los pacientes.

A principios de año, una investigación del Centro Médico Pediátrico Cohen planteó dudas sobre la idoneidad de algunos bots para ayudar a los médicos a analizar afecciones complejas tras evaluar la efectividad de un modelo de lenguaje de IA, en el diagnóstico de casos pediátricos, donde se equivocó en 72 de los 100 casos seleccionados.

PUBLICIDAD

En conclusión, la implementación de la IA debe ir acompañada de una reflexión ética y un compromiso con la transparencia, la equidad y la protección de los derechos de las personas.

Las empresas deben adoptar un enfoque holístico que incluya la capacitación de su personal, la creación de políticas claras y la colaboración con expertos en ciberseguridad, identidad digital y protección de datos personales. Solo así podrán aprovechar las ventajas de la IA mientras minimizan los riesgos asociados, garantizando un entorno más seguro y justo para todos. N

—∞—

Alicia Trejo es gerente ciberlegal en IQSEC. Los puntos de vista expresados en este artículo son responsabilidad de la autora.

Newsweek en Español te recomienda también estas notas:

La muerte chiquita sobre la duela de la NBA

El buen salario mínimo en México es una realidad… virtual

¿Las estafas financieras cómo impactan en nuestro cerebro?

Tecnología en el deporte: un futuro impulsado por la ciencia y los datos

Medicina funcional: la ciencia que trata la raíz de las enfermedades

El cargo La protección de los derechos de las personas en la era de la inteligencia artificial apareció primero en Newsweek en Español.