Qué se espera en 2025 de la inteligencia artificial, el avance que marcó un antes y un después en la historia de la tecnología

Un robot apuntando al año 2025
Los expertos pronostican que en los próximos doce meses se producirá una explosión en la inteligencia artificial. [Getty Images]

La inteligencia artificial (IA) está marcando un antes y un después en la historia de la tecnología, y 2025 traerá más sorpresas.

No es fácil hacer una predicción de lo que nos espera, pero sí destacar tendencias y retos que definirán el futuro inmediato de la IA para el próximo año. Entre ellos, el desafío de los llamados "médico centauro" o "profesor centauro", clave para los que estamos inmersos en el desarrollo de la IA.

La IA se ha convertido en una herramienta fundamental para abordar grandes desafíos científicos. Áreas como la salud, la astronomía y la exploración espacial, la neurociencia o el cambio climático, entre otras, se beneficiarán aún más de lo que ya lo están haciendo.

PUBLICIDAD

AlphaFold (que mereció el Nobel en 2024) ha determinado la estructura tridimensional de 200 millones de proteínas, prácticamente todas las que se conocen.

Su desarrollo representa un avance significativo en biología molecular y medicina. Esto facilita el diseño de nuevos fármacos y tratamientos, y 2025 marcará la eclosión de su uso (de libre acceso, por cierto).

Por su parte, ClimateNet utiliza redes neuronales artificiales para realizar análisis espaciales y temporales precisos de grandes volúmenes de datos climáticos, esencial para entender y mitigar el calentamiento global.

El uso de ClimateNet será fundamental en 2025 para predecir eventos climáticos extremos con mayor exactitud.

Un tornado y en el fondo un gráfico de inteligencia artificial
Los sistemas empleados para realizar pronósticos metereológicos se harán más precisos en los próximos meses. [Getty Images]

La justicia y el diagnóstico médico se consideran escenarios de alto riesgo. En ellos es más urgente que en ningún otro ámbito establecer sistemas para que el humano tenga siempre la última decisión.

PUBLICIDAD

Los expertos en IA trabajamos para garantizar la confianza del usuario, que el sistema sea transparente, que proteja a las personas y que el humano esté en el centro de las decisiones.

Aquí entra en escena el reto del "doctor centauro". Los centauros son modelos híbridos humano-algoritmo que combinan la analítica formal propia de las máquinas y la intuición humana.

Un "centauro doctor + un sistema de IA" mejora las decisiones que toman los humanos por su cuenta y los sistemas de IA por la suya.

Un médico será siempre quien dé al botón de aceptar, y un juez quien determine si la sentencia es justa.

Médicos utilizando un robot
Los expertos creen que en un futuro cercano los médicos contarán con programas que harán diagnósticos de enfermedades sin ellos. [Getty Images]

Los agentes de IA autónomos basados en modelos de lenguaje son el objetivo para 2025 de las grandes empresas tecnológicas como OpenAI (ChatGPT), Meta (LLaMA), Google (Gemini) o Anthropic (Claude).

PUBLICIDAD

Hasta ahora, estos sistemas de IA hacen recomendaciones, en 2025 se desea que tomen decisiones por nosotros.

Los agentes de IA realizarán actuaciones personalizadas y precisas en tareas que no sean de alto riesgo, siempre ajustadas a las necesidades y preferencias del usuario. Por ejemplo: comprarle un billete de autobús, actualizar el calendario, recomendarle una compra concreta y realizarla.

También podrán contestar nuestro correo electrónico, tarea que nos lleva mucho tiempo al día.

En esta línea, OpenAI ha lanzado AgentGPT y Google Gemini 2.0, plataformas para el desarrollo de agentes de IA autónomos.

Por su parte, Anthropic propone dos versiones actualizadas de su modelo de lenguaje Claude: Haiku y Sonnet.

Una laptop en una tienda
El desarrollo de la inteligencia artificial permitirá a las computadoras realizar operaciones como responder correos electrónicos de manera automática. [Getty Images]

Sonnet puede usar una computadora como lo haría una persona. Esto significa que puede mover el cursor, hacer clic en botones, escribir texto y navegar por pantallas.

PUBLICIDAD

También habilita una funcionalidad para automatizar nuestro escritorio. Permite a los usuarios conceder a Claude acceso y control sobre ciertos aspectos de sus computadoras personales, como lo hacen las personas.

Esta capacidad bautizada como "uso de la computadora" podría revolucionar la manera en que automatizamos y manejamos nuestras tareas cotidianas.

En el comercio electrónico, los agentes de IA autónomos podrán hacer una compra para el usuario.

Darán asesoramiento en la toma de decisiones empresariales, gestionarán inventario de forma automática, trabajarán con proveedores de todo tipo, incluidos proveedores de logística, para optimizar el proceso de reabastecimiento, actualizarán los estados de envío hasta generar facturas, etc.

En el sector de la educación, podrán personalizar planes de estudio para estudiantes. Identificarán áreas de mejora y sugerirán recursos de aprendizaje adecuados.

Avanzaremos hacia el concepto de "profesor centauro", ayudado por agentes de IA en educación.

Una persona a punto de apretar un botón en un teclado
Para evitar errores, algunos sistemas siempre requerirán que las personas aprueben cualquier operación sensible. [Getty Images]

La noción de agentes autónomos suscita interrogantes profundos sobre el concepto de "autonomía humana y control humano". ¿Qué implica en realidad la "autonomía"?

Estos agentes de IA introducirán la necesidad de una preaprobación. ¿Qué decisiones permitiremos que estas entidades tomen sin nuestra aprobación directa (sin el control humano)?

Nos enfrentamos a un dilema crucial: saber cuándo es mejor ser "automáticos" en el uso de agentes de IA autónomos y cuándo necesitamos tomar la decisión, es decir, recurrir "al control humano" o la "interacción humano e IA".

El concepto de preaprobación va a adquirir una gran relevancia en el uso de los agentes de IA autónomos.

2025 será el año de la expansión de modelos de lenguaje pequeños y abiertos (SLM, siglas de small language models).

Estos son modelos de lenguaje que en un futuro podrán estar instalados en un dispositivo móvil, permitirán controlar nuestro teléfono mediante voz de forma mucho más personal e inteligente que con asistentes como Siri y responderán al correo electrónico por nosotros.

Los SLM son compactos y más eficientes, no requieren servidores masivos para su uso. Se trata de soluciones de código abierto que se pueden entrenar para escenarios de aplicación concretos.

Pueden ser más respetuosos con la privacidad de los usuarios y resultan perfectos para su uso en computadoras de coste limitado y teléfonos celulares.

Serán de interés para para su adopción empresarial. Ello será factible porque los SLM tendrán un coste menor, más transparencia y, potencialmente, más auditabilidad.

Los SLM harán posible la integración de aplicaciones para recomendaciones médicas, en la educación, para traducción automática, resumen de textos o corrección ortográfica y gramatical instantánea. Todo desde pequeños dispositivos sin necesidad de conexión a internet.

Entre sus importantes ventajas sociales, pueden facilitar el uso de modelos de lenguaje en educación en áreas desfavorecidas.

Pueden mejorar el acceso a diagnósticos y recomendaciones con modelos SLM especializados en salud en zonas con recursos limitados.

Su desarrollo es fundamental para apoyar a comunidades con menos recursos.

Pueden acelerar la presencia del "profesor o doctor centauro" en cualquier área del planeta.

Una pila de teléfonos celulares
Los teléfonos inteligentes del futuro se harán mucho más pequeños, pero también más poderosos. [Getty Images]

El 13 de junio de 2024 se aprobó la regulación europea de IA, que en dos años entrará en vigor. Durante 2025 se crearán normas y estándares de evaluación, incluyendo normas ISO e IEEE.

Previamente, en 2020, la Comisión Europea publicó la primera Lista de Evaluación para la IA Confiable (ALTAI). Este listado incluye siete requisitos: agencia y supervisión humanas, robustez técnica y seguridad, gobernanza de datos y privacidad, transparencia, diversidad, no discriminación y equidad, bienestar social y ambiental y responsabilidad. Y constituyen la base de las futuras normas europeas.

Contar con normas de evaluación es clave para auditar los sistemas de IA. Veamos un ejemplo: ¿qué sucede si un vehículo autónomo tiene un accidente? ¿Quién asume la responsabilidad? El marco normativo abordará cuestiones como estas.

Dario Amodei, CEO de Anthropic, en su ensayo titulado Máquinas de Amor y Gracia (Machines of Loving Grace, octubre 2024), fija la visión de las grandes empresas tecnológicas: "Creo que es fundamental tener una visión de futuro realmente inspiradora, y no sólo un plan para apagar incendios".

Existen visiones contrapuestas de otros pensadores más críticos. Por ejemplo, la representada por Yuval Noah Harari y debatida en su libro Nexus.

Por ello, necesitamos una regulación. Esta aporta el equilibrio necesario para el desarrollo de una IA confiable y responsable y poder avanzar en los grandes retos para el bien de la humanidad destacados por Amodei.

Y junto a ellos, tener los mecanismos de gobernanza necesarios como "plan para apagar incendios".

*Francisco Herrera Triguero es catedrático de Inteligencia Artificial en la Universidad de Granada yt director del Instituto Andaluz de Investigación en Ciencia de Datos e Inteligencia Computacional de España.

*Este artículo fue publicado en The Conversation y reproducido bajo la licencia Creative Commons. Haz clic aquí para leer la versión original.