Opinión: ¿La inteligencia artificial algún día estará a la altura de las expectativas?
CADA VEZ SE PARECE MENOS A UN SER TODOPODEROSO Y MÁS A UN BECARIO EN EL QUE NO SE PUEDE CONFIAR.
Cuesta creer que hace poco más de un año, un grupo de destacados investigadores pidió una tregua de seis meses en el desarrollo de sistemas más grandes de inteligencia artificial, con el temor de que estos se volvieran demasiado poderosos. “¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”, preguntaron.
No hubo tregua. Pero ahora, un año después, la pregunta no es si la inteligencia artificial es demasiado inteligente o si podría llegar a controlar el mundo. La pregunta es si es demasiado tonta y poco confiable para ser útil. Pensemos en el anuncio de esta semana del director ejecutivo de OpenAI, Sam Altman, quien prometió que revelaría “nuevas cosas” que “parecen como magia para mí”. Pero más bien se trató de actualizaciones de rutina que hacen que ChatGPT sea más barata y rápida.
Parece otra señal de que la inteligencia artificial dista de estar a la altura de las expectativas que generó. En mi opinión, cada vez se parece menos a un ser todopoderoso y más a un mal becario cuyo trabajo es tan poco fiable que a menudo es más fácil hacerlo uno mismo. Entender eso tiene implicaciones reales para la manera en que nosotros, nuestros empleadores y nuestro gobierno debemos tratar la última y deslumbrante novedad de Silicon Valley. Reconocer los defectos de la inteligencia artificial podría ayudarnos a invertir nuestros recursos con más eficiencia y también nos permitiría dirigir nuestra atención hacia soluciones más realistas.
Otros comparten estas preocupaciones. “Creo que mi opinión sobre la inteligencia artificial es bastante similar a la que tengo sobre las cadenas de bloques: hacen un mal trabajo en gran parte de lo que la gente intenta hacer con ellas, no pueden hacer las cosas que sus creadores afirman que algún día podrían hacer y puede que muchas de las cosas para las que sí están preparadas no sean tan beneficiosas”, escribió Molly White, investigadora y crítica de cirptomonedas , en su boletín del mes pasado.
Veamos las investigaciones.
En los últimos 10 años, la inteligencia artificial ha conquistado muchas tareas que antes eran inimaginables, como identificar imágenes con éxito, escribir frases completas coherentes y transcribir audio. La inteligencia artificial permitió a un cantante que había perdido la voz sacar una canción nueva con ayuda de la inteligencia artificial entrenada con videos de sus canciones anteriores.
Pero algunos de los mayores logros de la Inteligencia Artificial parecen exagerados. Algunos recordarán que el modelo de inteligencia artificial ChatGPT-4 superó el examen para convertirse en abogado hace un año. Resulta que su puntuación estaba en el percentil 48, no en el 90, como afirmaba OpenAI, según un nuevo examen del investigador del Instituto Tecnológico de Massachusetts Eric Martínez. ¿O qué me dicen de la afirmación de Google de que utilizó la inteligencia artificial para descubrir más de dos millones de nuevos compuestos químicos? Un nuevo análisis de químicos de materiales experimentales de la Universidad de California, en Santa Barbara, encontró “poca evidencia de compuestos que cumplieran con la triple condición de novedad, credibilidad y utilidad”.
Mientras tanto, los investigadores en muchos campos han encontrado que la inteligencia artificial tiene problemas para responder hasta las preguntas más simples, ya sea sobre derecho, medicina o información electoral. Los investigadores han encontrado que la inteligencia artificial no siempre mejora la calidad de la programación informática, la tarea en la que se supone que destaca.
No creo que estemos en el territorio de las criptomonedas, donde el revuelo resultó ser una tapadera para una serie de artimañas ilegales que llevaron a varios nombres importantes a la cárcel. Pero también resulta muy evidente que estamos muy lejos de la promesa de Altman de que la inteligencia artificial se convertiría en “la tecnología más poderosa que la humanidad haya inventado”.
Por ejemplo, hace poco, Devin, “una inteligencia artificial que funciona como ingeniero de software” fue publicitado sin cesar por la prensa tecnológica. Un desarrollador de software de carne y hueso llamado Carl Brown decidió enfrentarse a Devin. Brown completó en tan solo 36 minutos una tarea que al agente de inteligencia artificial generativa le llevó más de seis horas. Además, Devin la ejecutó mal, pues utilizó un lenguaje de programación más lento y anticuado a través de un proceso complicado. “En este momento, lo más avanzado de la inteligencia artificial generativa es que hace un trabajo malo, complicado y enredado que solo da más trabajo a los demás”, concluyó Brown en su video de YouTube.
En su respuesta, Cognition, el fabricante de Devin, reconoció que su creación no completó el resultado solicitado y añadió que deseaba recibir más comentarios para poder seguir mejorando su producto. Por supuesto, las empresas de inteligencia artificial siempre prometen que están a punto de lanzar una versión de su tecnología que sí es más útil. “GPT-4 es el modelo más tonto que cualquiera de ustedes tendrá que volver a utilizar, y por mucho”, dijo Altman hace poco mientras hablaba de GPT-5 en un acto reciente en la Universidad de Stanford.
La realidad es que, con frecuencia, los modelos de inteligencia artificial pueden preparar un primer borrador decente. Pero he descubierto que cuando uso inteligencia artificial, tengo que pasar casi el mismo tiempo que me habría tomado hacer el trabajo por mí misma corrigiendo y revisando el resultado.
Y consideremos por un momento la posibilidad de que quizá la inteligencia artificial no vaya a mejorar mucho en un futuro próximo. Después de todo, las empresas de inteligencia artificial se están quedando sin datos nuevos que puedan usar para entrenar a sus modelos y están quedándose sin energía para alimentar a sus máquinas de inteligencia artificial ávidas de energía. Mientras tanto, autores y organizaciones de noticias (incluidoThe New York Times) impugnan la legalidad de que sus datos se incorporen a los modelos de inteligencia artificial sin su consentimiento, lo que podría acabar obligando a retirar datos de calidad de los modelos.
Dadas estas limitaciones, me parece igual de probable que la inteligencia artificial generativa acabe como la Roomba, el mediocre robot aspiradora que hace un trabajo aceptable cuando estás solo en casa, pero no si esperas visitas.
Claro está que las empresas que puedan arreglárselas con un trabajo de la calidad de la Roomba seguirán tratando de reemplazar a los trabajadores. Pero en los lugares de trabajo en los que la calidad importa — y en los que trabajadores como guionistas y enfermeras están sindicalizados—, puede que la inteligencia artificial no tenga avances significativos.
Y si los modelos de inteligencia artificial quedan relegados a realizar trabajos mediocres, puede que tengan que competir en precio más que en calidad, lo que nunca es bueno para los márgenes de rentabilidad. En ese escenario, los escépticos como Jeremy Grantham, un inversionista conocido por predecir correctamente las caídas del mercado, podrían tener razón al afirmar que es muy probable que la burbuja de inversión de la inteligencia artificial se desinfle pronto.
Sin embargo, la mayor cuestión que plantea un futuro habitado por una inteligencia artificial nada excepcional es existencial. ¿Deberíamos, como sociedad, invertir decenas de miles de millones de dólares, nuestra valiosa electricidad, que podría utilizarse para abandonar los combustibles fósiles, y una generación de las mentes más brillantes en matemáticas y ciencias en mejoras incrementales de la mediocre escritura de correos electrónicos?
No podemos desistir del trabajo para mejorar la tecnología de IA, por mediocre que sea, llegó para quedarse y la gente va a utilizarla. Pero debemos tener en cuenta la posibilidad de que estamos invirtiendo en un futuro ideal que podría no materializarse.
Este artículo apareció originalmente en The New York Times.
c.2024 The New York Times Company