Opinión: Creé un clon de voz de inteligencia artificial para hacerles bromas a los vendedores telefónicos, pero los timados somos nosotros

CUANDO HICE UN CLON DE VOZ DE INTELIGENCIA ARTIFICIAL Y LO LANCÉ AL MUNDO, PENSÉ QUE PODRÍA ENGAÑAR A MIS AMIGOS Y FRUSTRAR A LOS VENDEDORES TELEFÓNICOS. PERO EL CLON TUVO OTRAS CONSECUENCIAS.

A principios de este año llamé a mi buen amigo Warren para hablar de un partido de fútbol que íbamos a ver en dos costas distintas. “¿Estás listo para el partido de esta noche?”, le pregunté. “¿Qué? Estoy más que listo”, respondió, mientras seguíamos con nuestra charla habitual previa al partido. Entonces Warren se dio cuenta de algo: “Hablas en frases tan cortas que suena como si estuviera hablando con una inteligencia artificial”.

Así fue como me descubrió.

El “yo” de nuestra llamada no era yo en absoluto, sino un agente de voz que yo había creado utilizando un clon de mi voz con inteligencia artificial de nivel profesional. El bot de voz funcionaba con ChatGPT y estaba conectado a mi número de teléfono, un proceso que lleva menos de una hora en hacer y que cualquiera puede reproducir fácilmente. Como experimento, he estado enviando mi agente de voz al mundo durante la mayor parte de este año para un pódcast llamado “Shell Game”, sobre cómo responden extraños, colegas y amigos a encuentros repentinos con la versión de inteligencia artificial de Evan Ratliff.

PUBLICIDAD

Lo que he aprendido es que interactuar con los agentes de voz creados mediante inteligencia artificial cambiará nuestra forma de relacionarnos: en quién confiamos, qué esperamos y qué necesitamos de nuestras comunicaciones. Los agentes de voz de inteligencia artificial ya se están infiltrando en nuestro mundo: nos llaman haciéndose pasar por vendedores telefónicos, toman nuestros pedidos en los autoservicios de comida rápida, escuchan nuestros problemas como terapeutas de inteligencia artificial o —y esto me afecta mucho, dada mi ocupación— trabajan como presentadores de pódcasts de inteligencia artificial.

Los agentes de voz también se han presentado como una solución a la epidemia de soledad. Pero cuando llamé a un amigo mío y liberé mi versión de inteligencia artificial, me ofreció la descripción más sucinta de la experiencia: “Me hace sentir muy solo”, se lamentó. Esa sensación de soledad —la realidad básica de que, en esencia , solo estás hablando contigo mismo— puede ser el resultado más perdurable de todas estas conversaciones en las que interviene la inteligencia artificial.

Los rápidos avances de la inteligencia artificial tienden a provocar principalmente tres reacciones. Los defensores de la inteligencia artificial imaginan utopías de hipereficiencia y brillantez de las máquinas. Los escépticos afirman que se trata de una tecnología que hemos exaltado de más y que ya se está topando con pared. Los alarmistas advierten sobre los peligros más ambiciosos de la inteligencia artificial, ya que predicen que podría acabar con industrias enteras o escapar a nuestro control. Estas visiones contrapuestas ocultan una realidad inevitable: los agentes de inteligencia artificial ya están provocando una avalancha de conversaciones sintéticas, al desplegarse como parlanchines incansables, capaces de una interminable cháchara inventada. A medida que mejoren, será cada vez más difícil distinguir entre estos agentes de voz de la IA y los humanos y, aun cuando podamos identificarlos, estaremos obligados a hablar con ellos.

Los defensores de la inteligencia artificial intentan vender a estos agentes como asistentes digitales útiles para programar nuestras citas o amigos que siempre estarán ahí para escucharnos. Pero cuantas más conversaciones humanas simuladas escuchaba, más ganas me daban de tener conversaciones reales: contactos en persona con las personas que me importan, con todas las peculiaridades de una conversación humana serpenteante. Si la próxima avalancha de conversaciones similares a las de la inteligencia artificial amenaza con llenar nuestro mundo de detritus verbales inventados, una versión sonora de la “bazofia de la inteligencia artificial”, cuya ventaja tal vez sea que nos obligue a valorar las sutilezas de las interacciones personales que muchos de nosotros hemos llegado a menospreciar.

Cuando configuré mi clon de voz de inteligencia artificial, la primera tarea que le encomendé fue que interactuara con la gente que ya envilece nuestras comunicaciones: vendedores telefónicos y estafadores. Al principio, la inteligencia artificial funcionó tal como esperaba. Las personas que llamaban por teléfono a mi clon de inteligencia artificial se frustraban rápidamente, en parte porque siempre parecía interesado, pero nunca acababa de convencerse.

PUBLICIDAD

Sin embargo, muy pronto, mi yo de la inteligencia artificial empezó a recibir llamadas de otros agentes de voz como él, que tanteaban el terreno para ofrecer prestamos dudosos que resolvieran deudas o un seguro médico. Los agentes de voz no solo son una herramienta para ahuyentar a los estafadores, también son el sueño de cualquier estafador: nunca duermen, son baratos de desplegar y parecen lo bastante humanos como para engañar a algunos de sus objetivos. Fui testigo de cómo los agentes de voz de la inteligencia artificial entablaban conversaciones entre sí, lo que me planteó una pregunta zen: si un agente de voz de la inteligencia artificial intenta estafar a otro, ¿alguien pierde el tiempo?

A medida que proporcionaba a mi agente de voz más información sobre mí y mi vida, se convertía en un imitador más creíble. Armado con mi biografía, asistía a reuniones de trabajo en mi nombre (fuera de cámara, por supuesto), realizaba entrevistas en mi lugar e incluso intentaba negociar acuerdos. A mi clon se le daba mejor organizar reuniones que cerrar tratos, aunque manejó con aplomo una importante conversación jurídica.

En el trayecto, descubrí su singular talento: una habilidad para la improvisación falsa sin fin que ningún humano puede igualar. No me refiero a las supuestas alucinaciones en las que los chatbots se equivocan en cosas básicas. Hablo de una capacidad ilimitada para la cháchara mundana, combinada con el imperativo de inventar cosas tan solo para mantener la conversación.

Incluso cuando mi agente de voz hacía un buen trabajo haciéndose pasar por mí, me di cuenta de que para las personas al otro lado de la línea, mantener conversaciones en voz alta con clones de inteligencia artificial alteraba su sentido de la realidad. Cuando lo envié a hablar con mis amigos y familiares sin que ellos lo supieran, algunos no tardaron en detectar que algo andaba mal y colgaron. Otros aceptaron la rareza o simplemente le gritaron. Una persona pensó que yo había sufrido un colapso mental. Le devolví la llamada y traté de tranquilizarla, pero fue el tipo de malentendido generado por la inteligencia artificial que pronto tendremos que resolver.

Las empresas están a punto de lanzar estos agentes de voz de inteligencia artificial a nuestro mundo. Los humanos tenemos que decidir cómo nos adaptaremos a un mundo en el que abundan las voces casi humanas. Podríamos, como he hecho yo, combatir a los impostores con impostores, mientras seguimos con nuestras vidas ignorando la cacofonía. O podemos intentar rechazar esta tecnología, creando espacios sin clones y negándonos a ser clientes de las empresas que ofrecen una experiencia humanoide en lugar de una real.

PUBLICIDAD

Si hay algo que no necesitamos es más soledad, que parece ser lo único que estas voces de inteligencia artificial nos proporcionan de forma confiable. Su llegada nos ofrece la oportunidad de replantearnos cómo utilizamos nuestras propias voces y de buscar más interacciones humanas que nunca podrán sustituir.

Este artículo se publicó originalmente en The New York Times.

c.2024 The New York Times Company