De Facebook a Neuralink: cómo es la tecnología de implantes cerebrales que podría cambiar a la humanidad

Jack Gallant nunca se propuso crear una máquina para leer la mente. Su enfoque era más prosaico. El doctor Gallant es un neurocientífico informático de la Universidad de California, Berkeley, y trabajó durante años para mejorar nuestra comprensión de cómo los cerebros codifican la información (qué regiones se activan, por ejemplo, cuando una persona ve un avión o una manzana o un perro) y cómo esa actividad representa el objeto que se está viendo.

A finales de la década de 2000, los científicos pudieron determinar qué tipo de cosa podría estar mirando una persona por la forma en que se iluminó el cerebro (una cara humana, por ejemplo, o un gato). Pero Gallant y sus colegas fueron más allá. Descubrieron cómo usar la máquina cuando aprendieron a descifrar no sólo la clase de cosa, sino qué imagen exacta estaba viendo la persona (qué foto de un gato, de tres opciones, por ejemplo).

Un día, Gallant y sus colegas postdoctorados comenzaron a hablar. De la misma manera en que puedes convertir un altavoz en un micrófono conectándolo al revés, ellos se preguntaron si podían hacer ingeniería inversa del algoritmo que habían desarrollado para poder visualizar, únicamente a partir de la actividad cerebral, lo que una persona estaba viendo.

La primera fase del proyecto fue entrenar la IA. Durante horas, Gallant y sus colegas mostraron a los voluntarios en las máquinas de resonancia magnética funcional (fMRI, pos su sigla en inglés) algunos clips de películas. Comparando los patrones de activación cerebral impulsados por las imágenes en movimiento, la IA construyó un modelo de cómo funcionaba la corteza visual de los voluntarios, que analiza la información de los ojos. Luego vino la fase siguiente: la traducción. Mientras mostraban a los voluntarios los clips de películas, preguntaron al modelo qué pensaba que podrían estar mirando, dado todo lo que sabía sobre sus cerebros.

El experimento se centró únicamente en una subsección de la corteza visual. No captó lo que estaba sucediendo en otras partes del cerebro (cómo se podría sentir una persona respecto de lo que estaba viendo, por ejemplo, o lo que podría estar fantaseando mientras miraba). El esfuerzo fue, en palabras de Gallant, una primitiva prueba de concepto.

Y, aun así, los resultados, publicados en 2011, son notables.

Las imágenes reconstruidas se mueven con una fluidez de ensueño. En su imperfección, evocan el arte expresionista. (Y unas pocas imágenes reconstruidas parecen totalmente equivocadas). Pero cuando tienen éxito, representan un logro asombroso: una máquina que traduce los patrones de la actividad cerebral a una imagen en movimiento comprensible para otras personas; una máquina que puede leer el cerebro.

Gallant estaba encantado. ¿Imagina las posibilidades cuando una mejor tecnología de lectura cerebral se encuentre disponible? ¿Imagina a las personas que sufren el síndrome de encierro, la enfermedad de Lou Gehrig, las personas incapacitadas por derrames cerebrales, que podrían beneficiarse con una máquina que podría ayudarles a interactuar con el mundo?

También estaba asustado porque el experimento demostró, de manera concreta, que la humanidad estaba en el comienzo de una nueva era; una era en la que nuestros pensamientos podrían teóricamente ser arrebatados de nuestras cabezas. ¿Qué iba a suceder, se preguntó Gallant, cuando se pudieran leer los pensamientos de los que el pensador ni siquiera es consciente, cuando se pudieran ver los recuerdos de las personas?

"Ese es un pensamiento realmente aleccionador que ahora tienes que tomar en serio", me dijo recientemente.

LA GORRA DE GOOGLE

Durante décadas, nos hemos comunicado con las computadoras principalmente usando los dedos y los ojos, utilizando teclados y pantallas. Estas herramientas y los dígitos que introducimos proporcionan un límite natural a la velocidad de comunicación entre el cerebro humano y la máquina. Podemos transmitir información tan rápidamente (y precisamente) como podemos escribir o hacer clic.

El reconocimiento de voz, como el utilizado por Siri, de Apple, o Alexa, de Amazon, es un paso hacia una integración más perfecta entre el humano y la máquina. El siguiente paso, el que los científicos de todo el mundo están persiguiendo, es la tecnología que permite a las personas controlar las computadoras (y todo lo que está conectado a ellas, por ejemplo automóviles, brazos robot y drones) simplemente pensando.

En broma, el Gallant llama "gorra de Google" a la pieza de hardware imaginaria que haría esto: una gorra que podría sentir comandos silenciosos y hacer que las computadoras respondan en consecuencia.

El problema es que, para funcionar, esa gorra necesitaría ser capaz de ver, con algún detalle, lo que está sucediendo en los casi 100 mil millones de neuronas que componen el cerebro.

La tecnología que puede espiar fácilmente a través del cráneo, como la máquina de resonancia magnética, es demasiado difícil de colocar en la cabeza. La tecnología menos voluminosa, como el electroencefalograma, o EEG, que mide la actividad eléctrica del cerebro a través de electrodos adheridos al cuero cabelludo, no brinda la misma claridad. Un científico lo compara con la búsqueda de las ondas de la superficie que ocasiona un pez al nadar bajo el agua mientras una tormenta asola el lago.

Otros métodos para "ver" dentro del cerebro podrían incluir la magnetoencefalografía, o MEG, que mide las ondas magnéticas de las neuronas debajo del cráneo y que emanan fuera de él; o el uso de luz infrarroja, que puede penetrar en el tejido vivo, para inferir la actividad cerebral a partir de los cambios en el flujo sanguíneo. (Los pulsioxímetros funcionan de esta manera, haciendo brillar la luz infrarroja a través del dedo).

Aún no está claro qué tecnologías alimentarán la interfaz cerebro-computadora del futuro. Y si no está claro cómo vamos a "leer" el cerebro, es aún menos claro cómo vamos a "escribir" en él.

Este es el otro santo grial de la investigación cerebro-máquina: la tecnología que puede transmitir información al cerebro directamente. Probablemente no estamos ni cerca del momento en que puedas preguntar en silencio: "Alexa, ¿cuál es la capital de Perú?", y hacer que "Lima" se materialice en tu mente.

Aun así, las soluciones para estos desafíos están comenzando a aparecer. Gran parte de la investigación se ha realizado en el ámbito médico, donde, durante años, los científicos han trabajado cada vez más para ofrecer a los cuadripléjicos y a otros pacientes con afecciones neurológicas que producen inmovilidad mejores formas de interactuar con el mundo a través de las computadoras. Pero en los últimos años, las empresas de tecnología (por ejemplo: Facebook, Microsoft y Neuralink, de Elon Musk) han comenzado a invertir en el campo.

Algunos científicos están eufóricos por esta infusión de energía y recursos. Otros se preocupan por que a medida que esta tecnología se mueve hacia el ámbito de los consumidores, podría tener una variedad de consecuencias involuntarias y potencialmente peligrosas, desde la erosión de la privacidad mental hasta la exacerbación de la desigualdad.

Rafael Yuste, neurobiólogo de la Universidad de Columbia, cuenta dos grandes avances en la informática que han transformado la sociedad: la transición de las computadoras centrales del tamaño de una habitación a las computadoras personales que caben en un escritorio (y luego en su regazo), y el advenimiento de la informática móvil con teléfonos inteligentes en la década de 2000. La tecnología no invasiva para leer el cerebro sería un tercer gran salto, señala.

"Olvídate de la crisis por el Covid", me dijo Yuste. "Lo que viene con esta nueva tecnología puede cambiar a la humanidad".

QUERIDO CEREBRO

No muchas personas se ofrecerán como voluntarias para ser las primeras en someterse a un tipo de cirugía cerebral novedosa, aunque conlleve la promesa de devolver la movilidad a los que han quedado paralizados. Así que cuando Robert Kirsch, el presidente de ingeniería biomédica de la Universidad Case Western Reserve, hizo una llamada de este tipo hace casi 10 años, y una persona cumplió con los criterios y estaba dispuesta a hacerlo, supo que tenía a un pionero en sus manos.

El nombre del voluntario era Bill Kochevar. Había quedado paralizado desde el cuello para abajo en un accidente de bicicleta años antes. Su lema, como lo explicó más tarde, era "alguien tiene que hacer la investigación".

En ese momento, los científicos ya habían inventado artilugios que ayudaban a los pacientes paralizados a aprovechar la movilidad que les quedaba (labios, un párpado) para controlar las computadoras o mover los brazos robot. Pero Kirsch buscaba algo diferente. Quería ayudar a Kochevar a mover sus propios miembros.

El primer paso fue implantar dos conjuntos de sensores sobre la parte del cerebro que normalmente controlaría el brazo derecho de Kochevar. En los músculos de su brazo, se implantaron electrodos que podían recibir señales de esos sensores a través de una computadora. Los implantes, y la computadora conectada a ellos, funcionarían como una especie de médula espinal electrónica, que evadiría su lesión.

Una vez que los músculos de su brazo se fortalecieron, con un régimen de estimulación eléctrica leve mientras dormía, Kochevar, que en ese momento había estado paralizado durante más de una década, pudo alimentarse y beber agua. Incluso pudo rascarse la nariz.

Alrededor de dos docenas de personas en todo el mundo que han perdido la posibilidad de utilizar sus extremidades por accidentes o enfermedades neurológicas se han implantado sensores en el cerebro. Muchos, incluido Kochevar, participaron en un programa financiado por el gobierno de Estados Unidos llamado BrainGate. Los conjuntos de sensores utilizados en esta investigación, más pequeños que un botón, permiten a los pacientes mover los brazos robot o los cursores en una pantalla con solo pensar. Pero, hasta donde Kirsch sabe, Kochevar, que murió en 2017 por razones no relacionadas con la investigación, fue la primera persona paralizada que recuperó el uso de sus miembros por medio de esta tecnología.

Este otoño (boreal), Kirsch y sus colegas comenzarán la versión 2.0 del experimento. Esta vez, implantarán seis conjuntos de sensores más pequeños (más sensores mejorarán la calidad de la señal). Y, en lugar de implantar electrodos directamente en los músculos de los voluntarios, los insertarán rodeando los nervios que mueven los músculos. En teoría, dice Kirsch, eso permitirá el movimiento de todo el brazo y la mano.

El siguiente gran objetivo es restaurar la sensación para que las personas puedan saber si están sosteniendo una piedra, digamos, o una naranja, o si su mano se ha acercado demasiado a una llama. "La sensación ha sido la parte más ignorada de la parálisis", me contó Kirsch.

Hace algunos años, científicos de la Universidad de Pittsburgh comenzaron a hacer experimentos innovadores con un hombre llamado Nathan Copeland, que estaba paralizado desde el torso hacia abajo. Dirigieron la información sensorial de un brazo robótico a la parte de la corteza que se ocupa del sentido del tacto de su mano derecha.

Cada cerebro es un órgano vivo y ondulante que cambia con el tiempo. Por eso, antes de cada sesión de Copeland, la IA tiene que ser recalibrada, para construir un nuevo decodificador cerebral. "Las señales del cerebro cambian", me dijo Copeland. "No son exactamente las mismas todos los días".

Y los resultados no fueron perfectos. Copeland me los describió como "raros", "cosquilleo eléctrico", pero también "asombrosos". La retroalimentación sensorial fue inmensamente importante, sin embargo, al saber que verdaderamente había agarrado lo que creía que había agarrado. Y, de manera más general, esto demostraba que una persona podía "sentir" una mano robot como propia, y que la información proveniente de los sensores electrónicos podía ser ingresada al cerebro humano.

Por preliminares que sean estos experimentos, sugieren que las piezas de la interfaz cerebro-máquina que pueden "leer" y "escribir" ya existen. Las personas no pueden mover los brazos robot únicamente con el pensamiento; las máquinas también pueden, aunque sea de forma imperfecta, transmitir información al cerebro sobre lo que ese brazo encuentra.

Quién sabe cuándo estarán disponibles las versiones de esta tecnología para los niños que quieran mover avatares en los videojuegos o navegar en la web con solo pensarlo. Las personas ya pueden hacer volar drones con señales cerebrales, así que tal vez aparezcan versiones para el consumidor en los próximos años. Pero es difícil exagerar cómo esta tecnología podría cambiar la vida de las personas con lesiones de la médula espinal o enfermedades neurológicas.

Edward Chang, neurocirujano de la Universidad de California en San Francisco, que trabaja en el reconocimiento del habla basado en el cerebro, dijo que mantener la capacidad de comunicación puede significar la diferencia entre la vida o la muerte. "Para algunas personas, si tienen un medio para continuar comunicándose, esa puede ser la razón por la que deciden seguir vivos", me dijo. "Eso nos motiva mucho en nuestro trabajo".

En un estudio reciente, Chang y sus colegas predijeron con una precisión de hasta el 97 por ciento (el mejor índice alcanzado hasta ahora, dicen) las palabras que había dicho un voluntario (de unas 250 palabras utilizadas en un conjunto predeterminado de 50 oraciones) mediante el uso de sensores implantados que monitoreaban la actividad en la parte del cerebro que mueve los músculos involucrados en el habla. (Los voluntarios de este estudio no estaban paralizados; eran pacientes con epilepsia sometidos a una cirugía cerebral para tratar esa afección, y los implantes no eran permanentes).

Chang usó conjuntos de sensores similares a los que usó Kirsch, pero un método no invasivo puede no estar muy lejos.

Facebook, que financió el estudio de Chang, está trabajando en un artilugio parecido a un casco de lectura cerebral que usa luz infrarroja para mirar dentro del cerebro. Mark Chevillet, el director de investigación de la interfaz cerebro-computadora en Facebook Reality Labs, me dijo en un correo electrónico que mientras que el reconocimiento completo del habla aún está lejos de lograrse, su laboratorio será capaz de decodificar comandos simples como "casa", "seleccionar" y "borrar" en "los próximos años".

Este progreso no está impulsado únicamente por los avances en la tecnología vinculada a los sensores del cerebro (por el punto de encuentro físico de la carne y la máquina). La IA importa tanto o más.

Tratar de entender el cerebro desde afuera del cráneo es como intentar dar sentido a una conversación que tiene lugar a dos cuartos de distancia. La señal es a menudo desordenada, difícil de descifrar. De modo que son los mismos tipos de algoritmos que ahora permiten al software de reconocimiento de voz hacer un trabajo decente de comprensión del habla (lo que incluye las idiosincrasias individuales de la pronunciación y los acentos regionales) los que ahora pueden permitir la tecnología de lectura del cerebro.

ELIMINAR LOS IMPULSOS

Sin embargo, no todas las aplicaciones para leer el cerebro requieren algo tan complejo como la comprensión del habla. En algunos casos, los científicos sólo quieren eliminar los impulsos.

Cuando Casey Halpern, neurocirujano de Stanford, estaba en la universidad, tenía un amigo que bebía demasiado. Otro tenía sobrepeso pero no podía dejar de comer. "El control de los impulsos es un problema muy generalizado", me dijo.

Como científico en ciernes, aprendió sobre los métodos de estimulación cerebral profunda utilizados para tratar la enfermedad de Parkinson. Una suave corriente eléctrica aplicada a una parte del cerebro involucrada en el movimiento podía disminuir los temblores causados por la enfermedad. ¿Podría aplicar esa tecnología al problema del autocontrol inadecuado?

En su trabajo con ratones en la década de 2010, identificó una parte del cerebro, llamada el núcleo accumbens, donde la actividad aumentó en forma de patrón predecible justo antes de que un ratón estuviera a punto de atiborrarse de comida rica en grasas. Él descubrió que podía reducir la cantidad que el ratón comía interrumpiendo esa actividad con una leve corriente eléctrica. Podía eliminar la compulsión por atiborrarse de comida mientras controlaba el cerebro de los roedores.

A principios de este año, comenzó a probar el método en personas que sufren de obesidad y que no han sido ayudadas por ningún otro tratamiento, por ejemplo la cirugía de bypass gástrico. Él implanta un electrodo en su núcleo accumbens. Está conectado a un aparato que fue originalmente desarrollado para prevenir ataques en personas con epilepsia.

Al igual que el trabajo de Chang o Gallant, un algoritmo tiene que aprender primero sobre el cerebro al que está unido, para reconocer los signos de la pérdida de control que se avecina. Halpern y sus colegas entrenan el algoritmo dando a los pacientes un batido para degustar, u ofreciendo las comidas favoritas del paciente, y luego registrando su actividad cerebral justo antes de que la persona se dé el gusto.

Hasta ahora, ha realizado dos implantes. "El objetivo es ayudar a recuperar el control", me dijo. Y si funciona en la obesidad, que afecta a aproximadamente el 40 por ciento de los adultos en Estados Unidos, él planea probar el aparato en los casos de adicciones al alcohol, la cocaína y otras sustancias.

El método de Halpern da por sentado algo que dice que a muchas personas les cuesta aceptar: que la falta de control de los impulsos que puede subyacer a un comportamiento adictivo no es una elección, sino que es el resultado de un mal funcionamiento del cerebro. "Tenemos que aceptar que es una enfermedad", dice. "A menudo, solo juzgamos a las personas y asumimos que es su propia culpa. Eso no es lo que la investigación actual sugiere que debemos hacer".

Debo confesar que de las numerosas aplicaciones propuestas de la interfaz cerebro-máquina con las que me encontré, la de Halpern fue mi favorita para extrapolar. ¿Cuántas vidas se han descarrilado por la incapacidad de resistir la tentación de ingerir la próxima píldora o la próxima cerveza? ¿Y si la solución de Halpern fuera generalizable?

¿Y si cada vez que tu mente se desviara mientras escribes un artículo, pudieras, con la ayuda de tu implante para la concentración, direccionarla de nuevo hacia la tarea en cuestión, completando así finalmente esos proyectos que cambian la vida y que nunca has podido terminar?

Estas aplicaciones siguen siendo fantasías, por supuesto. Pero el mero hecho de que tal cosa pueda ser posible es en parte lo que lleva a Yuste, el neurobiólogo, a preocuparse por cómo esta tecnología podría desdibujar los límites de lo que consideramos nuestra personalidad.

Tal desdibujamiento ya es un problema, señala. Los pacientes de Parkinson con implantes a veces informan que se sienten más agresivos que de costumbre cuando la máquina está "encendida". Los pacientes deprimidos que se someten a una estimulación cerebral profunda a veces se preguntan si son realmente ellos mismos. "Te sientes artificial", dijo un paciente a los investigadores. La máquina no está implantando ideas en sus mentes, como el personaje de Leonardo DiCaprio en la película El Origen (Inception, en inglés), pero aparentemente está cambiando su sentido de sí mismos.

¿Qué sucede si las personas ya no están seguras de si sus emociones son suyas, o son el efecto de las máquinas a las que están conectadas?

Halpern descarta estas preocupaciones porque las considera exageradas. Tales efectos forman parte de muchos tratamientos médicos, señala, como por ejemplo los antidepresivos y estimulantes que se recetan comúnmente. Y, a veces, como en el caso de las adicciones donde ya no hay esperanza de que la persona las abandone, cambiar el comportamiento de alguien es precisamente el objetivo.

Sin embargo, el problema a largo plazo de lo que podría suceder cuando la tecnología de escritura cerebral salte del ámbito médico al del consumidor es difícil de olvidar. Si el potenciador de enfoque imaginario existiera, por ejemplo, pero fuera muy costoso, podría exacerbar el ya enorme abismo entre los que pueden permitirse tutores, automóviles y universidades costosos (y ahora la tecnología que potencia la agallas) y los que no pueden.

"Ciertos grupos obtendrán esta tecnología, y se mejorarán a sí mismos", me contó Yuste. "Esta es una amenaza verdaderamente seria para la humanidad".

EL NEGOCIO DEL CEREBRO

"La idea de que hay que hacer agujeros en el cráneo para leer el cerebro es una locura", me dijo Mary Lou Jepsen, la directora ejecutiva y fundadora de Openwater, en un correo electrónico. Su compañía está desarrollando una tecnología que, según ella, utiliza luz infrarroja y ondas ultrasónicas para "espiar" en el interior del cuerpo.

Otros investigadores simplemente están tratando de hacer que los métodos invasivos sean menos invasivos. Una compañía llamada Synchron busca evitar abrir el cráneo o directamente tocar el tejido cerebral insertando un sensor a través de la vena yugular en el cuello. Actualmente se está llevando a cabo un ensayo de seguridad y viabilidad.

Kirsch sospecha que Neuralink, de Elon Musk, es probablemente la mejor tecnología sensorial cerebral en desarrollo. Requiere cirugía, pero a diferencia del conjunto de sensores de BrainGate, es delgada, flexible y puede ajustarse a la topografía montañosa del cerebro. La esperanza es que esto lo haga menos traumático. También tiene filamentos similares al cabello que se hunden en el tejido cerebral. Cada filamento contiene múltiples sensores, que teóricamente permiten la captura de más datos que las matrices más planas que se encuentran en la superficie del cerebro. Puede leer y escribir en el cerebro, y está acompañado por un robot que ayuda con la implantación.

Un gran desafío para los implantes es que, como dice el doctor Gallant, "a tu cerebro no le gusta que se le atasquen cosas". Con el tiempo, los inmunocitos pueden pulular por el implante, cubriéndolo con una sustancia viscosa.

Una manera de tratar de evitar esto es reducir drásticamente el tamaño de los sensores. Arto Nurmikko, un profesor de ingeniería y física de la Universidad de Brown, que forma parte de BrainGate, está desarrollando lo que él llama "neurogranos", diminutos sensores de silicio implantables, no más grandes que un puñado de neuronas. Son demasiado pequeños como para tener baterías, por lo que son alimentados por microondas emitidas desde el exterior del cráneo.

Él prevé unos 1000 mini sensores implantados en el cerebro. Hasta ahora, solamente los ha puesto a prueba en roedores. Pero tal vez no deberíamos estar tan seguros de que las personas sanas no se ofrezcan para la cirugía de "mejora mental". Cada año, Nurmikko plantea una hipótesis a sus estudiantes: 1000 implantes de neurogranos que permitirían a los estudiantes aprender y comunicarse más rápido; ¿algún voluntario?

"Generalmente, cerca de la mitad de la clase dice, 'Seguro'", me contó. "Eso habla de dónde estamos hoy".

José Carmena y Michel Maharbiz, científicos de Berkeley y fundadores de una start-up llamada Iota Biosciences, tienen su propia versión de esta idea, a la que llaman "polvo neuronal": pequeños implantes para el sistema nervioso periférico (brazos, piernas y órganos, además del cerebro). "Es como un Fitbit para el hígado", me dijo Carmena.

Imaginan poder tratar enfermedades inflamatorias estimulando los nervios de todo el cuerpo con estos pequeños dispositivos. Y donde Nurmikko usa microondas para alimentar los dispositivos, Carmena y Maharbiz prevén el uso de ultrasonidos hacerlos funcionar.

Generalmente, dicen, esta clase de tecnología será adoptada primero en el contexto médico y luego se trasladará a la población común. "Vamos a evolucionar para mejorar a los humanos", señaló Carmena. "No hay dudas".

Pero la publicidad se extiende, advierte. Claro, Elon Musk ha argumentado que una mayor integración cerebro-máquina ayudará a los humanos a competir con las cada vez más poderosas inteligencias artificiales. Pero, en realidad, no estamos ni cerca de contar con un dispositivo que pueda, por ejemplo, ayudar a dominar el Kung Fu instantáneamente como Keanu Reeves en "The Matrix".

¿Cómo es el futuro cercano para el consumidor común? Ramses Alcaide, el director ejecutivo de una compañía llamada Neurable, imagina un mundo en el que los teléfonos inteligentes metidos en nuestros bolsillos o mochilas actúan como centros de procesamiento para la transmisión de datos desde computadoras más pequeñas y sensores colocados en el cuerpo. Estos dispositivos (gafas que sirven de pantalla, auriculares que susurran en los oídos) son el sitio donde se producirá la verdadera interconexión entre el ser humano y la computadora.

Microsoft vende un auricular llamado HoloLens que superpone imágenes al mundo, una idea llamada "realidad aumentada". La compañía Mojo Vision está trabajando en una lente de contacto que proyecta imágenes monocromáticas directamente hacia la retina, una pantalla de computadora privada superpuesta sobre el mundo.

Y el propio Alcaide está trabajando en lo que él ve como el eje de esta visión, un dispositivo que, un día, puede ayudar a comunicarse silenciosamente con toda la parafernalia digital. Fue impreciso sobre la forma que tomará el producto (aún no está listo para el mercado), pero señaló que es un auricular que puede medir la actividad eléctrica del cerebro para percibir "estados cognitivos", como si tienes hambre o te concentras.

Ya revisamos compulsivamente Instagram y Facebook y el correo electrónico, aunque supuestamente nos lo impiden nuestros dedos carnosos. Le pregunté a Alcaide: ¿Qué pasará cuando podamos revisar compulsivamente las redes sociales solo con el pensamiento?

Siempre tan optimista, me dijo que la tecnología de detección cerebral podría ayudar con la incursión digital. El audífono inteligente podría sentir que estás trabajando, por ejemplo, y bloquear los anuncios o las llamadas telefónicas. "¿Y si tu computadora supiera que te estás concentrando?", me dijo. "¿Y si realmente elimina el bombardeo de tu vida?".

Tal vez no sea una sorpresa que Alcaide haya disfrutado del programa de ciencia ficción de HBO "Westworld", un universo en el que las tecnologías que hacen que la comunicación con las computadoras sea más fluida son comunes (aunque nadie parece estar en mejor situación para ello). Rafael Yuste, por otro lado, se niega a ver el programa. Compara la idea con la de un científico que estudia el Covid-19 viendo una película sobre pandemias. "Es eso último lo que quiero hacer", relata.

"UN ASUNTO DE DERECHOS HUMANOS"

Para entender por qué Yuste se preocupa tanto por la tecnología de lectura del cerebro, es necesario entender su investigación. Él ayudó a crear una tecnología pionera que puede leer y escribir en el cerebro con una precisión sin precedentes, y no requiere cirugía. Pero sí requiere ingeniería genética.

Yuste infecta a los ratones con un virus que inserta dos genes en las neuronas de los animales. Uno incita a las células a producir una proteína que las hace sensibles a la luz infrarroja; el otro hace que las neuronas emitan luz cuando se activan. De allí en adelante, cuando las neuronas se activan, Yuste puede verlas iluminarse. Y puede activar las neuronas a su vez con un láser infrarrojo. Así puede leer lo que está sucediendo en el cerebro del ratón y escribir en el cerebro del ratón con una precisión imposible con otras técnicas.

Y puede, al parecer, hacer que los ratones "vean" cosas que no están ahí.

En un experimento, entrenó a los ratones para que tomaran un trago de agua azucarada después de que una serie de barras aparecieran en una pantalla. Registró qué neuronas de la corteza visual se disparaban cuando los ratones veían esas barras. Luego activó esas mismas neuronas con el láser, pero sin mostrarles las barras reales. Los ratones tuvieron la misma reacción: tomaron un trago.

Compara lo que hizo con implantar una alucinación. "Pudimos implantar en estos ratones percepciones de cosas que no habían visto", me contó. "Manipulamos al ratón como una marioneta".

Este método, llamado optogenética, está muy lejos de ser utilizado en las personas. Para empezar, tenemos cráneos más gruesos y cerebros más grandes, lo que hace más difícil que la luz infrarroja pueda penetrar. Y desde un punto de vista político y regulatorio, la barra está lejos de la ingeniería genética para aplicar en seres humanos. Pero los científicos están explorando soluciones alternativas (drogas y nanopartículas que hacen que las neuronas sean receptivas a la luz infrarroja, permitiendo así la activación precisa de las neuronas sin ingeniería genética).

La lección, en opinión de Yuste, no es que pronto tendremos láseres montados en nuestras cabezas que nos tocan "como si fuéramos pianos", sino que las tecnologías de lectura y posiblemente de escritura cerebral se están acercando rápidamente, y la sociedad no está preparada para ellas.

"Creemos que esto es un asunto de derechos humanos", me dijo.

En un artículo publicado en 2017 en la revista Nature, Yuste y otros 24 firmantes, entre ellos Gallant, pidieron que se formulara una declaración de derechos humanos en la que se abordara explícitamente la cuestión de los "neuroderechos" y lo que, a su juicio, son las amenazas que plantea la tecnología de lectura del cerebro antes de que se convierta en omnipresente. La información tomada de los cerebros de las personas debería ser protegida como los datos médicos, dice Yuste, y no tendría que ser explotada para obtener beneficios o algo peor. Y así como las personas tienen el derecho de no autoincriminarse con el habla, deberíamos tener el derecho de no autoincriminarnos con la información obtenida de nuestros cerebros.

El activismo de Yuste fue impulsado en parte, me dijo, por las grandes empresas que de repente se interesaron en la investigación de la máquina cerebral.

Digamos que estás usando tu Google Cap y como muchos productos del ecosistema de Google, recopila información sobre ti, que utiliza para ayudar a los anunciantes a dirigir los anuncios hacia ti. Solo que ahora no está recogiendo tus resultados de búsqueda o tu ubicación en el mapa; está recogiendo tus pensamientos, tus sueños, tus deseos.

¿A quién pertenecen esos datos?

O imagina que es posible escribir en el cerebro. Y hay versiones inferiores de los artilugios de escritura cerebral que, a cambio de su uso libre, ocasionalmente "hacen sugerencias" directamente a tu cerebro. ¿Cómo sabrás si tus impulsos son tuyos, o si un algoritmo ha estimulado ese repentino anhelo por el helado de Ben & Jerry's o los bolsos de Gucci?

"Las personas han tratado de manipularse mutuamente desde el principio de los tiempos", me dijo Yuste. "Pero se cruza una línea una vez que la manipulación va directamente al cerebro, porque no serás capaz de decir que estás siendo manipulado".

Cuando pregunté a Facebook sobre las preocupaciones acerca de la ética de la gran tecnología que entra en el espacio de la interfaz cerebro-computadora, Chevillet, de Facebook Reality Labs, destacó la transparencia de su proyecto de lectura de cerebros. "Es por eso que hemos hablado abiertamente sobre nuestra investigación de B.C.I. (Interfaz Cerebro-Computadora, en español); para que pueda ser discutida a través de la comunidad de neuroética mientras exploramos colectivamente cómo se ve la innovación responsable en este campo", relató en un correo electrónico.

Ed Cutrell, investigador principal de Microsoft, que también tiene un programa de B.C.I., destacó la importancia de tratar los datos de los usuarios con cuidado. "Tiene que haber una idea clara de a dónde va esa información", me dijo. "Como nos adentramos más y más en las personas, ¿hasta qué punto esa información que estoy recogiendo sobre ti es tuya?".

Algunos consideran que toda esta charla sobre ética y derechos es, si no irrelevante, al menos prematura.

Los científicos médicos que trabajan para ayudar a los pacientes paralizados, por ejemplo, ya se rigen por las leyes de la HIPAA (Ley de Responsabilidad y Portabilidad del Seguro de Salud, en español), que protegen la privacidad del paciente. Cualquier nueva tecnología médica tiene que pasar por el proceso de aprobación de la Administración de Alimentos y Medicamentos, que incluye consideraciones éticas.

(Los dilemas éticos todavía surgen, sin embargo, señala Kirsch. Digamos que quieres implantar un conjunto de sensores en un paciente que sufre del síndrome de enclaustramiento. ¿Cómo se obtiene el consentimiento para realizar una cirugía que podría cambiar la vida de la persona para mejor, de una persona que no puede comunicarse?)

Leigh Hochberg, es profesor de ingeniería en la Universidad de Brown y forma parte de la iniciativa BrainGate; él considera que las empresas que se están amontonando en el espacio cerebro-máquina son una bendición. El campo necesita el dinamismo de estas empresas (y sus bolsillos profundos, me dijo). Los debates sobre la ética son importantes, "pero esos debates no deberían en ningún momento hacer descarrilar el imperativo de proporcionar tecnologías de restauración neurológica a las personas que podrían beneficiarse de ellas", añadió.

Los especialistas en ética, me dijo la doctora Jepsen, "también deben ver esto: La alternativa sería decidir que no estamos interesados en una comprensión más profunda de cómo funciona nuestra mente, curar enfermedades mentales, entender realmente la depresión, mirar dentro de las personas en coma o con Alzheimer, y mejorar nuestras habilidades para encontrar nuevas formas de comunicación".

Incluso podría decirse que hay un imperativo de seguridad nacional para avanzar. China tiene su propia versión de BrainGate. Algunos piensan que si las compañías estadounidenses no son pioneras en esta tecnología, las compañías chinas lo harán. "Las personas han descrito esto como una carrera armamentística de cerebros", dijo Yuste.

Ni siquiera Gallant, que primero logró traducir la actividad neural a una imagen en movimiento de lo que otra persona estaba viendo (y que estaba a la vez eufórico y horrorizado por el ejercicio), piensa que el método Luddite es una opción. "La única manera de salir del agujero tecnológico en el que estamos es con más tecnología y ciencia", me dijo. "Eso es un hecho genial de la vida".

Traducción de Ángela Atadía de Borghetti