Así fue como Sam Bankman-Fried hizo que el altruismo eficaz se pusiera a la defensiva

Sam Bankman-Fried, un destacado seguidor del altruismo eficaz y fundador de FTX, la casa de bolsa de criptomonedas que quebró, en una aparición en video en la Cumbre DealBook organizada por The New York Times en Manhattan, el 30 de noviembre de 2022. (Hiroko Masuike/The New York Times)
Sam Bankman-Fried, un destacado seguidor del altruismo eficaz y fundador de FTX, la casa de bolsa de criptomonedas que quebró, en una aparición en video en la Cumbre DealBook organizada por The New York Times en Manhattan, el 30 de noviembre de 2022. (Hiroko Masuike/The New York Times)

El criptoempresario caído en desgracia Sam Bankman-Fried quería que la gente supiera que los enormes riesgos que asumió eran por el bien de la humanidad; al menos esa fue la impresión que intentó dar el 30 de noviembre en una entrevista en la Cumbre DealBook organizada por The New York Times. Bankman-Fried, famoso por su nerviosismo, fue arrestado el lunes por la noche por acusaciones de fraude y parecía bastante tranquilo durante la entrevista vía Zoom desde una habitación poco iluminada en las Bahamas, un paraíso fiscal cuyas regulaciones resultaban muy adecuadas para sus ambiciones en la industria de las criptomonedas.

“Miren, hay muchas cosas que en verdad tienen un enorme impacto en el mundo”, dijo Bankman-Fried. “Y, en última instancia, eso es lo que más me interesa. Es decir, para ser honesto, me parece que la industria de la cadena de bloques podría tener un impacto positivo considerable. Saben, he pensado mucho en los mosquiteros y la malaria y en salvar a la gente de enfermedades de las que ya nadie debería morir”.

Este es el lenguaje del altruismo eficaz, un movimiento filantrópico que se basa en el uso de la razón y los datos para hacer el bien. Bankman-Fried llevaba mucho tiempo alardeando de su buena fe en el altruismo eficaz para diferenciarse de otros criptomillonarios. Gana mucho para dar mucho. Que tu generosidad vaya a donde más importa. Ahora su casa de cambio de criptomonedas, FTX, quebró y arruinó a pequeños inversionistas, además de causar estragos en el sector. Según cuenta Bankman-Fried, la idea era ganar miles de millones con su empresa de operaciones bursátiles con criptomonedas, Alameda Research, y con FTX, la casa de cambio que creó para ella, y canalizar los beneficios hacia la humilde causa de los “mosquiteros y la malaria”, para así salvarles la vida a los pobres.

Sin embargo, el verano pasado, Bankman-Fried le decía a Gideon Lewis-Kraus de The New Yorker algo muy diferente. “Me dijo que nunca había pasado por la fase de los mosquiteros y que consideraba que las causas cortoplacistas —como la salud mundial y la pobreza— tenían una motivación más bien sentimental”, escribió Lewis-Kraus en agosto. Los altruistas eficaces hablan sobre el “cortoplacismo” y el “largoplacismo”. Bankman-Fried afirmó que quería que su dinero se usara para amenazas a largo plazo, como los peligros que supone la inteligencia artificial descontrolada. Dijo que deberían ser otras personas a las que en verdad les preocupen las enfermedades tropicales quienes financien su erradicación: “O sea, yo no” (parece cada vez menos probable que las organizaciones sin fines de lucro que fundó puedan honrar sus compromisos financieros con las causas que él considera correctas).

Para quienes no saben de estos temas, el hecho de que Bankman-Fried viera una urgencia especial en evitar que los robots asesinos se apoderaran del mundo puede sonar demasiado descabellado como para parecer eficaz o altruista. Pero resulta que parte de la literatura más influyente sobre el altruismo eficaz también se centra en los robots asesinos.

El movimiento sigue siendo de amplio espectro; algunos altruistas eficaces concentran sus esfuerzos en intervenciones específicas con resultados comprobados, incluidas campañas de vacunación (y, claro está, los mosquiteros contra la malaria). Holden Karnofsky, quien gestionaba fondos de cobertura y fundó GiveWell, una organización que evalúa la rentabilidad de las organizaciones benéficas, ha hablado de la necesidad de “diversificar la visión del mundo” y reconoce que puede haber múltiples formas de hacer el bien en un mundo lleno de sufrimiento e incertidumbre.

No obstante, los libros son harina de otro costal. Las consideraciones sobre las necesidades inmediatas palidecen ante las especulaciones sobre el riesgo existencial, no solo preocupaciones terrenales sobre el cambio climático y las pandemias, sino también (y quizá lo más atractivo para algunos empresarios tecnológicos) teorías más extravagantes sobre la colonización espacial y la inteligencia artificial. A veces los libros me hacen pensar en un grupo de personas inteligentes y bienintencionadas que intentan impresionarse y superarse entre sí anticipando la próxima cosa del otro mundo. En lugar de una “diversificación de la visión del mundo”, existe una sorprendente homogeneidad intelectual; las voces dominantes pertenecen a hombres blancos filósofos de Oxford.

El libro “Superinteligencia ” de Nick Bostrom (2016) advierte sobre los peligros que suponen las máquinas que podrían aprender cómo pensar mejor que nosotros; “The Precipice” de Toby Ord (2020) enumera los cataclismos que podrían aniquilarnos. William MacAskill ha traducido estos presagios catastrofistas a un lenguaje más amable de lo que se puede hacer y cómo hacerlo. En su reciente éxito editorial, “What We Owe the Future” (2022), MacAskill afirma que los argumentos a favor de un altruismo eficaz que dé prioridad a la visión a largo plazo pueden resumirse en tres sencillas frases: “Las personas del futuro cuentan. Podrían ser muchas. Podemos mejorar sus vidas”.

A primera vista, todo esto parece bastante obvio. MacAskill dice varias veces que el largoplacismo es “de sentido común” e “intuitivo”. Pero cada una de esas frases concisas pasa por alto una serie de cuestiones adicionales y MacAskill dedica todo un libro a abordarlas. Por ejemplo, la idea de que “las personas del futuro cuentan”. Si dejamos de lado la posibilidad de que la mera contemplación de una persona hipotética no sea nada “intuitiva” para algunas personas reales, queda otra pregunta: ¿cuentan las personas del futuro más o menos de lo que cuentan ahora mismo las personas del presente?

Esta pregunta representa un punto de inflexión entre el cortoplacismo y el largoplacismo. MacAskill cita al filósofo Derek Parfit, cuyas ideas sobre la ética de la población en su libro de 1984 “Razones y personas” han influido en el altruismo eficaz. Parfit argumentaba que una extinción que destruyera al 100 por ciento de la población debería preocuparnos mucho más que una casi extinción en la que se salvara una población minúscula (que muy seguramente seguiría procreando) porque el número de vidas potenciales empequeñece el número de vidas existentes. En la actualidad hay 8000 millones de personas en el mundo; en “The Precipice”, Ord nombra a Parfit su mentor y nos anima a pensar en los “billones de vidas humanas” que vendrán.

Si eres un utilitario comprometido con “el mayor bien para el mayor número”, la aritmética parece irrefutable. El columnista Ezra Klein del Times ha escrito sobre su apoyo al altruismo eficaz a la vez que critica las expresiones más fanáticas del “chantaje matemático” del largoplacismo. Pero a juzgar por gran parte de la literatura, son precisamente las afirmaciones más categóricas de racionalidad las que han dotado al movimiento de su caché intelectual.

En 2015, MacAskill publicó “Doing Good Better”, que también versa sobre las virtudes del altruismo eficaz. Sus preocupaciones en ese libro (la ceguera, la desparasitación) parecen bastante pintorescas cuando se comparan con las conjeturas del plano astral (la IA, la creación de una “civilización interestelar”) que plantea en “What We Owe the Future”. Sin embargo, se ha mantenido fiel a su estilo de prosa optimista. En ambos libros hace hincapié en la conveniencia de buscar lo “desatendido”, es decir, problemas que no han atraído suficiente atención para que uno, como altruista eficaz, pueda tener más “impacto”. Así que para MacAskill, el cambio climático ya no es lo más importante; sería mejor que los lectores se centraran en “las cuestiones en torno al desarrollo de la IA”, que están “muchísimo más desatendidas”.

Este pensamiento se presenta como preciso y contundente. Al igual que Bostrom y Ord (e incluso Parfit), MacAskill es filósofo de Oxford. También es uno de los fundadores del altruismo eficaz, así como la persona que, en 2012, incorporó a las filas de este movimiento a un estudiante del MIT llamado Sam Bankman-Fried.

En aquel momento, la lógica de la estrategia de reclutamiento de MacAskill debió parecer impecable. Una de sus innovaciones de altruismo eficaz es el proyecto de investigación de carreras profesionales conocido como 80.000 Hours, que promueve “ganar para dar”, es decir, la idea de que las personas altruistas deben optar por carreras en las que ganen mucho dinero, que luego podrían donar a causas relacionadas con el altruismo eficaz.

“El consejo convencional es que si quieres marcar la diferencia deberías trabajar en el sector público o sin fines de lucro o en el área de responsabilidad social corporativa”, escribe MacAskill en “Doing Good Better”. Pero lo convencional es aburrido y si las matemáticas te dicen que emplearías mejor tus energías en atraer a jóvenes promesas de la tecnología con un altísimo potencial de ingresos, lo convencional probablemente no te consiga muchos nuevos reclutas.

El 11 de noviembre, cuando FTX se declaró en quiebra en medio de acusaciones de malos manejos financieros, MacAskill escribió una larga cadena de Twitter en la que manifestaba su asombro y angustia, mientras trataba de entender en tiempo real lo que Bankman-Fried había provocado.

“Si los implicados engañaron a otros e incurrieron en un fraude (ilegal o no) que puede costarles sus ahorros a varios miles de personas, entonces abandonaron por completo los principios de la comunidad del altruismo eficaz”, escribió MacAskill en un tuit, seguido de capturas de pantalla de “What We Owe the Future” y “The Precipice”, de Ord, que subrayaban la importancia de la honestidad y la integridad.

Me parece que quizá Bankman-Fried no leyó los fragmentos en cuestión, si acaso leyó esos libros. “Nunca leería un libro”, afirmó Bankman-Fried este año. “Desconfío bastante de los libros. No estoy diciendo que no valga la pena leer ningún libro, pero digamos que casi creo que así debería ser”.

Evitar los libros es un método efectivo para absorber la versión más cruda del altruismo eficaz y pasar por alto las advertencias. En la edición de bolsillo de “Superinteligencia”, que estableció un marco de referencia para pensar en un apocalipsis robótico, Bostrom ofrece el equivalente de una etiqueta de advertencia para “aquellos cuyas vidas se han vuelto tan ajetreadas que han dejado de leer los libros que compran, a excepción tal vez del vistazo al índice y a lo que aparece en la portada y contraportada”.

Pero puede que los propios libros hayan incentivado sus propios puntos ciegos. A pesar de todas las reflexiones del cerebro galáctico de MacAskill sobre la “conquista de la inteligencia artificial” y el “argumento moral a favor de los asentamientos espaciales”, quizá la fijación del altruismo eficaz en lo “desatendido” y los riesgos existenciales le hizo prestar menos atención a riesgos más conocidos, humanos, banales y cercanos.

© 2022 The New York Times Company