El historiador y escritor israelí, uno de los principales estudiosos del impacto de la IA en la evolución humana, advirtió en una entrevista que la nueva tecnología les quitará a las personas la exclusividad de imponer emociones mediante la transmisión de relatos
Según Yuval Harari, el impacto de la Inteligencia Artificial sobre la humanidad traerá consecuencias tan profundas que en un futuro no muy lejano los seres humanos deberán ceder la autoría de la capacidad de influir sobre los demás con sus narraciones relatos, algo que desde siempre le ha permitido dominar el planeta.
El historiador y escritor israelí, que en su libro “Nexus” explicó que el mundo está dejando atrás la economía del dinero para reemplazarla por una economía basada en el intercambio de información, fue entrevistado un podcast editado por el Fondo Monetario Internacional (FMI). Una versión resumida de ese reportaje fue publicada en “Finanzas y Desarrollo F&D”, una publicación del FMI. El siguiente es el texto completo de la entrevista:
A diferencia de lo que ocurre con el Homo economicus —el modelo hiperracional inventado para dilucidar nuestras disyuntivas financieras—, las decisiones del Homo sapiens siempre han dependido mucho del contexto social y de la respuesta emocional a los relatos.
Curioso ya desde niño, Yuval Noah Harari escribe hoy sobre la evolución humana como filósofo e historiador. Sapiens: De animales a dioses, publicado en 2014, se transformó en un fenómeno internacional traducido a casi 40 idiomas. Su última obra, Nexus: Una breve historia de las redes de información desde la Edad de Piedra hasta la IA, examina la evolución de las redes de comunicación humanas y la posibilidad de que la inteligencia artificial (IA) nos gane en nuestro propio terreno.
Harari es actualmente catedrático de Historia en la Universidad Hebrea de Jerusalén y un destacado investigador principal en el Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge. En una charla con Bruce Edwards, habló de los relatos, la confianza y la IA.
F&D: Uno de los principios básicos de su historia del Homo sapiens es que somos los únicos con la habilidad de imaginar el futuro. ¿Cómo es que la narración nos ha permitido predominar sobre otras especies que están evolucionando a la par de nosotros?
YNH: El poder radica en la cooperación. Por ejemplo, los chimpancés pueden cooperar únicamente en grupos muy pequeños, pero la cooperación del Homo sapiens es ilimitada. Hoy hay 8.000 millones de personas en el mundo que, a pesar de muchas diferencias y conflictos, pertenecen casi sin excepción a las mismas redes comerciales. Muchos de los alimentos, la energía que consumimos y la ropa que usamos vienen del otro extremo del mundo, de manos de gente con la que nunca nos cruzamos. Estas amplias redes de cooperación son nuestro superpoder y están basadas en la confianza. Entonces hay que preguntarse de dónde surge la confianza entre extraños. De las “historias”.
La confianza se forja contando historias en las que cree mucha gente. Es más fácil verlo en el caso de la religión: millones de extraños pueden cooperar en obras benéficas como la construcción de hospitales o luchar en guerras santas porque creen en la misma mitología. Pero lo mismo ocurre con la economía y el sistema financiero porque ningún relato ha tenido jamás tanto éxito como la historia del dinero. Básicamente, es la única historia en la que cree todo el mundo.
F&D: Pero usted se refiere al dinero como un mero artificio cultural.
YNH: Efectivamente. El dinero es un cuento, un invento; no tiene valor objetivo. Uno no puede comer ni beber billetes ni monedas, pero puede darle a un extraño un trozo de papel que no vale nada a cambio de un pan que sí puede comer. La premisa fundamental es que todos creemos en la misma narrativa sobre el dinero; si dejamos de creer, todo se viene abajo. Esto ha ocurrido a lo largo de la historia, y sucede hoy con los nuevos tipos de monedas. ¿Qué son los bitcoin, la red Ethereum y todas estas criptomonedas? Son narraciones. Su valor depende de las historias que la gente cuenta y cree. Y el valor de los bitcoin aumenta y se diluye a medida que aumenta y se diluye la confianza de la gente en esa narración.
F&D: Según su último libro, Nexus, estamos dejando la economía del dinero por una economía basada en el intercambio de información, no de monedas. ¿Cómo es la economía de la información?
YNH: Le doy un ejemplo: una de las empresas más importantes en mi vida es Google. La uso todos los días, todo el día. Pero mi estado de cuenta del banco no muestra ningún canje de dinero; ni yo le pago a Google ni Google me paga a mí. Lo que me da Google es información.
F&D: Y usted le da información a Google.
YNH: Usted lo ha dicho. Le doy a Google mucha información sobre lo que me gusta, lo que no me gusta y lo que pienso, cualquier cosa, y Google la utiliza. En el mundo entero, cada vez más transacciones siguen este formato de información a cambio de información, y no algo a cambio de dinero. Y el poder, la riqueza y el significado de la riqueza pasan de tener mucho dinero a tener muchos petabytes de información. ¿Qué ocurre cuando la gente y las empresas más poderosas son ricas en el sentido de que tienen una gigantesca cantidad de información almacenada que ni siquiera se molestan en monetizar, en canjear por dinero, porque pueden obtener todo lo que quieren a cambio de información? ¿Para qué necesitamos dinero? Si la información sirve para comprar bienes y servicios, el dinero resulta innecesario.
F&D: Nexus parte de la idea de que las estructuras de poder y los sistemas de creencias surgieron de narraciones a lo largo de la evolución humana y la contextualiza con la tecnología actual. ¿Qué dice sobre los peligros de estas redes de información cada vez más avanzadas?
YNH: El primer mensaje es casi filosófico: la información y la verdad no son lo mismo. La mayor parte de la información es ficticia, inverosímil y engañosa. La verdad es costosa; hay que informarse, hay que juntar datos; hay que dedicar tiempo, esfuerzo y dinero para encontrarla. Y muchas veces, la verdad duele; por eso es una parte muy pequeña de la información.
Otro mensaje es que estamos desatando sobre el mundo la tecnología más poderosa jamás creada: la IA. La IA es radicalmente diferente de la imprenta, de la bomba atómica y de cualquier otra invención. Es la primera tecnología de la historia que puede tomar decisiones y crear nuevas ideas por sí misma. Una bomba atómica no puede decidir dónde detonar; la IA, sí. Puede tomar decisiones financieras e inventar instrumentos financieros sola, y la IA que conocemos hoy, en 2024, es apenas la forma rudimentaria de esta revolución. No tenemos idea de lo que se viene.
Y algo importante, sobre todo para el FMI, es que los pioneros de la IA son apenas un puñado de países. La mayor parte de los países van muy a la zaga, y si nos descuidamos vamos a vivir una repetición de la Revolución Industrial a la enésima potencia. En el siglo XIX, solo unos pocos países —Gran Bretaña, y luego Estados Unidos, Japón y Rusia— tomaron la delantera en la industrialización; la mayoría de los demás no entendía qué estaba ocurriendo con cosas como el motor a vapor y el telégrafo. Pero al cabo de unas décadas, el mundo entero estaba directamente conquistado o indirectamente dominado por estas pocas potencias industriales. Hay muchos países que recién ahora están comenzando a recuperarse del daño causado por esa conquista industrial.
Y ahora tenemos el tsunami de la IA. Piense en lo que el motor a vapor y el telégrafo le hicieron a la igualdad a escala mundial y multiplíquelo por 10, por 100, por 1.000. Ahí se empiezan a ver las consecuencias de que unos pocos países monopolicen el enorme poder de la IA y todos los demás terminen explotados y dominados de maneras que no tienen precedente histórico.
F&D: La IA desenfrenada es peligrosa, como dice en Nexus. Pero como también deja claro en Sapiens, la humanidad ha pisoteado el planeta impunemente, “como dioses que no saben lo que quieren”. ¿Hay algo en la disciplina económica capaz de suavizar el impacto de estas dos fuerzas potencialmente destructivas al conjugarse?
YNH: Lo que busca la economía es establecer prioridades. Como hay recursos limitados y una abundancia de deseos y necesidades diferentes, se plantea la cuestión de la verdad y la cuestión del deseo. ¿Cuáles son los hechos y qué es lo que deseamos?
Desde el punto de vista de la cuestión del deseo, el mejor sistema que hemos inventado es la democracia: le preguntamos al pueblo qué desea. Y los deseos de alguien con un doctorado en Economía o un Premio Nobel no son más importantes que los deseos de alguien que no terminó la secundaria. El sistema democrático pretende otorgar el mismo peso a los deseos de cada persona. Por otra parte, está la cuestión de la verdad: ¿cuáles son los hechos? La democracia no es el sistema ideal para decidirlo. Por ejemplo, si queremos saber si la atmósfera realmente se está calentando, y si es consecuencia del accionar humano o de algún ciclo solar natural, o lo que sea, la respuesta no surge de una elección democrática. Se trata de una cuestión de la verdad, no de una cuestión del deseo.
Algo que hemos aprendido sobre el ser humano a lo largo de miles de años es que muchas veces la gente prefiere que la verdad sea distinta de la realidad, por razones personales, religiosas o ideológicas. Si queremos conocer los hechos, tenemos que crear instituciones de expertos que sepan cómo analizar los datos, pero no dictaminar nuestros deseos ni decirnos qué hacer. Los expertos dicen que el cambio climático es real, sí, y que las causas son tales y cuales; luego la pelota queda en el terreno democrático.
F&D: Pero las decisiones democráticas que toma la gente están basadas en las historias que escucha: ¿qué pasa cuando esas historias ya no provienen de un ser humano?
YNH: Se produce un terremoto. Las sociedades humanas están basadas en la confianza, y la confianza está basada en la información y en la comunicación; un cambio profundo en la tecnología de la comunicación sacude la confianza entre las personas. La consecuencia es un terremoto social y político. Con la llegada de la IA, por primera vez las historias que sustentan las sociedades humanas son fruto de una inteligencia no humana.
Las narraciones pueden ser de tenor religioso o financiero: todos los instrumentos financieros previos de la historia fueron producto de la imaginación humana. Pero vamos a comenzar a ver instrumentos financieros inventados por la IA, y el riesgo es que ningún ser humano sea capaz de comprenderlos, y mucho menos regularlos.
La IA puede ser enormemente beneficiosa, pero si se descontrola puede plantear un peligro existencial. Para mí, IA no es la abreviatura de inteligencia artificial, sino de inteligencia alienígena. No alienígena porque provenga del espacio exterior, sino porque sale de nuestros propios laboratorios. Es alienígena en el sentido de que toma decisiones e inventa ideas de una manera fundamentalmente diferente a la humana. Es un tipo alienígena de inteligencia. Y es muy peligroso dejar libres por el mundo a miles de millones de agentes alienígenos sin tener manera de controlar que utilicen su enorme poder en beneficio nuestro.
Contribución de prensa del Fondo Monetario Internacional (FMI). Revista Finanzas y Desarrollo.
¿Era Deckard un replicante? Ese es el gran debate en torno a Blade Runner. El protagonista de la película, inspirada en la novela de Philip K. Dick ¿Sueñan los androides con ovejas eléctricas? (1968), mantiene el misterio sobre su figura, un debate que nos acerca a una pregunta importante tantas décadas después: ¿qué nos hace humanos? Según afirma Omar Hatamleh, director de Inteligencia Artificial del Goddard Space Flight Center de la NASA, dentro de 50 años será casi imposible distinguir a un robot humanoide de una persona. El test Voight-Kampff, para distinguir entre humano y replicante, ya no le servirá para nada a Harrison Ford. La amenaza de la IA es tan grande que en marzo de 2023 Yuval Noah Harari, junto a Elon Musk y el cofundador de Apple, Steve Wozniak, firmaron un manifiesto para frenar durante seis meses la “carrera sin control” de los ChatGPT. Ha pasado año y medio y no sólo no se frenó, sino que la IA pisó el pedal de aceleración hasta el fondo. ¿Estamos a tiempo de hacer algo para impedir que la IA nos destruya o es una batalla pérdida? ¿Quién puede matar al algoritmo? En su nuevo libro, Nexus (Debate), el filósofo Yuval Noah Harari —el autor de Sapiens, una obra que ha vendido 25 millones de ejemplares desde su publicación en 2013— relata cómo diferentes sociedades y sistemas políticos han utilizado la información para lograr sus objetivos e imponer el orden, para bien y para mal. Harari centra su obra en el crucial momento al que nos enfrentamos hoy en día, cuando la inteligencia no humana amenaza nuestra propia existencia.
TODOS HABLAN, NADIE ESCUCHA: TOTALITARISMO, MENTIRAS Y TEORÍAS CONSPIRATIVAS
En Nexus, Yuval Noah Harari analiza el papel de las redes de información desde la Edad de Piedra hasta la aparición de la IA. Al principio de su intervención, el historiador señaló la contradicción en la que vive nuestra sociedad: «Tenemos la tecnología de la información más importante de la historia, pero la gente parece que no es capaz de hablar». A este respecto, el autor de Homo Deus: Breve historia del mañana puso el ejemplo de lo que ocurre en los Estados Unidos, la imposibilidad de demócratas y republicanos de ponerse de acuerdo en nada. Ese enfrentamiento entre ideologías queda patente en las redes sociales, y acerca de esta cuestión apuntó Harari lo siguiente: «La manera más fácil de capturar la atención es apretar el botón del odio o el botón del miedo y expandir de forma deliberada las teorías conspirativas». También comentó que «los grandes gigantes tecnológicos nos habían prometido que nos iban a conectar a todos y que iban a difundir la verdad. Tenemos una tecnología muy sofisticada para comunicarnos, pero no dialogamos». Para Harari la diferencia esencial entre democracia y un régimen totalitario es «la conversación», que actualmente está en grave peligro por la crisis del periodismo y la propagación de «mentiras y teorías conspirativas» en esas redes sociales.
«Escribir una mentira, una información falsa es sencillo, no necesitas invertir nada. La ficción es barata y la verdad normalmente es complicada«
En relación con lo anterior, Harari habló de lo erróneo que es identificar información con verdad: «La información no es conocimiento. La visión ingenua que domina lugares como Silicon Valley sostiene que, con cuanta más información, más sabe la gente. Pero la mayor parte de la información en el mundo es basura. No es verdad. La información verdadera es escasa porque escribir un informe auténtico requiere tiempo, dinero y esfuerzo. Escribir una mentira, una información falsa es sencillo, no necesitas invertir nada. La ficción es barata y la verdad normalmente es complicada. La mayor parte de la gente prefiere historias sencillas. Si queremos que prevalezca la verdad tenemos que invertir en ella. Necesitamos periódicos y sociedades e instituciones académicas. Esta es la gran responsabilidad de las sociedades actuales: resistir a esa visión ingenua, de gente como Elon Musk, de que si hay más información la gente tendrá más posibilidades de conocer la verdad».
El historiador israelí advirtió durante la conferencia de prensa del «potencial totalitario» de la inteligencia artificial y puso varios ejemplos, como el de su país, Israel, «que está construyendo un régimen de vigilancia total» en los territorios ocupados. Según el autor, la «inmensa capacidad» de la IA para recoger y analizar información hará posible «el régimen de vigilancia completa que anule la privacidad», algo que no lograron Hitler o Stalin y que ahora están empezando a aplicar países como Irán, con cámaras de reconocimiento facial que vigilan y castigan la ausencia del velo en las mujeres cuando van en un vehículo. Esos dispositivos de videovigilancia localizan a las mujeres que conducen sin velo, las identifican, su nombre, su teléfono, e inmediatamente ellas reciben un SMS en el que el estado le notifica la infracción y el castigo: deben abandonar su coche, que ha sido confiscado desde ese mismo momento. Esto no es un supuesto de ciencia ficción. Está ocurriendo ahora. Aunque señaló los peligros que relacionan IA y totalitarismo, Yuval Noah Harari hizo una matización muy importante al señalar que esto no es determinista: las sociedades pueden tomar decisiones para revertirlo.
LA RESPONSABILIDAD DE LAS GRANDES CORPORACIONES
Teniendo en cuenta que la revolución de la IA está en sus pasos iniciales, Harari enfatizó la necesidad de hacerse preguntas. «Tiene un enorme potencial positivo. Si hablo poco de ello es porque hay grandes corporaciones extremadamente ricas y poderosas que ya nos inundan con los mensajes positivos e ignoran los peligros», dijo. Por ello, ve crucial generar «un debate sobre la responsabilidad de los gigantes mediáticos» como Facebook, Twitter, Instagram o TikTok. «Las corporaciones deben tener una responsabilidad por lo que deciden sus algoritmos, del mismo modo que el editor del New York Times es responsable de su portada», señaló. Otro asunto importante, que está debatiéndose ahora mismo en países como España, es saber distinguir entre la censura y los mecanismos de las plataformas para evitar la propagación de mentiras, de bulos. El filósofo comentó que «es importante que la gente sepa ver la diferencia entre los editores humanos y los algoritmos corporativos. La gente tiene derecho a la estupidez, a contar mentiras, salvo casos extremos que define la ley, forma parte de la libertad de expresión», señaló. «El problema no son los humanos sino los algoritmos de corporaciones cuyo modelo de negocio se basa en el engagement, que significa que su prioridad es que la gente pase el mayor tiempo posible en sus plataformas, para vender anuncios y reunir datos que puedan vender a terceros. Hay que tener mucho cuidado con censurar a los usuarios humanos», concluyó.
EL FIN DEL MUNDO QUE HEMOS CONOCIDO
Aunque el libro hace un recorrido desde la antigüedad hasta nuestros días, gran parte de la presentación estuvo centrada en la IA y en su irrupción en nuestras sociedades. Yuval Noah Harari explicó cuál es la característica de la Inteligencia Artificial que la hace diferente de cualquier otra tecnología que hayamos conocido: «La inteligencia artificial es distinta porque no es una herramienta, es una agente, un agente independiente. Las armas atómicas tienen un gran poder, pero ese poder está en manos de seres humanos. La bomba como tal no puede desarrollar ninguna estrategia militar. La inteligencia artificial es distinta; puede tomar decisiones por sí misma». Harari puso el ejemplo de lo que está ocurriendo en los medios de comunicación y las redes sociales con la llegada de la IA: «En un periódico las decisiones más importantes las toma el editor, él es quien decide qué va a ir en primera página, cuál va a ser la portada. Ahora en algunas de las plataformas más importantes del mundo, como Facebook y Twitter, el papel del editor ha sido sustituido por la IA. Son los algoritmos los que deciden cuál es la historia recomendada y cuál es la que está más arriba del feed de noticias. Y además la IA también puede crear nuevas ideas por sí misma. Está fuera de nuestro control. Eso es lo que la hace distinta de cualquier revolución anterior».
«La IA actual es una ameba, pero que va a tener un desarrollo millones de veces más rápido que el que hemos necesitado nosotros» Uno de los temores más comunes entre los periodistas asistentes a la rueda de prensa era la capacidad de la IA para construir relatos como los humanos. Harari comentó acerca de este tema: «Los desarrollos más recientes de la IA nos muestran su capacidad para crear historias. Antes había IA para vigilar y destacar qué es lo que llamaba la atención, pero no escribía, ni hacía música ni generaba imágenes. Ahora sí puede hacerlo. Sé que hay gente que dice que esos textos no son muy buenos, partituras sin calidad, vídeos e imágenes con fallos, manos con seis dedos, pero debemos entender que estamos en los primeros pasos de una tecnología que sólo tiene diez años. No hemos visto nada todavía. Si hacemos un paralelismo con la evolución biológica, la IA actual es una ameba, pero que va a tener un desarrollo millones de veces más rápido que el que hemos necesitado nosotros. La IA va a pasar de ameba a dinosaurio en sólo diez o veinte años. Los textos de ChatGPT tienen errores, pero son párrafos, textos, ensayos que tienen sentido. Esto es algo con lo que muchos humanos tienen dificultades. Soy profesor de universidad y a muchos alumnos les cuesta elaborar un ensayo coherente enlazando diversos argumentos. La IA ya lo hace. Los artefactos culturales de los próximos años serán de una inteligencia alien. ¿Qué reacción provocará esto en la sociedad humana? Nadie lo sabe y esa es la gran pregunta»
UN HILITO DE ESPERANZA
La parte final de la comparecencia de Yuval Noah Harari estuvo marcada por la pregunta sobre la posibilidad de que haya algo de luz para esta situación. ¿Puede la IA aportar algo positivo a la humanidad? Su respuesta fue clara: «Sin duda. La IA tiene un potencial enorme. Y tampoco creo que todas las personas de Silicon Valley sean malvados. La IA puede proporcionarnos en los próximos años la mejor atención sanitaria. Hay una falta de médicos en todo el mundo, y la IA puede ofrecer una solución: vigilarnos las 24 horas del día, controlar nuestra presión arterial, tener toda nuestra información biológica… Y todo esto será mucho más barato, y será para todos, incluso para la gente más pobre y la que viva en zonas remotas». Luego puso otro ejemplo sobre las aplicaciones beneficiosas de la IA: «Cada año hay más de un millón de muertos en accidentes de tráfico, la mayoría causados por fallos humanos, muchos por gente que bebe alcohol cuando conduce. Si le das a la IA el control del tráfico con vehículos autónomos puede salvar un millón de vidas: la IA no se va a dormir al volante ni va a beber alcohol». El pensador israelí reconoció en ese momento del discurso que no habla demasiado de los aspectos positivos de la IA, aunque expresó que hay secciones de Nexus en las que sí se expone ese potencial beneficioso, pero, según declaró, hay un motivo para centrarse casi en exclusiva en los peligros: «Hay empresas muy ricas que inundan los medios y las plataformas con mensajes muy positivos sobre lo que va a hacer la IA y que tienden a ignorar los peligros. La labor de los filósofos, académicos y pensadores es centrarnos en la parte oscura, aunque eso no quiere decir que sólo haya peligros. No hay que detener esta evolución, lo que estamos diciendo es que hay que invertir más en seguridad. Se trata de aplicar el sentido común, igual que se hace en cualquier otra industria. El problema de la gente del sector de la IA es que están atrapados en una mentalidad de carrera armamentística: no quieren que nadie les gane en la persecución de avances. Y esto es muy peligroso».
«Ahora la filosofía puede empezar a debatir cuestiones muy prácticas»
Y llegados a este punto, ¿qué nos puede salvar? Yuval Noah Harari lo tiene claro: «La filosofía». «Durante miles de años los filósofos han debatido preguntas teóricas con poco impacto en la sociedad. Poca gente actúa conforme a una filosofía teórica, funcionamos más con las emociones que con las ideas intelectuales. Ahora la filosofía puede empezar a debatir cuestiones muy prácticas. Pongo un ejemplo: ¿qué tiene que hacer el algoritmo en el caso de que un vehículo autónomo vaya a atropellar a dos niños, y la única manera de evitar ese accidente es sacrificar al propietario del coche que está dormido en la parte de atrás? Esta es una pregunta práctica y hay que decirle a la IA qué hacer. Y esta cuestión no es sólo para ingenieros y matemáticos, también es para los filósofos. Todo esto entronca con los conceptos importantes del ser humano como el libre albedrío, el significado de la vida y sobre la necesidad de dar reconocimiento a las diferentes formas de IA como vidas con derechos y una categoría ética en nuestras sociedades».
Desde que salimos de la sala del cine, después de extraer la cinta de VHS del reproductor de vídeo, al apagar la televisión con el botón del control remoto, muchos sentimos la misma sensación: todos queríamos vivir lo que vivió el replicante Roy Batty. Quizás ha llegado el ansiado momento de ver naves de ataque en llamas más allá del hombro de Orión, rayos-C brillar en la oscuridad cerca de la Puerta de Tannhäuser. La IA ya está en nuestras vidas, es un proceso irreversible, y si, como advierte Yuval Noah Harari, no hacemos nada por regularla, por controlarla bajo el paraguas de la filosofía, nosotros seremos los que nos perderemos en el tiempo, los seres humanos nos convertiremos en esas lágrimas en la lluvia.
Entrevista y elaboración de Miguel Ángel Santamarina, desde El Bar de Zenda
Yuval Noah Harari es historiador, filósofo y autor de “Sapiens”, “Homo Deus” y de la serie infantil “Unstoppable Us”. Es profesor en el departamento de historia de la Universidad Hebrea de Jerusalén y cofundador de Sapienship, una empresa de impacto social.
Las computadoras que cuentan historias cambiarán el curso de la historia humana, dice el historiador y filósofo
Los oídos de la INTELIGENCIA ARTIFICIAL (IA) han perseguido a la humanidad desde el comienzo mismo de la era informática. Hasta ahora, estos temores se centraban en las máquinas que utilizan medios físicos para matar, esclavizar o reemplazar a las personas. Pero en los últimos años han surgido nuevas herramientas de IA que amenazan la supervivencia de la civilización humana desde una dirección inesperada. La IA ha adquirido algunas habilidades notables para manipular y generar lenguaje, ya sea con palabras, sonidos o imágenes. De este modo, la IA ha pirateado el sistema operativo de nuestra civilización.
El lenguaje es el material del que está hecha casi toda la cultura humana. Los derechos humanos, por ejemplo, no están inscritos en nuestro ADN. Son, más bien, artefactos culturales que creamos al contar historias y escribir leyes. Los dioses no son realidades físicas. Son, más bien, artefactos culturales que creamos al inventar mitos y escribir escrituras.
El dinero también es un artefacto cultural. Los billetes son sólo trozos de papel de colores y, en la actualidad, más del 90% del dinero ni siquiera son billetes, sino sólo información digital contenida en ordenadores. Lo que le da valor al dinero son las historias que nos cuentan sobre él los banqueros, los ministros de finanzas y los gurús de las criptomonedas. Sam Bankman-Fried, Elizabeth Holmes y Bernie Madoff no eran especialmente buenos a la hora de crear valor real, pero todos eran narradores de historias extremadamente capaces.
¿Qué sucedería una vez que una inteligencia no humana se volviera mejor que el ser humano promedio en contar historias, componer melodías, dibujar imágenes y escribir leyes y escrituras? Cuando la gente piensa en Chat GPT y otras nuevas herramientas de IA, a menudo se sienten atraídos por ejemplos como los niños en edad escolar que usan IA para escribir sus ensayos. ¿Qué pasará con el sistema escolar cuando los niños hagan eso? Pero este tipo de pregunta pasa por alto el panorama general. Olvídense de los ensayos escolares. Piensen en la próxima carrera presidencial estadounidense en 2024 e intenten imaginar el impacto de las herramientas de IA que se pueden utilizar para producir en masa contenido político, noticias falsas y escrituras para nuevos cultos.
En los últimos años, el culto Q Anon se ha agrupado en torno a mensajes anónimos en línea, conocidos como “Q drops”. Los seguidores recopilaban, reverenciaban e interpretaban estos Q drops como un texto sagrado. Si bien, hasta donde sabemos, todos los Q drops anteriores fueron compuestos por humanos y los bots simplemente ayudaron a difundirlos, en el futuro podríamos ver los primeros cultos de la historia cuyos textos reverenciados fueron escritos por una inteligencia no humana. A lo largo de la historia, las religiones han reivindicado una fuente no humana para sus libros sagrados. Pronto eso podría ser una realidad.
En un nivel más prosaico, pronto podríamos encontrarnos manteniendo largas discusiones en línea sobre el aborto, el cambio climático o la invasión rusa de Ucrania con entidades que creemos que son humanos, pero que en realidad son IA. El problema es que no tiene ningún sentido que perdamos tiempo tratando de cambiar las opiniones declaradas de un robot de IA, mientras que la IA podría perfeccionar sus mensajes con tanta precisión que tendría muchas posibilidades de influir en nosotros.
Gracias a su dominio del lenguaje, la IA podría incluso establecer relaciones íntimas con las personas y utilizar el poder de la intimidad para cambiar nuestras opiniones y visiones del mundo. Aunque no hay indicios de que la IA tenga conciencia o sentimientos propios, para fomentar una falsa intimidad con los humanos basta con que la IA pueda hacer que se sientan emocionalmente apegados a ella. En junio de 2022, Blake Lemoine, un ingeniero de Google, afirmó públicamente que el chatbot de IA La MDA, en el que estaba trabajando, se había vuelto consciente. La polémica afirmación le costó el trabajo. Lo más interesante de este episodio no fue la afirmación de Lemoine, que probablemente era falsa, sino su disposición a arriesgar su lucrativo trabajo por el bien del chatbot de IA. Si la IA puede influir en las personas para que arriesguen sus trabajos por ella, ¿qué más podría inducirlas a hacer?
En una batalla política por las mentes y los corazones, la intimidad es el arma más eficaz, y la IA acaba de adquirir la capacidad de producir en masa relaciones íntimas con millones de personas. Todos sabemos que, en la última década, las redes sociales se han convertido en un campo de batalla para controlar la atención humana. Con la nueva generación de IA, el frente de batalla está pasando de la atención a la intimidad. ¿Qué pasará con la sociedad y la psicología humanas cuando la IA luche contra la IA en una batalla para simular relaciones íntimas con nosotros, que luego puedan usarse para convencernos de votar a determinados políticos o comprar determinados productos?
Incluso sin crear una “falsa intimidad”, las nuevas herramientas de IA tendrían una influencia inmensa en nuestras opiniones y visiones del mundo. La gente podría llegar a utilizar un único asesor de IA como un oráculo omnisciente. No es de extrañar que Google esté aterrorizado. ¿Para qué molestarse en buscar, cuando puedo simplemente preguntarle al oráculo? Las industrias de las noticias y la publicidad también deberían estar aterrorizadas. ¿Para qué leer un periódico cuando puedo simplemente pedirle al oráculo que me diga las últimas noticias? ¿Y qué propósito tienen los anuncios, cuando puedo simplemente pedirle al oráculo que me diga qué comprar?
Y ni siquiera estos escenarios reflejan realmente el panorama general. De lo que estamos hablando es del posible fin de la historia humana. No del fin de la historia, sino sólo del fin de la parte dominada por los humanos. La historia es la interacción entre la biología y la cultura; entre nuestras necesidades y deseos biológicos de cosas como la comida y el sexo, y nuestras creaciones culturales, como las religiones y las leyes. La historia es el proceso a través del cual las leyes y las religiones dan forma a la comida y al sexo.
¿Qué pasará con el curso de la historia cuando la IA se apodere de la cultura y comience a producir historias, melodías, leyes y religiones? Las herramientas anteriores, como la imprenta y la radio, ayudaron a difundir las ideas culturales de los humanos, pero nunca crearon nuevas ideas culturales propias. La IA es fundamentalmente diferente. La IA puede crear ideas completamente nuevas, una cultura completamente nueva.
Al principio, la IA probablemente imitará los prototipos humanos con los que fue entrenada en sus inicios, pero con cada año que pase, la cultura de la IA se atreverá a ir adonde ningún ser humano ha ido antes. Durante milenios, los seres humanos han vivido dentro de los sueños de otros seres humanos. En las próximas décadas, podríamos encontrarnos viviendo dentro de los sueños de una inteligencia extraterrestre.
El miedo a la IA ha perseguido a la humanidad durante las últimas décadas, pero durante miles de años los humanos han estado acosados por un miedo mucho más profundo. Siempre hemos apreciado el poder de las historias y las imágenes para manipular nuestras mentes y crear ilusiones. En consecuencia, desde la antigüedad los humanos han temido quedar atrapados en un mundo de ilusiones.
En el siglo XVII René Descartes temía que tal vez un demonio maligno lo estuviera atrapando dentro de un mundo de ilusiones, creando todo lo que veía y escuchaba. En la antigua Grecia Platón contaba la famosa Alegoría de la Caverna, en la que un grupo de personas están encadenadas dentro de una cueva toda su vida, frente a una pared en blanco. Una pantalla. En esa pantalla ven proyectadas varias sombras. Los prisioneros confunden las ilusiones que ven allí con la realidad.
En la antigua India, los sabios budistas e hindúes señalaron que todos los seres humanos vivían atrapados en Maya, el mundo de las ilusiones. Lo que normalmente consideramos realidad, a menudo no son más que ficciones en nuestra propia mente. La gente puede librar guerras enteras, matar a otros y estar dispuesta a que los maten ellos mismos, debido a su creencia en esta o aquella ilusión.
La revolución de la inteligencia artificial nos está poniendo cara a cara con el demonio de Descartes, con la caverna de Platón, con los mayas. Si no tenemos cuidado, podemos quedar atrapados tras una cortina de ilusiones que no podemos arrancar, o que ni siquiera nos damos cuenta de que está ahí.
Por supuesto, el nuevo poder de la IA también podría utilizarse con fines benéficos. No me extenderé en este tema, porque quienes desarrollan la IA hablan de ello lo suficiente. El trabajo de los historiadores y filósofos como yo es señalar los peligros. Pero, sin duda, la IA puede ayudarnos de innumerables maneras, desde encontrar nuevas curas para el cáncer hasta descubrir soluciones a la crisis ecológica. La cuestión que se nos plantea es cómo asegurarnos de que las nuevas herramientas de la IA se utilicen para el bien y no para el mal. Para ello, primero tenemos que apreciar las verdaderas capacidades de estas herramientas.
Desde 1945 sabemos que la tecnología nuclear puede generar energía barata para beneficio de los seres humanos, pero también puede destruir físicamente la civilización humana. Por eso, hemos reestructurado todo el orden internacional para proteger a la humanidad y asegurarnos de que la tecnología nuclear se utilice principalmente para el bien. Ahora tenemos que hacer frente a una nueva arma de destrucción masiva que puede aniquilar nuestro mundo mental y social.
Todavía podemos regular las nuevas herramientas de IA, pero debemos actuar con rapidez. Mientras que las armas nucleares no pueden inventar armas nucleares más potentes, la IA puede crear IA exponencialmente más potente. El primer paso crucial es exigir controles de seguridad rigurosos antes de que se publiquen herramientas de IA potentes en el dominio público. Así como una empresa farmacéutica no puede lanzar nuevos medicamentos antes de probar sus efectos secundarios a corto y largo plazo, las empresas tecnológicas no deberían lanzar nuevas herramientas de IA antes de que se compruebe que son seguras. Necesitamos un equivalente de la Administración de Alimentos y Medicamentos para las nuevas tecnologías, y lo necesitamos para ayer.
¿No hará que la ralentización de la implementación pública de la IA haga que las democracias queden rezagadas respecto de regímenes autoritarios más despiadados? Todo lo contrario. La implementación descontrolada de la IA crearía un caos social que beneficiaría a los autócratas y arruinaría las democracias. La democracia es una conversación, y las conversaciones dependen del lenguaje. Cuando la IA piratea el lenguaje, podría destruir nuestra capacidad de mantener conversaciones significativas, destruyendo así la democracia.
Acabamos de encontrarnos con una inteligencia extraterrestre aquí en la Tierra. No sabemos mucho sobre ella, excepto que podría destruir nuestra civilización. Deberíamos poner fin al despliegue irresponsable de herramientas de IA en la esfera pública y regular la IA antes de que ella nos regule a nosotros. Y la primera regulación que sugeriría es hacer que sea obligatorio que la IA revele que es una IA . Si estoy manteniendo una conversación con alguien y no puedo distinguir si es un humano o una IA , ese es el fin de la democracia.
Este texto ha sido generado por un humano.
Fuentes
Yuval Noah Harari es historiador, filósofo y autor de “Sapiens”, “Homo Deus” y de la serie infantil “Unstoppable Us”. Es profesor en el departamento de historia de la Universidad Hebrea de Jerusalén y cofundador de Sapienship, una empresa de impacto social.
Inteligencia artificial – THE ECONOMIST. Original inglés.