Yuval Noah Harari sostiene que la IA ha hackeado el sistema operativo de la civilización humana

Autor: Yuval Noah Harari

Yuval Noah Harari es historiador, filósofo y autor de “Sapiens”, “Homo Deus” y de la serie infantil “Unstoppable Us”. Es profesor en el departamento de historia de la Universidad Hebrea de Jerusalén y cofundador de Sapienship, una empresa de impacto social.

Inteligencia artificial

2 Jun, 2024

2 Jun, 2024

Las computadoras que cuentan historias cambiarán el curso de la historia humana, dice el historiador y filósofo

Los oídos de la INTELIGENCIA ARTIFICIAL (IA) han perseguido a la humanidad desde el comienzo mismo de la era informática. Hasta ahora, estos temores se centraban en las máquinas que utilizan medios físicos para matar, esclavizar o reemplazar a las personas. Pero en los últimos años han surgido nuevas herramientas de IA que amenazan la supervivencia de la civilización humana desde una dirección inesperada. La IA ha adquirido algunas habilidades notables para manipular y generar lenguaje, ya sea con palabras, sonidos o imágenes. De este modo, la IA ha pirateado el sistema operativo de nuestra civilización.

El lenguaje es el material del que está hecha casi toda la cultura humana. Los derechos humanos, por ejemplo, no están inscritos en nuestro ADN. Son, más bien, artefactos culturales que creamos al contar historias y escribir leyes. Los dioses no son realidades físicas. Son, más bien, artefactos culturales que creamos al inventar mitos y escribir escrituras.

El dinero también es un artefacto cultural. Los billetes son sólo trozos de papel de colores y, en la actualidad, más del 90% del dinero ni siquiera son billetes, sino sólo información digital contenida en ordenadores. Lo que le da valor al dinero son las historias que nos cuentan sobre él los banqueros, los ministros de finanzas y los gurús de las criptomonedas. Sam Bankman-Fried, Elizabeth Holmes y Bernie Madoff no eran especialmente buenos a la hora de crear valor real, pero todos eran narradores de historias extremadamente capaces.

¿Qué sucedería una vez que una inteligencia no humana se volviera mejor que el ser humano promedio en contar historias, componer melodías, dibujar imágenes y escribir leyes y escrituras? Cuando la gente piensa en Chat GPT y otras nuevas herramientas de IA, a menudo se sienten atraídos por ejemplos como los niños en edad escolar que usan IA para escribir sus ensayos. ¿Qué pasará con el sistema escolar cuando los niños hagan eso? Pero este tipo de pregunta pasa por alto el panorama general. Olvídense de los ensayos escolares. Piensen en la próxima carrera presidencial estadounidense en 2024 e intenten imaginar el impacto de las herramientas de IA que se pueden utilizar para producir en masa contenido político, noticias falsas y escrituras para nuevos cultos.

En los últimos años, el culto Q Anon se ha agrupado en torno a mensajes anónimos en línea, conocidos como “Q drops”. Los seguidores recopilaban, reverenciaban e interpretaban estos Q drops como un texto sagrado. Si bien, hasta donde sabemos, todos los Q drops anteriores fueron compuestos por humanos y los bots simplemente ayudaron a difundirlos, en el futuro podríamos ver los primeros cultos de la historia cuyos textos reverenciados fueron escritos por una inteligencia no humana. A lo largo de la historia, las religiones han reivindicado una fuente no humana para sus libros sagrados. Pronto eso podría ser una realidad.

En un nivel más prosaico, pronto podríamos encontrarnos manteniendo largas discusiones en línea sobre el aborto, el cambio climático o la invasión rusa de Ucrania con entidades que creemos que son humanos, pero que en realidad son IA. El problema es que no tiene ningún sentido que perdamos tiempo tratando de cambiar las opiniones declaradas de un robot de IA, mientras que la IA podría perfeccionar sus mensajes con tanta precisión que tendría muchas posibilidades de influir en nosotros.

Gracias a su dominio del lenguaje, la IA podría incluso establecer relaciones íntimas con las personas y utilizar el poder de la intimidad para cambiar nuestras opiniones y visiones del mundo. Aunque no hay indicios de que la IA tenga conciencia o sentimientos propios, para fomentar una falsa intimidad con los humanos basta con que la IA pueda hacer que se sientan emocionalmente apegados a ella. En junio de 2022, Blake Lemoine, un ingeniero de Google, afirmó públicamente que el chatbot de IA La MDA, en el que estaba trabajando, se había vuelto consciente. La polémica afirmación le costó el trabajo. Lo más interesante de este episodio no fue la afirmación de Lemoine, que probablemente era falsa, sino su disposición a arriesgar su lucrativo trabajo por el bien del chatbot de IA. Si la IA puede influir en las personas para que arriesguen sus trabajos por ella, ¿qué más podría inducirlas a hacer?

En una batalla política por las mentes y los corazones, la intimidad es el arma más eficaz, y la IA acaba de adquirir la capacidad de producir en masa relaciones íntimas con millones de personas. Todos sabemos que, en la última década, las redes sociales se han convertido en un campo de batalla para controlar la atención humana. Con la nueva generación de IA, el frente de batalla está pasando de la atención a la intimidad. ¿Qué pasará con la sociedad y la psicología humanas cuando la IA luche contra la IA en una batalla para simular relaciones íntimas con nosotros, que luego puedan usarse para convencernos de votar a determinados políticos o comprar determinados productos?

Incluso sin crear una “falsa intimidad”, las nuevas herramientas de IA tendrían una influencia inmensa en nuestras opiniones y visiones del mundo. La gente podría llegar a utilizar un único asesor de IA como un oráculo omnisciente. No es de extrañar que Google esté aterrorizado. ¿Para qué molestarse en buscar, cuando puedo simplemente preguntarle al oráculo? Las industrias de las noticias y la publicidad también deberían estar aterrorizadas. ¿Para qué leer un periódico cuando puedo simplemente pedirle al oráculo que me diga las últimas noticias? ¿Y qué propósito tienen los anuncios, cuando puedo simplemente pedirle al oráculo que me diga qué comprar?

Y ni siquiera estos escenarios reflejan realmente el panorama general. De lo que estamos hablando es del posible fin de la historia humana. No del fin de la historia, sino sólo del fin de la parte dominada por los humanos. La historia es la interacción entre la biología y la cultura; entre nuestras necesidades y deseos biológicos de cosas como la comida y el sexo, y nuestras creaciones culturales, como las religiones y las leyes. La historia es el proceso a través del cual las leyes y las religiones dan forma a la comida y al sexo.

¿Qué pasará con el curso de la historia cuando la IA se apodere de la cultura y comience a producir historias, melodías, leyes y religiones? Las herramientas anteriores, como la imprenta y la radio, ayudaron a difundir las ideas culturales de los humanos, pero nunca crearon nuevas ideas culturales propias. La IA es fundamentalmente diferente. La IA puede crear ideas completamente nuevas, una cultura completamente nueva.

Al principio, la IA probablemente imitará los prototipos humanos con los que fue entrenada en sus inicios, pero con cada año que pase, la cultura de la IA se atreverá a ir adonde ningún ser humano ha ido antes. Durante milenios, los seres humanos han vivido dentro de los sueños de otros seres humanos. En las próximas décadas, podríamos encontrarnos viviendo dentro de los sueños de una inteligencia extraterrestre.

El miedo a la IA ha perseguido a la humanidad durante las últimas décadas, pero durante miles de años los humanos han estado acosados ​​por un miedo mucho más profundo. Siempre hemos apreciado el poder de las historias y las imágenes para manipular nuestras mentes y crear ilusiones. En consecuencia, desde la antigüedad los humanos han temido quedar atrapados en un mundo de ilusiones.

En el siglo XVII René Descartes temía que tal vez un demonio maligno lo estuviera atrapando dentro de un mundo de ilusiones, creando todo lo que veía y escuchaba. En la antigua Grecia Platón contaba la famosa Alegoría de la Caverna, en la que un grupo de personas están encadenadas dentro de una cueva toda su vida, frente a una pared en blanco. Una pantalla. En esa pantalla ven proyectadas varias sombras. Los prisioneros confunden las ilusiones que ven allí con la realidad.

En la antigua India, los sabios budistas e hindúes señalaron que todos los seres humanos vivían atrapados en Maya, el mundo de las ilusiones. Lo que normalmente consideramos realidad, a menudo no son más que ficciones en nuestra propia mente. La gente puede librar guerras enteras, matar a otros y estar dispuesta a que los maten ellos mismos, debido a su creencia en esta o aquella ilusión.

La revolución de la inteligencia artificial nos está poniendo cara a cara con el demonio de Descartes, con la caverna de Platón, con los mayas. Si no tenemos cuidado, podemos quedar atrapados tras una cortina de ilusiones que no podemos arrancar, o que ni siquiera nos damos cuenta de que está ahí.

Por supuesto, el nuevo poder de la IA también podría utilizarse con fines benéficos. No me extenderé en este tema, porque quienes desarrollan la IA hablan de ello lo suficiente. El trabajo de los historiadores y filósofos como yo es señalar los peligros. Pero, sin duda, la IA puede ayudarnos de innumerables maneras, desde encontrar nuevas curas para el cáncer hasta descubrir soluciones a la crisis ecológica. La cuestión que se nos plantea es cómo asegurarnos de que las nuevas herramientas de la IA se utilicen para el bien y no para el mal. Para ello, primero tenemos que apreciar las verdaderas capacidades de estas herramientas.

Desde 1945 sabemos que la tecnología nuclear puede generar energía barata para beneficio de los seres humanos, pero también puede destruir físicamente la civilización humana. Por eso, hemos reestructurado todo el orden internacional para proteger a la humanidad y asegurarnos de que la tecnología nuclear se utilice principalmente para el bien. Ahora tenemos que hacer frente a una nueva arma de destrucción masiva que puede aniquilar nuestro mundo mental y social.

Todavía podemos regular las nuevas herramientas de IA, pero debemos actuar con rapidez. Mientras que las armas nucleares no pueden inventar armas nucleares más potentes, la IA puede crear IA exponencialmente más potente. El primer paso crucial es exigir controles de seguridad rigurosos antes de que se publiquen herramientas de IA potentes en el dominio público. Así como una empresa farmacéutica no puede lanzar nuevos medicamentos antes de probar sus efectos secundarios a corto y largo plazo, las empresas tecnológicas no deberían lanzar nuevas herramientas de IA antes de que se compruebe que son seguras. Necesitamos un equivalente de la Administración de Alimentos y Medicamentos para las nuevas tecnologías, y lo necesitamos para ayer.

¿No hará que la ralentización de la implementación pública de la IA haga que las democracias queden rezagadas respecto de regímenes autoritarios más despiadados? Todo lo contrario. La implementación descontrolada de la IA crearía un caos social que beneficiaría a los autócratas y arruinaría las democracias. La democracia es una conversación, y las conversaciones dependen del lenguaje. Cuando la IA piratea el lenguaje, podría destruir nuestra capacidad de mantener conversaciones significativas, destruyendo así la democracia.

Acabamos de encontrarnos con una inteligencia extraterrestre aquí en la Tierra. No sabemos mucho sobre ella, excepto que podría destruir nuestra civilización. Deberíamos poner fin al despliegue irresponsable de herramientas de IA en la esfera pública y regular la IA antes de que ella nos regule a nosotros. Y la primera regulación que sugeriría es hacer que sea obligatorio que la IA revele que es una IA . Si estoy manteniendo una conversación con alguien y no puedo distinguir si es un humano o una IA , ese es el fin de la democracia.

Este texto ha sido generado por un humano.

Fuentes

Yuval Noah Harari es historiador, filósofo y autor de “Sapiens”, “Homo Deus” y de la serie infantil “Unstoppable Us”. Es profesor en el departamento de historia de la Universidad Hebrea de Jerusalén y cofundador de Sapienship, una empresa de impacto social.

Inteligencia artificial – THE ECONOMIST. Original inglés.

Traducido por Traducido por Equipo de Future Lab

Autor: Yuval Noah Harari

Autor: Yuval Noah Harari

Yuval Noah Harari es historiador, filósofo y autor de “Sapiens”, “Homo Deus” y de la serie infantil “Unstoppable Us”. Es profesor en el departamento de historia de la Universidad Hebrea de Jerusalén y cofundador de Sapienship, una empresa de impacto social.

Artículos relacionados

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

error: Content is protected !!