Yuval Noah Harari, historiador y pensador tecnológico: «La IA es una amenaza sin precedentes para la Humanidad»

Yuval Noah Harari, historiador y pensador tecnológico: «La IA es una amenaza sin precedentes para la Humanidad»

Desde que Yuval Noah Harari publicase Sapiens: De animales a dioses, se ha consagrado como una de esas mentes preclaras a las que merece mucho la pena seguir con atención. En buena medida, esto se debe a la capacidad que tiene para enlazar el pasado con el presente sin caer necesariamente en argumentos teleológicos. Aunque, es historiador de formación, merece la pena mantener un ojo también en sus trabajos que no están vinculados con la historia, sino con la opinión actual.

Tecnología:

En este marco de actuación, Harari es bastante proclive a publicar artículos de opinión, así como a conceder interesantes entrevistas. En esta ocasión, es momento de recuperar un artículo suyo en The Guardian en el que alerta sobre los peligros existenciales de la IA y que forma parte de uno de sus últimos libros, Nexus. Aunque es cierto que algunos expertos señalan que no es ningún peligro.

Y es que, para Harari, la IA es un riesgo existencial absoluto para el ser humano, pudiendo poner en entredicho la capacidad que tenemos para seguir desarrollándonos.

Un riesgo ‘existencial’ para tener en cuenta:

La inteligencia artificial supone una amenaza sin precedentes para la humanidad, ya que es la primera tecnología en la historia capaz de tomar decisiones y generar nuevas ideas por sí misma. Todas las invenciones humanas anteriores han servido para potenciar a los seres humanos, puesto que, independientemente de cuán poderosa fuera la nueva herramienta, las decisiones sobre su uso siempre han quedado en nuestras manos. Las bombas nucleares no deciden por sí solas a quién matar, ni pueden mejorarse o inventar por sí mismas bombas aún más potentes – Yuval Noah Harari

El planteamiento de Harari no es extraño, ya que hemos leído en infinidad de ocasiones que la IA puede ser un verdadero problema para el ser humano más que un simple apoyo. De esta manera, le preocupa la posibilidad de que la IA tome decisiones por sí misma y sea capaz de crear algo nuevo. Algo que hasta ahora era imposible en ninguna de nuestras invenciones como especie, debido a que siempre ha sido decisión humana como utilizarlas. El problema es que la IA es la que decide.

Sam Altman, fundador de OpenAI, sobre un posible fin del mundo: «Ningúnbúnker te salvará si la IA se sale de control»

Sam Altman, fundador de OpenAI, sobre un posible fin del mundo: «Ningúnbúnker te salvará si la IA se sale de control»

Durante un tiempo, se ha ofrecido una visión del potencial destructivo de la Inteligencia Artificial. Sam Altman ha sido claro con esto: la IA puede ser problemática, pero también increíblemente constructiva

Sam Altman es, sin lugar a duda, uno de los personajes clave de esta década. Desde la irrupción global de ChatGPT en el mercado, las cosas no han hecho más que acelerarse año tras año con el éxito sin paliativos de los modelos de Inteligencia Artificial (IA). Sin embargo, también ha despertado un nuevo miedo, concretamente a un apocalipsis causado por la IA, motivo por el que muchos ricos se están comprando sus propios búnkers.

Tecnología:
Ahora, con la suerte de Guerra Fría que están librando los Estados Unidos y China, el miedo es aún mayor, sobre todo después de la irrupción de una IA china como es DeepSeek en el mercado global. Ahora que Sam Altman se encuentra en el candelero por sus enfrentamientos con Elon Musk que quiere comprar OpenAI, es turno de recuperar una entrevista que ofreció en el 2023, en los albores de la IA, en la que explicaba los peligros de la inteligencia artificial general (AGI) y como ningún búnker podría salvar a la humanidad si esta se escapara del control de los humanos.

Una AGI maligna y el fin de la Humanidad:
nuestro potencial transformador e inteligencia. Esto no es extraño, pero nunca hemos tenido que lidiar con una especie más inteligente que nosotros. El objetivo de la inteligencia artificial general es que lo sea, lo que genera algunos miedos. Los seres humanos nos hemos convertido en la especie dominante en buena medida por De esta manera, Altman aclaraba en el 2023 su visión sobre el potencial destructivo de la IA, aunque quiere evitar que esta situación llegue y seguir desarrollando la IA de una forma eficiente y segura para todos. Recientemente aseguraba haber estado en el lado equivocado de la historia.

error: Content is protected !!