Cómo debe responder el mundo a la Revolución de la Inteligencia Artificial

Estados y tecnología

7 Jun, 2023

7 Jun, 2023

Bremmer es columnista de asuntos exteriores y editor general de TIME. Es presidente de Eurasia Group, una consultora de riesgo político, y de GZERO Media, una empresa dedicada a brindar una cobertura inteligente y atractiva de asuntos internacionales. Enseña geopolítica aplicada en la Escuela de Asuntos Internacionales y Públicos de la Universidad de Columbia y su libro más reciente es El poder de la crisis.

El creciente desarrollo de la inteligencia artificial producirá avances médicos que salvarán y mejorarán miles de millones de vidas. Se convertirá en el motor de prosperidad más poderoso de la historia. Le dará a un número incalculable de personas, incluidas generaciones que aún no han nacido, herramientas poderosas que sus antepasados ​​​​nunca imaginaron. Pero los riesgos y desafíos que planteará la Inteligencia Artificial también se están volviendo claros, y ahora es el momento de comprenderlos y abordarlos. Aquí están los más grandes.

La salud de la democracia y los mercados libres depende del acceso a información precisa y verificable. En los últimos años, las redes sociales han hecho que sea más difícil distinguir los hechos de la ficción, pero los avances en IA desencadenarán legiones de bots que parecen mucho más humanos que los que hemos encontrado hasta la fecha. Las falsificaciones profundas de audio y video mucho más sofisticadas socavarán nuestra confianza (ya disminuida) en aquellos que sirven en el gobierno y aquellos que informan las noticias. En China, y más tarde en sus estados clientes, AI llevará el reconocimiento facial y otras herramientas que pueden usarse para la vigilancia estatal a niveles de sofisticación exponencialmente más altos.

Este problema se extiende más allá de nuestras instituciones, porque la producción de «IA generativa», inteligencia artificial que genera contenido escrito, visual y de otro tipo sofisticado en respuesta a las indicaciones de los usuarios, no se limita a las grandes empresas de tecnología. Cualquier persona con una computadora portátil y habilidades básicas de programación ya tiene acceso a modelos de IA mucho más poderosos que los que existían hace incluso unos meses y pueden producir volúmenes de contenido sin precedentes. Este desafío de proliferación está a punto de crecer exponencialmente, ya que millones de personas tendrán su propio GPT ejecutándose en datos en tiempo real disponibles en Internet. La revolución de la IA permitirá a los delincuentes, terroristas y otros malhechores codificar malware, crear armas biológicas, manipular los mercados financieros y distorsionar la opinión pública con una facilidad asombrosa.

La inteligencia artificial también puede exacerbar la desigualdad, dentro de las sociedades entre pequeños grupos con riqueza, acceso o habilidades especiales, así como entre naciones más ricas y pobres.

La Inteligencia Artificial creará agitación en la fuerza laboral. Sí los avances tecnológicos del pasado crearon principalmente más empleos de los que eliminaron, y aumentaron la productividad y la prosperidad en general, pero hay advertencias cruciales. Los trabajos creados por los grandes cambios tecnológicos en el lugar de trabajo exigen conjuntos de habilidades diferentes a los que han destruido, y la transición nunca es fácil. Los trabajadores deben ser reentrenados. Aquellos que no pueden volver a capacitarse deben estar protegidos por una red de seguridad social que varía en fuerza de un lugar a otro. Ambos problemas son costosos y nunca será fácil para los gobiernos y las empresas privadas ponerse de acuerdo sobre cómo compartir esta carga.

Más fundamentalmente todavía, el desplazamiento creado por la Inteligencia Artificia; ocurrirá de manera más amplia y mucho más rápida que las transiciones del pasado. La agitación de la transición generará agitación económica y, por lo tanto, política en todo el mundo.

Finalmente, la revolución de la IA también impondrá un costo emocional y espiritual. Los seres humanos son animales sociales. Prosperamos en la interacción con los demás y nos marchitamos en el aislamiento. Con demasiada frecuencia, los bots reemplazarán a los humanos como compañeros de muchas personas, y para cuando los científicos y los médicos comprendan el impacto a largo plazo de esta tendencia, nuestra creciente dependencia de la inteligencia artificial, incluso para la compañía, puede ser irreversible. Este puede ser el desafío más importante de la IA.

La respuesta:

Desafíos como estos exigirán una respuesta global. Hoy en día, la inteligencia artificial no está regulada por funcionarios gubernamentales sino por empresas de tecnología. La razón es simple: no puedes crear reglas para un juego que no entiendes. Pero confiar en las empresas de tecnología para regular sus productos no es un plan sostenible. Existen principalmente para obtener ganancias, no para proteger a los consumidores, las naciones o el planeta. Es un poco como dejar que las empresas de energía lideren las estrategias para combatir el cambio climático, excepto que el calentamiento y sus peligros ya se entienden de una manera que no se entienden los riesgos de la IA, lo que nos deja sin grupos de presión que puedan ayudar a forzar la adopción de políticas inteligentes y saludables.

Entonces, ¿dónde están las soluciones? Necesitaremos acción nacional, cooperación global y cierta cooperación con sentido común de los gobiernos de EE. UU. y China, en particular.

Siempre será más fácil lograr una política bien coordinada dentro de los gobiernos nacionales que a nivel internacional, pero los líderes políticos tienen sus propias prioridades. En Washington, los formuladores de políticas se han centrado principalmente en ganar una carrera con China para desarrollar los productos tecnológicos que mejor respalden la seguridad y la prosperidad del siglo XXI, y eso los ha alentado a dar a las empresas tecnológicas que sirven al interés nacional algo parecido a la libertad. Los legisladores chinos, temerosos de que las herramientas de inteligencia artificial puedan socavar su autoridad política, han regulado de manera mucho más agresiva. Los legisladores europeos se han centrado menos en la seguridad o las ganancias que en el impacto social de los avances de la IA.

Pero todos tendrán que establecer reglas en los próximos años que limiten la capacidad de los bots de IA para socavar las instituciones políticas, los mercados financieros y la seguridad nacional. Eso significa identificar y rastrear a los malos actores, así como ayudar a las personas a separar la información real de la falsa. Desafortunadamente, estos son pasos grandes, costosos y complicados que los legisladores probablemente no tomen hasta que se enfrenten a crisis generadas por IA (pero reales). Eso no puede suceder hasta que comience la discusión y el debate sobre estos temas.

A diferencia del cambio climático, los gobiernos del mundo aún no han acordado que la revolución de la IA plantea un desafío transfronterizo existencial. Aquí, las Naciones Unidas tienen un papel que desempeñar como la única institución con el poder de convocatoria para desarrollar un consenso mundial. Un enfoque de la IA liderado por las Naciones Unidas nunca será la respuesta más eficiente, pero ayudará a lograr un consenso sobre la naturaleza del problema y aunar recursos internacionales.

Al forjar un acuerdo sobre qué riesgos son más probables, más impactantes y emergentes más rápidamente, un equivalente centrado en la IA del Panel Intergubernamental sobre el Cambio Climático puede regular las reuniones y la producción de acuerdos sobre el «Estado de la IA» que profundizan cada vez más en el corazón. de amenazas relacionadas con la IA. Al igual que con el cambio climático, este proceso también deberá incluir la participación de funcionarios de políticas públicas, científicos, tecnólogos, delegados del sector privado y activistas individuales que representen a la mayoría de los estados miembros para crear un proceso COP (Conferencia de las Partes) para abordar las amenazas a bioseguridad, libertad de información, salud de la fuerza laboral, etc. También podría haber una agencia de inteligencia artificial inspirada en la Agencia Internacional de Energía Atómica para ayudar a vigilar la proliferación de IA.

Dicho esto, no hay forma de abordar los riesgos de rápida metástasis creados por la revolución de la IA sin una infusión de sentido común muy necesario en las relaciones entre EE. UU. y China. Después de todo, es la competencia tecnológica entre los dos países y sus principales empresas tecnológicas lo que crea el mayor riesgo de guerra, especialmente porque la IA juega un papel cada vez mayor en las armas y la planificación militar.

Beijing y Washington deben desarrollar y mantener conversaciones al más alto nivel sobre las amenazas emergentes para ambos países (y el mundo) y la mejor manera de contenerlas. Y no pueden esperar a que una versión de IA de la Crisis de los Misiles Cubanos los obligue a lograr una transparencia genuina en el manejo de su competencia. Para crear un «acuerdo de control de armas de IA» con monitoreo y verificación mutuos, cada gobierno debe escucharse no solo entre sí, sino también a los tecnólogos de ambos lados que entienden los riesgos que deben contenerse.

¿Descabellado? Absolutamente. El momento es terrible, porque estos avances llegan en un momento de intensa competencia entre dos países poderosos que realmente no confían el uno en el otro.

Pero si los estadounidenses y los soviéticos pudieron construir una infraestructura de control de armas en funcionamiento en las décadas de 1970 y 1980, EE. UU. y China pueden construir un equivalente para el siglo XXI. Esperemos que se den cuenta de que no tienen otra opción antes de que una catástrofe lo haga inevitablemente obvio.

Equipo de análisis del Laboratorio del Futuro/Revista Time (Inglaterra). Artículo de Ian Bremmer. Traducción del inglés: equipo de traducción e interpretación del Laboratorio del Futuro.

Autor: Equipo de análisis de Laboratorio del Futuro

Autor: Equipo de análisis de Laboratorio del Futuro

Artículos relacionados

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

error: Content is protected !!