Inteligencia Artificial XV Mesa de El Confidencial – Trabajo

Inteligencia Artificial XV Mesa de El Confidencial – Trabajo

EL AUGE DE LA INTELIGENCIA ARTIFICIAL. PODRA LA AUTOMATIZACION REDEFINIR EL MERCADO LABORAL SIN DEJAR A NADIE atrás?

Los expertos creen que la IA automatizará parcialmente los empleos afectados, mientras fomentará la aparición de nuevos perfiles profesionales. En paralelo, será necesario abordar desafíos como la recualificación profesional o la cuestión ética.

Casi todas las actividades profesionales tienen procesos que pueden automatizarse para lograr más eficiencia. Si bien la utilización de tecnología no es algo nuevo en ningún sector, sí se está produciendo una generalización cada vez mayor en el uso de la inteligencia artificial (IA) con el objetivo de ahorrar tiempos y costos, a la vez que se aumenta la productividad.

Recientemente, con la irrupción a nivel usuario de la IA generativa — como el ChatGPT —, esta tendencia afecta casi por igual a los empleos intelectuales y a aquellos que requieren mayor esfuerzo físico. Ante esta nueva realidad del entorno laboral, ya afloran voces a favor y en contra de la robotización por su impacto en el mercado profesional. Al mismo tiempo, también ganan espacio en el debate público las reflexiones sobre cómo formar a los trabajadores o qué implicaciones éticas tiene esta convivencia entre humanos y máquinas inteligentes.

La relevancia del momento histórico demanda un continuo intercambio de opiniones acreditadas, razón por la que, con esta premisa por bandera, El Confidencial organizó una mesa redonda que tuvo por título El futuro del trabajo: automatización para más y mejor empleo. El panel de expertos contó con representantes de empresas afectadas por la robotización y el uso de la IA, compañías tecnológicas y académicos expertos en la materia. De esta forma, los participantes en la tertulia fueron Iñaki Ugarte, director general de Operaciones de Primera Milla de Amazon en España; Belén Martín, vicepresidenta Cloud Híbrida de IBM Consulting; Manuel Espiñeira, director de Soluciones Digital Business Technologies en Minsait, compañía de Indra, e Ignacio López Sánchez, catedrático de Organización de Empresas de la Universidad Complutense de Madrid (UCM).

Para contextualizar y entender de dónde viene el boom de la automatización, Iñaki Ugarte enumeró “tres factores» que han acelerado su penetración: «Las nuevas tecnologías de la mano de la era digital y el big data, las generaciones Millenial y Z como trabajadores migrantes o nativos digitales y el contexto internacional que, tras la pandemia y el complejo panorama geoestratégico, está obligando a relocalizar la industria”. Respecto a la cuestión de si la robotización eliminará puestos de trabajo, tuvo clara su respuesta: «Lejos de que haya menos trabajo para las personas, realmente se están creando nuevos puestos».

La duda lógica es qué tipo de empleos se están generando con la irrupción de la IA en los entornos laborales. En este sentido, fue Belén Martín quien aportó ejemplos: “Solo en los últimos tres meses, han aparecido dos perfiles que lo están revolucionando todo. Uno de ellos es el prompt engineer, personas especializadas en preguntar a las inteligencias artificiales — funcionan como una especie de instructor — y cuya traducción al español podría ser ingeniero de peticiones. El otro es el entrenador ético de algoritmos, y su función es evitar los sesgos sociales”. La vicepresidenta Cloud Híbrida de IBM Consulting aclaró que “a pesar de que parecen perfiles relacionados únicamente con las disciplinas CTIM — ciencia, tecnología, ingeniería y matemáticas — igualmente hay perfiles de letras como lingüistas o filósofos, lo que abre un abanico de posibilidades ilimitado”, remarcó.

«En los últimos tres meses han aparecido perfiles como el ‘prompt engineer’ y el entrenador ético de algoritmos», Belén Martín (IBM)

Por su parte, desde Minsait, empresa filial de Indra, consideran que “la automatización será parcial en la mayoría de los puestos de trabajo”, tal y como especificó su portavoz en la tertulia. “Aproximadamente, el 60% de los puestos tiene posibilidades de automatización en parte de sus tareas, pero solo el 7% de ellos es realmente automatizable en más de un 50% de sus procesos”, matizó Manuel Espiñeira para después recordar que “en la década de 1950, existía en EE. UU. un catálogo de puestos de trabajo susceptibles de desaparecer con la automatización de aquel entonces. El listado incluía 270 empleos y, sin embargo, tan solo desapareció la profesión de ascensorista”. Para exponer en mayor detalle su previsión de futuro, concretó que “la clave es la calidad del análisis de la información que puede hacer un profesional con mecanismos de IA, ya que le permite tomar decisiones de alto nivel como puede ser un mejor diagnóstico en el caso de un médico. No obstante, esto evidencia que los médicos continuarán existiendo como profesión”, aseguró.

Con este punto de vista coincidió Ignacio López Sánchez. Para el catedrático de Organización de Empresas de la Universidad Complutense de Madrid “hay determinados puestos de trabajo que tienen un porcentaje relativamente elevado de tareas repetitivas y, por lo tanto, automatizables, pero otros no tanto. Esto obligará a las empresas a reorganizar y definir nuevos perfiles que, en algunos casos, tengan como copilotos a inteligencias artificiales”, destacó. Asimismo, el profesor lanzó un guante recogido por el resto de los participantes en el coloquio: “¿Seremos capaces de dar a los trabajadores la formación adecuada para desempeñar estas nuevas tareas que vienen? Y lo que es más importante: ¿Qué haremos con las personas cuyos puestos desaparecerán? ¿Podrán ser recicladas y formadas para ejercer en los nuevos perfiles?”, preguntó.

Recualificación, flexibilidad educativa y supervisión ética:

Bajo la perspectiva de Iñaki Ugarte, “cada vez que aparece una nueva tecnología disruptiva, se plantean las mismas cuestiones y la respuesta debe ser contundente: no se puede dejar a nadie atrás”, subrayó. “Pero la cuestión del reeskilling tiene un hándicap —continuó—, y es el sistema educativo, ya que le falta agilidad a la hora de adaptarse a las nuevas necesidades”. Belén Martín se mostró coincidente y confirmó que “reentrenar a los trabajadores es, efectivamente, la única forma de mantener esos puestos de trabajo afectados y, además, apostar por ellos mediante la formación es algo que genera sentido de pertenencia, lo que es realmente útil dentro de la empresa”, señaló.

«El 60% de los empleos automatizará parte de sus tareas, pero solo el 7% lo hará en más de un 50% de sus procesos», Manuel Espiñeira (Minsait)

Para evidenciar el cuórum en este tema, también Manuel Espiñeira apuntó que “el currículo académico requiere más flexibilidad, especialmente cuando afecta a nuevas tecnologías”. “Hasta el momento, el sistema universitario enseña a pensar, pero son las empresas las que enseñan a poner en práctica lo aprendido”, precisó. Este razonamiento lo completó su compañero de tertulia López Sánchez cuando reivindicó que “las adaptaciones deberían ser rápidas, así como la identificación de qué puestos se demandan. Esto no lo podemos hacer desde el entorno académico, son las compañías las que deben poner encima de la mesa sus necesidades como generadoras de riqueza y empleo que son y comunicárselo a las universidades. Aun así — insistió el catedrático de la UCM —, continuará existiendo, al menos por el momento, el problema de que las enseñanzas regladas son especialmente difíciles de modificar en España y Europa”.

En el último tramo del debate se coló un tema clásico cuando se habla de automatización e IA: las implicaciones éticas. “Se ha demostrado que cuando se entrenan inteligencias artificiales se trasladan los sesgos sociales que tenemos los seres humanos. Quedan huellas del desarrollador en la propia tecnología. Existen muchos ejemplos en las últimas décadas. Uno de los mayores desafíos es, precisamente, garantizar que esto no suceda”, admitió Belén Martín. Como solución a este problema, Iñaki Ugarte aconsejó “utilizar a las personas como herramientas, es decir, conformar grupos variados y representativos en los que la diversidad social esté garantizada para evitar la traslación de sesgos a la IA”.

Otra solución complementaria, esta vez apuntada por Ignacio López Sánchez, es “crear organismos supervisores, como ya sucede en otros ámbitos donde existen entidades como la Comisión Nacional del Mercado de Valores o el Banco Central Europeo, por ejemplo. Eso sí, se trataría de supervisar, no de regular”. Suscribió sus palabras Manuel Espiñeira y añadió que “la regulación excesiva puede limitar el propio desarrollo de la IA y otras tecnologías asociadas”. Para concluir, el experto de Minsait explicó que “el verdadero desafío es alcanzar un punto de equilibrio en materia de regulación”.

Equipo de análisis del Laboratorio del Futuro. Encuentro – Mesa Redonda del Diario El Confidencial, España – Tema: El auge de la IA: ¿Podrá la automatización redefinir el mercado laboral sin dejar a nadie atrás?

Inteligencia Artificial XIV Una vision filosofica

Inteligencia Artificial XIV Una vision filosofica

UNA VISION FILOSOFICA DE LA INTELIGENCIA ARTIFICIAL. “DEMOCRACIAS DEBILES, CAPITALISMO E INTELIGENCIA ARTIFICIAL SON UNA COMBINACION PELIGROSA”

Mark Coeckelbergh: “Democracias débiles, capitalismo e inteligencia artificial son una combinación peligrosa”. El filósofo apunta que las instituciones tienen que recurrir a los expertos para regular la tecnología, pero sin olvidar a los ciudadanos.

Mark Coeckelbergh ha centrado la atención de un público poco acostumbrado a debates filosóficos: alumnos de ingeniería han llenado una sala para escuchar a este experto en ética de la tecnología, invitado por el Instituto de Robótica e Informática Industrial de la Universitat Politècnica de Catalunya. Coeckelberg, autor prolífico — dos de sus libros están editados en español por Cátedra, Ética de la inteligencia artificial (2021) y Filosofía política de la inteligencia artificial (2023) — sabe lo importante que es construir puentes entre los que desarrollan tecnologías y los que tienen que pensar cómo usarlas.

Pregunta. ¿Cree que estudiantes, ingenieros y las grandes tecnológicas tienen en cuenta los aspectos éticos de la inteligencia artificial (IA)?

Respuesta. La gente sí es consciente de que esta tecnología afectará a nuestras vidas, porque ya está en todas partes, pero a la vez estamos confundidos porque los cambios son muy rápidos y complejos. Por eso creo que es importante que desde la educación y la investigación se haga lo posible para buscar un camino interdisciplinar, entre la filosofía, la programación y la robótica, para tratar de resolver estos problemas éticos.

Pregunta. ¿Y con la política?

Respuesta. Sí, tenemos que crear más vínculos entre los expertos y los políticos, pero que no solo cuente la opinión técnica. Hay que ver cómo podemos organizar nuestra democracia para tener la visión de los expertos y, aun así, decidir nosotros. Las empresas tecnológicas tienen cada vez más poder, y esto es un problema, porque la soberanía de las naciones y ciudades va menguando. ¿Cuánto de nuestro futuro tecnológico hay que dejarlo en manos de iniciativas privadas, y cuánto tiene que ser público y controlado por las democracias?

Pregunta. ¿La inteligencia artificial es una amenaza para la democracia, o es que las democracias ya están debilitadas?

Respuesta. La democracia ya es vulnerable, porque realmente no tenemos democracias completas. Es como cuando le preguntaron a Gandhi qué pensaba de la civilización occidental y dijo que era una buena idea. Lo mismo con la democracia: es una buena idea, pero no la tenemos completa. Para mí no es suficiente con votar y que salgan mayorías, es demasiado vulnerable para el populismo, no es suficientemente participativa y no toma en serio a los ciudadanos. Falta educación y conocimiento para lograr una democracia real, y es lo mismo que falta en la tecnología. La gente tiene que entender que la tecnología también es política, y que hay que preguntarse si es bueno para la democracia que infraestructuras de la comunicación como Twitter estén en manos privadas.

Usamos la tecnología de forma acrítica, y mientras unos pocos tienen beneficios, al resto nos ordeñan por los datos

Pregunta. ¿En qué sentido amenaza la inteligencia artificial a la democracia?

Respuesta. Lidiamos con la tecnología sin pensar, la usamos acríticamente, pero ella nos da forma y nos usa como instrumentos para el poder, el control y la explotación de nuestros datos. Y mientras unos pocos tienen beneficios, al resto nos ordeñan por los datos. Esto afecta a las democracias, ya que, al no ser muy resilientes, las tendencias políticas aún se polarizan más con la tecnología. Esta combinación de democracias débiles, capitalismo e inteligencia artificial es peligrosa. Pero sí que creo que se puede usar de una forma más constructiva, para mejorar la vida de todos y no solo de unos pocos.

Pregunta. Unos ven la inteligencia artificial para trabajar menos y tener más libertad, y otros como una amenaza a sus trabajos.

Respuesta. Creo que la Inteligencia Artificial ahora mismo empodera a quien ya tiene una posición privilegiada o una buena educación: por ejemplo, pueden usarla para empezar una compañía. Pero habrá cambios en el empleo, habrá cierta transformación de la economía, y hay que prepararse. Por otro lado, el argumento de que la tecnología hace las cosas más fáciles… Hasta ahora, ha dado lugar a trabajos precarios, como los conductores de Uber, y a trabajos que pueden ser buenos, pero son estresantes. Por ejemplo, todos somos esclavos del correo electrónico, y llegó como una solución.

Pregunta. Así que el problema no es tanto la tecnología como el sistema.

Respuesta. Es la combinación de las dos cosas, pero efectivamente, estas nuevas posibilidades tecnológicas nos fuerzan a preguntarnos más que nunca sobre el sistema. Hoy en día es en el ámbito de la tecnología donde se juega el conflicto político.

Pregunta. ¿Qué impacto tiene en los medios de comunicación?

Respuesta. En este entorno, el problema no es que la gente se crea una mentira, sino que no sepa qué es mentira y qué es verdad. El periodismo de calidad es muy importante para dar contexto y para intentar entender el mundo. Creo que puede ayudar a que la gente tenga más conocimiento, incluso si se usa la Inteligencia Artificial para algunas tareas del oficio. Filósofos, periodistas, educadores, tenemos que dar las herramientas para interpretar el mundo, porque cuando falta el conocimiento y reina la confusión, es más fácil que venga un líder con una solución simple y populista, como ya ha ocurrido en algunos países de Europa.

Pregunta. ¿La tecnología puede hacer que los gobiernos se vuelvan más tecnócratas?

Respuesta. Los políticos están confundidos, sienten la presión de los lobbies y crean marcos regulatorios, pero el ciudadano en ningún momento ha tenido nada que decir. Los Estados se vuelven cada vez más burocráticos, porque dan el poder a quien controla la inteligencia artificial. Entonces, ¿quién es el responsable? Este tipo de sistemas, como dijo Hannah Arendt, lleva a los horrores. Debemos luchar contra ello, con regulaciones que permitan ver por qué los algoritmos toman las decisiones que toman, y que permitan saber quién es el responsable.

Equipo de análisis del Laboratorio del Futuro. Artículo/Reportaje de Josep Cata Figuls.

Inteligencia Artificial XIII Laboratorio de Regulacion de China

Inteligencia Artificial XIII Laboratorio de Regulacion de China

LA VELOZ REGULACION DE LA INTELIGENCIA ARTIFICIAL EN LA REPUBLICA POPULAR CHINA

El borrador de la regulación como una mezcla de restricciones sensatas sobre los riesgos de la IA y una continuación de la fuerte tradición del gobierno chino de intervención agresiva en la industria tecnológica.

En abril (2023), hubo un gran desarrollo en el espacio de la Inteligencia Artificial en China. El regulador chino de Internet publicó un borrador de reglamento sobre Inteligencia Artificial generativa. Denominado “Medidas para la Gestión de Servicios de Inteligencia Artificial Generativa”, el documento no llama a ninguna empresa específica, pero la forma en que está redactado deja en claro que se inspiró en el lanzamiento incesante de chatbots de modelos de lenguaje grande en China y el Estados Unidos

La semana pasada, participé en el podcast de CBC News «Nothing Is Foreign » para hablar sobre el borrador de la regulación y lo que significa para el gobierno chino tomar medidas tan rápidas en una tecnología aún muy nueva. 

Como dije en el podcast, veo el borrador de la regulación como una mezcla de restricciones sensatas sobre los riesgos de la IA y una continuación de la fuerte tradición del gobierno chino de intervención agresiva en la industria tecnológica.

Muchas de las cláusulas del borrador del reglamento son principios que los críticos de la IA defienden en Occidente: los datos utilizados para entrenar modelos generativos de IA no deben infringir la propiedad intelectual o la privacidad; los algoritmos no deben discriminar a los usuarios por motivos de raza, etnia, edad, género y otros atributos; Las empresas de IA deben ser transparentes sobre cómo obtuvieron los datos de capacitación y cómo contrataron a humanos para etiquetar los datos.

Al mismo tiempo, hay reglas que otros países probablemente rechazarían. El gobierno pide que las personas que usan estas herramientas generativas de inteligencia artificial se registren con su identidad real, al igual que en cualquier plataforma social en China. El contenido que genera el software de IA también debe “reflejar los valores fundamentales del socialismo”. 

Ninguno de estos requisitos es sorprendente. El gobierno chino ha regulado con mano dura a las empresas tecnológicas en los últimos años, castigando a las plataformas por la moderación laxa e incorporando nuevos productos al régimen de censura establecido. 

El documento hace que esa tradición regulatoria sea fácil de ver: hay una mención frecuente de otras reglas que se han aprobado en China, sobre datos personales, algoritmos, falsificaciones profundas, ciberseguridad, etc. De alguna manera, se siente como si estos documentos discretos estuvieran formando lentamente una red de reglas que ayudan al gobierno a procesar nuevos desafíos en la era tecnológica.

El hecho de que el gobierno chino pueda reaccionar tan rápidamente a un nuevo fenómeno tecnológico es un arma de doble filo. La fuerza de este enfoque, que analiza cada nueva tendencia tecnológica por separado, “es su precisión, creando remedios específicos para problemas específicos”, escribió Matt Sheehan, miembro de Carnegie Endowment for International Peace. “La debilidad es su naturaleza fragmentaria, con los reguladores obligados a redactar nuevas regulaciones para nuevas aplicaciones o problemas”. Si el gobierno está ocupado jugando al whack-a-mole con nuevas reglas, podría perder la oportunidad de pensar estratégicamente sobre una visión a largo plazo de la IA. Podemos contrastar este enfoque con el de la UE, que ha estado trabajando en una Ley de Inteligencia Artificial “enormemente ambiciosa” durante años, como explicó recientemente mi colega Melissa. (Una revisión reciente del borrador de la Ley de IA incluyó regulaciones sobre IA generativa).

Hay un punto que no llegué a mencionar en el podcast pero que creo que es fascinante. A pesar de la naturaleza restrictiva del documento, también es un estímulo tácito para que las empresas sigan trabajando en IA. La multa máxima propuesta por violar las reglas es de 100 000 RMB, unos 15 000 dólares, una cifra minúscula para cualquier empresa que tenga la capacidad de construir grandes modelos lingüísticos. 

Por supuesto, si una empresa es multada cada vez que su modelo de IA viola las reglas, las cantidades pueden acumularse. Pero el tamaño de la multa sugiere que las reglas no están hechas para asustar a las empresas para que no inviertan en IA. Como escribió recientemente Angela Zhang, profesora de derecho en la Universidad de Hong Kong, el gobierno está desempeñando múltiples funciones: “El gobierno chino no solo debe ser visto como un regulador, sino también como un defensor, patrocinador e inversor en IA. Los ministerios que defienden el desarrollo de la IA, junto con los patrocinadores e inversores estatales, están preparados para convertirse en un potente contrapeso contra la estricta regulación de la IA”. 

Pueden pasar algunos meses antes de que los reguladores finalicen el borrador, y meses después antes de que entre en vigor. Pero sé que mucha gente, incluyéndome a mí, estará atenta a cualquier cambio. 

¿Quién sabe? Para cuando la regulación entre en vigencia, podría haber otro nuevo producto viral de Inteligencia Artificial que obligue al gobierno a elaborar aún más reglas. 

Equipo de análisis del Laboratorio del Futuro/publicación del MIT – Massachussets Institute of Technology (Estados Unidos). Artículo de Zeyi Yang.

Traducción del inglés: equipo de traducción e interpretación del Laboratorio del Futuro.

Inteligencia Artificial XI Cómo debe responder el mundo a la Revolucion de la Inteligencia Artificial

Inteligencia Artificial XI Cómo debe responder el mundo a la Revolucion de la Inteligencia Artificial

Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo

Yudkowsky es un teórico de la decisión de EE. UU. y dirige la investigación en el Instituto de Investigación de Inteligencia de Máquinas. Ha estado trabajando en la alineación de la Inteligencia General Artificial desde 2001 y es ampliamente considerado como uno de los fundadores del campo.

Una carta abierta publicada a fines de mayo de 2023 pide que «todos los laboratorios de IA pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4».

Esta moratoria de 6 meses sería mejor que ninguna moratoria. Tengo respeto por todos los que dieron un paso al frente y lo firmaron. Es una mejora en el margen.

Me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide muy poco para resolverla.

El tema clave no es la inteligencia “competitiva humana” (como dice la carta abierta); es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana. Los umbrales clave allí pueden no ser obvios, definitivamente no podemos calcular de antemano qué sucede y cuándo, y actualmente parece imaginable que un laboratorio de investigación cruzaría líneas críticas sin darse cuenta.

Muchos investigadores inmersos en estos temas , incluyéndome a mí, esperan que el resultado más probable de construir una IA superhumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las circunstancias actuales, es que, literalmente, todos en la Tierra morirán. No como en «tal vez posiblemente alguna posibilidad remota», sino como en «eso es lo obvio que sucedería». No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas de IA compuestos por conjuntos gigantes e inescrutables de números fraccionarios.

Sin esa precisión y preparación, el resultado más probable es una IA que no hace lo que queremos y no se preocupa por nosotros ni por la vida sensible en general. Ese tipo de cuidado es algo que, en principio, podría imbuirse en una IA, pero no estamos listos y actualmente no sabemos cómo hacerlo.

En ausencia de ese cuidado, obtenemos que «la IA no te ama, ni te odia, y estás hecho de átomos que puede usar para otra cosa».

El resultado probable de que la humanidad se enfrente a una inteligencia sobrehumana opuesta es una pérdida total. Las metáforas válidas incluyen “un niño de 10 años tratando de jugar al ajedrez contra Stockfish de 15”, “el siglo XI tratando de luchar contra el siglo XXI” y “Australopithecus tratando de luchar contra el Homo sapiens”.

Para visualizar una IA sobrehumana hostil, no imagines a un pensador inteligente y sin vida viviendo dentro de Internet y enviando correos electrónicos mal intencionados. Visualiza toda una civilización alienígena, pensando a millones de veces la velocidad humana, inicialmente confinada a las computadoras, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y lentas. Una Inteligencia Artificial lo suficientemente inteligente no permanecerá confinada a las computadoras por mucho tiempo. En el mundo actual, puede enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a pedido, lo que permite que una IA inicialmente confinada a Internet construya formas de vida artificiales o arranque directamente a la fabricación molecular posbiológica.

Si alguien construye una IA demasiado poderosa, en las condiciones actuales, espero que todos los miembros de la especie humana y toda la vida biológica en la Tierra mueran poco después.

No hay un plan propuesto sobre cómo podríamos hacer tal cosa y sobrevivir. La intención abiertamente declarada de OpenAI es hacer que alguna IA futura haga nuestra tarea de alineación de IA. Solo escuchar que este es el plan debería ser suficiente para que cualquier persona sensata entre en pánico. El otro laboratorio de inteligencia artificial líder, DeepMind, no tiene ningún plan.

Un aparte: nada de este peligro depende de si las IA son o pueden ser conscientes; es intrínseco a la noción de sistemas cognitivos poderosos que optimizan y calculan resultados que cumplen con criterios de resultados suficientemente complicados. Dicho esto, sería negligente en mis deberes morales como humano si no mencionara también que no tenemos idea de cómo determinar si los sistemas de IA son conscientes de sí mismos, ya que no tenemos idea de cómo decodificar nada de lo que sucede. en las matrices inescrutables gigantes, y por lo tanto, en algún momento, sin darnos cuenta, podemos crear mentes digitales que son verdaderamente conscientes y deberían tener derechos y no deberían ser propiedad.

La regla que la mayoría de las personas conscientes de estos problemas habría respaldado 50 años antes, era que si un sistema de IA puede hablar con fluidez y dice que es consciente de sí mismo y exige derechos humanos, eso debería ser un obstáculo para las personas que simplemente poseen esa Inteligencia Artificial. y usarlo más allá de ese punto. Ya superamos esa vieja línea en la arena. Y probablemente eso era correcto. Estoy de acuerdo en que las IA actuales probablemente solo estén imitando la conversación sobre la autoconciencia de sus datos de entrenamiento. Pero señalo que, con la poca comprensión que tenemos de las partes internas de estos sistemas, en realidad no lo sabemos.

Si ese es nuestro estado de ignorancia para GPT-4, y GPT-5 es del mismo tamaño de un paso de capacidad gigante que de GPT-3 a GPT-4, creo que ya no podremos decir justificadamente «probablemente no auto- conscientes” si permitimos que la gente fabrique GPT-5. Simplemente será “No lo sé; nadie lo sabe.» Si no puede estar seguro de si está creando una IA autoconsciente, esto es alarmante no solo por las implicaciones morales de la parte «autoconsciente», sino porque no estar seguro significa que no tiene idea de lo que está haciendo. y eso es peligroso y deberías parar.

El 7 de febrero, Satya Nadella, CEO de Microsoft, se regodeó públicamente de que el nuevo Bing haría que Google «salga y demuestre que puede bailar». “Quiero que la gente sepa que los hicimos bailar”, dijo.

No es así como habla el CEO de Microsoft en un mundo cuerdo. Muestra una brecha abrumadora entre la seriedad con la que tomamos el problema y la seriedad con la que necesitábamos tomarlo hace 30 años.

No vamos a cerrar esa brecha en seis meses.

Pasaron más de 60 años desde que se propuso y estudió por primera vez la noción de inteligencia artificial hasta que alcanzamos las capacidades actuales. Resolver la seguridad de la inteligencia sobrehumana, no la seguridad perfecta, la seguridad en el sentido de «no matar literalmente a todos», podría tomar razonablemente al menos la mitad de ese tiempo. Y lo que pasa con intentar esto con inteligencia sobrehumana es que, si te equivocas en el primer intento, no puedes aprender de tus errores, porque estás muerto. La humanidad no aprende del error y se desempolva y vuelve a intentarlo, como en otros desafíos que hemos superado en nuestra historia, porque todos nos hemos ido.

Tratar de hacer algo bien en el primer intento realmente crítico es una tarea extraordinaria, tanto en ciencia como en ingeniería. No estamos llegando con nada parecido al enfoque que se requeriría para hacerlo con éxito. Si mantuviéramos algo en el campo naciente de la Inteligencia General Artificial con los estándares menores de rigor de ingeniería que se aplican a un puente destinado a transportar un par de miles de automóviles, todo el campo se cerraría mañana.

No estamos preparados. No estamos en camino de estar preparados en una ventana de tiempo razonable. No hay plan. El progreso en las capacidades de la IA es enorme, muy por delante del progreso en la alineación de la IA o incluso del progreso en la comprensión de qué diablos está pasando dentro de esos sistemas. Si realmente hacemos esto, todos vamos a morir.

Muchos investigadores que trabajan en estos sistemas piensan que nos estamos precipitando hacia una catástrofe, y más de ellos se atreven a decirlo en privado que en público; pero piensan que no pueden detener unilateralmente la caída hacia adelante, que otros continuarán incluso si ellos personalmente renuncian a sus trabajos. Y entonces todos piensan que también podrían seguir adelante. Este es un estado de cosas estúpido y una forma indigna de que la Tierra muera, y el resto de la humanidad debería intervenir en este punto y ayudar a la industria a resolver su problema de acción colectiva.

Algunos de mis amigos me han informado recientemente que cuando las personas ajenas a la industria de la IA se enteran por primera vez del riesgo de extinción de la Inteligencia General Artificial, su reacción es «quizás no deberíamos construir AGI, entonces».

Escuchar esto me dio un pequeño destello de esperanza, porque es una reacción más simple, más sensata y francamente más sensata que la que he escuchado en los últimos 20 años de intentar que alguien en la industria se tome las cosas en serio. Cualquiera que hable así merece escuchar lo grave que es la situación en realidad, y no que le digan que una moratoria de seis meses la solucionará.

El 16 de marzo, mi pareja me envió este correo electrónico. (Más tarde me dio permiso para extraerlo aquí).

“¡Nina perdió un diente! De la manera habitual que hacen los niños, ¡no por descuido! Ver GPT4 superar esas pruebas estandarizadas el mismo día en que Nina alcanzó un hito de la infancia provocó una oleada emocional que me hizo perder la cabeza por un minuto. Todo va demasiado rápido. Me preocupa que compartir esto aumente tu propio dolor, pero prefiero que me conozcas a que cada uno de nosotros sufra solo”.

Cuando la conversación interna es sobre el dolor de ver a su hija perder su primer diente y pensar que no tendrá la oportunidad de crecer, creo que estamos más allá del punto de jugar al ajedrez político sobre una moratoria de seis meses.

Si hubiera un plan para que la Tierra sobreviviera, si solo aprobáramos una moratoria de seis meses, respaldaría ese plan. No hay tal plan.

Esto es lo que realmente tendría que hacerse:

La moratoria sobre nuevos grandes entrenamientos debe ser indefinida y mundial. No puede haber excepciones, incluso para gobiernos o militares. Si la política comienza con los EE. UU., entonces China debe ver que los EE. UU. no buscan una ventaja, sino que intentan evitar una tecnología terriblemente peligrosa que no puede tener un verdadero dueño y que matará a todos en los EE. UU., en China y en la Tierra.  Si tuviera una libertad infinita para escribir leyes, podría hacer una sola excepción para que las Inteligencias Artificiales se entrenen únicamente para resolver problemas en biología y biotecnología, no entrenadas en texto de Internet, y no al nivel en el que comienzan a hablar o planificar; pero si eso estuviera complicando remotamente el problema, descartaría inmediatamente esa propuesta y diría que simplemente cerrara todo.

Apague todos los clústeres de GPU grandes (las grandes granjas de computadoras donde se refinan las IA más poderosas). Cierra todas las carreras de entrenamiento grandes. Ponga un límite a la cantidad de poder de cómputo que cualquiera puede usar para entrenar un sistema de IA y muévalo hacia abajo en los próximos años para compensar los algoritmos de entrenamiento más eficientes. Sin excepciones para gobiernos y militares. Hacer acuerdos multinacionales inmediatos para evitar que las actividades prohibidas se trasladen a otros lugares. Seguimiento de todas las GPU vendidas. Si la inteligencia dice que un país fuera del acuerdo está construyendo un clúster de GPU, tenga menos miedo de un conflicto a tiros entre naciones que de que se viole la moratoria; estar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo.

No enmarque nada como un conflicto entre intereses nacionales, tenga claro que cualquiera que hable de carreras armamentistas es un tonto. Que todos vivamos o muramos como uno, en esto, no es una política sino un hecho de la naturaleza. Hacer explícito en la diplomacia internacional que la prevención de escenarios de extinción de la IA se considera una prioridad por encima de la prevención de un intercambio nuclear total, y que los países nucleares aliados están dispuestos a correr algún riesgo de intercambio nuclear si eso es lo que se necesita para reducir el riesgo de grandes carreras de entrenamiento de IA.

Ese es el tipo de cambio de política que haría que mi pareja y yo nos abrazáramos y nos decimos que sucedió un milagro, y ahora existe la posibilidad de que Nina viva. Las personas cuerdas que escuchan sobre esto por primera vez y dicen con sensatez «tal vez no deberíamos» merecen escuchar, honestamente, lo que se necesitaría para que eso suceda. Y cuando su solicitud de política es tan grande, la única manera de que se apruebe es si los legisladores se dan cuenta de que si hacen negocios como de costumbre y hacen lo que es políticamente fácil, eso significa que sus propios hijos también van a morir.

No estamos listos No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo.

Equipo de análisis del Laboratorio del Futuro/Revista Time (Inglaterra). Artículo de Eliezer Yudkowsky.

Traducción del inglés: equipo de traducción e interpretación del Laboratorio del Futuro.

Cómo debe responder el mundo a la Revolución de la Inteligencia Artificial

Cómo debe responder el mundo a la Revolución de la Inteligencia Artificial

Bremmer es columnista de asuntos exteriores y editor general de TIME. Es presidente de Eurasia Group, una consultora de riesgo político, y de GZERO Media, una empresa dedicada a brindar una cobertura inteligente y atractiva de asuntos internacionales. Enseña geopolítica aplicada en la Escuela de Asuntos Internacionales y Públicos de la Universidad de Columbia y su libro más reciente es El poder de la crisis.

El creciente desarrollo de la inteligencia artificial producirá avances médicos que salvarán y mejorarán miles de millones de vidas. Se convertirá en el motor de prosperidad más poderoso de la historia. Le dará a un número incalculable de personas, incluidas generaciones que aún no han nacido, herramientas poderosas que sus antepasados ​​​​nunca imaginaron. Pero los riesgos y desafíos que planteará la Inteligencia Artificial también se están volviendo claros, y ahora es el momento de comprenderlos y abordarlos. Aquí están los más grandes.

La salud de la democracia y los mercados libres depende del acceso a información precisa y verificable. En los últimos años, las redes sociales han hecho que sea más difícil distinguir los hechos de la ficción, pero los avances en IA desencadenarán legiones de bots que parecen mucho más humanos que los que hemos encontrado hasta la fecha. Las falsificaciones profundas de audio y video mucho más sofisticadas socavarán nuestra confianza (ya disminuida) en aquellos que sirven en el gobierno y aquellos que informan las noticias. En China, y más tarde en sus estados clientes, AI llevará el reconocimiento facial y otras herramientas que pueden usarse para la vigilancia estatal a niveles de sofisticación exponencialmente más altos.

Este problema se extiende más allá de nuestras instituciones, porque la producción de «IA generativa», inteligencia artificial que genera contenido escrito, visual y de otro tipo sofisticado en respuesta a las indicaciones de los usuarios, no se limita a las grandes empresas de tecnología. Cualquier persona con una computadora portátil y habilidades básicas de programación ya tiene acceso a modelos de IA mucho más poderosos que los que existían hace incluso unos meses y pueden producir volúmenes de contenido sin precedentes. Este desafío de proliferación está a punto de crecer exponencialmente, ya que millones de personas tendrán su propio GPT ejecutándose en datos en tiempo real disponibles en Internet. La revolución de la IA permitirá a los delincuentes, terroristas y otros malhechores codificar malware, crear armas biológicas, manipular los mercados financieros y distorsionar la opinión pública con una facilidad asombrosa.

La inteligencia artificial también puede exacerbar la desigualdad, dentro de las sociedades entre pequeños grupos con riqueza, acceso o habilidades especiales, así como entre naciones más ricas y pobres.

La Inteligencia Artificial creará agitación en la fuerza laboral. Sí los avances tecnológicos del pasado crearon principalmente más empleos de los que eliminaron, y aumentaron la productividad y la prosperidad en general, pero hay advertencias cruciales. Los trabajos creados por los grandes cambios tecnológicos en el lugar de trabajo exigen conjuntos de habilidades diferentes a los que han destruido, y la transición nunca es fácil. Los trabajadores deben ser reentrenados. Aquellos que no pueden volver a capacitarse deben estar protegidos por una red de seguridad social que varía en fuerza de un lugar a otro. Ambos problemas son costosos y nunca será fácil para los gobiernos y las empresas privadas ponerse de acuerdo sobre cómo compartir esta carga.

Más fundamentalmente todavía, el desplazamiento creado por la Inteligencia Artificia; ocurrirá de manera más amplia y mucho más rápida que las transiciones del pasado. La agitación de la transición generará agitación económica y, por lo tanto, política en todo el mundo.

Finalmente, la revolución de la IA también impondrá un costo emocional y espiritual. Los seres humanos son animales sociales. Prosperamos en la interacción con los demás y nos marchitamos en el aislamiento. Con demasiada frecuencia, los bots reemplazarán a los humanos como compañeros de muchas personas, y para cuando los científicos y los médicos comprendan el impacto a largo plazo de esta tendencia, nuestra creciente dependencia de la inteligencia artificial, incluso para la compañía, puede ser irreversible. Este puede ser el desafío más importante de la IA.

La respuesta:

Desafíos como estos exigirán una respuesta global. Hoy en día, la inteligencia artificial no está regulada por funcionarios gubernamentales sino por empresas de tecnología. La razón es simple: no puedes crear reglas para un juego que no entiendes. Pero confiar en las empresas de tecnología para regular sus productos no es un plan sostenible. Existen principalmente para obtener ganancias, no para proteger a los consumidores, las naciones o el planeta. Es un poco como dejar que las empresas de energía lideren las estrategias para combatir el cambio climático, excepto que el calentamiento y sus peligros ya se entienden de una manera que no se entienden los riesgos de la IA, lo que nos deja sin grupos de presión que puedan ayudar a forzar la adopción de políticas inteligentes y saludables.

Entonces, ¿dónde están las soluciones? Necesitaremos acción nacional, cooperación global y cierta cooperación con sentido común de los gobiernos de EE. UU. y China, en particular.

Siempre será más fácil lograr una política bien coordinada dentro de los gobiernos nacionales que a nivel internacional, pero los líderes políticos tienen sus propias prioridades. En Washington, los formuladores de políticas se han centrado principalmente en ganar una carrera con China para desarrollar los productos tecnológicos que mejor respalden la seguridad y la prosperidad del siglo XXI, y eso los ha alentado a dar a las empresas tecnológicas que sirven al interés nacional algo parecido a la libertad. Los legisladores chinos, temerosos de que las herramientas de inteligencia artificial puedan socavar su autoridad política, han regulado de manera mucho más agresiva. Los legisladores europeos se han centrado menos en la seguridad o las ganancias que en el impacto social de los avances de la IA.

Pero todos tendrán que establecer reglas en los próximos años que limiten la capacidad de los bots de IA para socavar las instituciones políticas, los mercados financieros y la seguridad nacional. Eso significa identificar y rastrear a los malos actores, así como ayudar a las personas a separar la información real de la falsa. Desafortunadamente, estos son pasos grandes, costosos y complicados que los legisladores probablemente no tomen hasta que se enfrenten a crisis generadas por IA (pero reales). Eso no puede suceder hasta que comience la discusión y el debate sobre estos temas.

A diferencia del cambio climático, los gobiernos del mundo aún no han acordado que la revolución de la IA plantea un desafío transfronterizo existencial. Aquí, las Naciones Unidas tienen un papel que desempeñar como la única institución con el poder de convocatoria para desarrollar un consenso mundial. Un enfoque de la IA liderado por las Naciones Unidas nunca será la respuesta más eficiente, pero ayudará a lograr un consenso sobre la naturaleza del problema y aunar recursos internacionales.

Al forjar un acuerdo sobre qué riesgos son más probables, más impactantes y emergentes más rápidamente, un equivalente centrado en la IA del Panel Intergubernamental sobre el Cambio Climático puede regular las reuniones y la producción de acuerdos sobre el «Estado de la IA» que profundizan cada vez más en el corazón. de amenazas relacionadas con la IA. Al igual que con el cambio climático, este proceso también deberá incluir la participación de funcionarios de políticas públicas, científicos, tecnólogos, delegados del sector privado y activistas individuales que representen a la mayoría de los estados miembros para crear un proceso COP (Conferencia de las Partes) para abordar las amenazas a bioseguridad, libertad de información, salud de la fuerza laboral, etc. También podría haber una agencia de inteligencia artificial inspirada en la Agencia Internacional de Energía Atómica para ayudar a vigilar la proliferación de IA.

Dicho esto, no hay forma de abordar los riesgos de rápida metástasis creados por la revolución de la IA sin una infusión de sentido común muy necesario en las relaciones entre EE. UU. y China. Después de todo, es la competencia tecnológica entre los dos países y sus principales empresas tecnológicas lo que crea el mayor riesgo de guerra, especialmente porque la IA juega un papel cada vez mayor en las armas y la planificación militar.

Beijing y Washington deben desarrollar y mantener conversaciones al más alto nivel sobre las amenazas emergentes para ambos países (y el mundo) y la mejor manera de contenerlas. Y no pueden esperar a que una versión de IA de la Crisis de los Misiles Cubanos los obligue a lograr una transparencia genuina en el manejo de su competencia. Para crear un «acuerdo de control de armas de IA» con monitoreo y verificación mutuos, cada gobierno debe escucharse no solo entre sí, sino también a los tecnólogos de ambos lados que entienden los riesgos que deben contenerse.

¿Descabellado? Absolutamente. El momento es terrible, porque estos avances llegan en un momento de intensa competencia entre dos países poderosos que realmente no confían el uno en el otro.

Pero si los estadounidenses y los soviéticos pudieron construir una infraestructura de control de armas en funcionamiento en las décadas de 1970 y 1980, EE. UU. y China pueden construir un equivalente para el siglo XXI. Esperemos que se den cuenta de que no tienen otra opción antes de que una catástrofe lo haga inevitablemente obvio.

Equipo de análisis del Laboratorio del Futuro/Revista Time (Inglaterra). Artículo de Ian Bremmer. Traducción del inglés: equipo de traducción e interpretación del Laboratorio del Futuro.

error: Content is protected !!