Inteligencia Artificial VII Nota de Open AI

Estados y tecnología

2 Jun, 2023

2 Jun, 2023

¿La inteligencia artificial debe ser regulada?

Los creadores y desarrolladores de ChatGPT creen que la nueva superinteligencia puede superar a los expertos humanos en la mayoría de las disciplinas durante los próximos 10 años y piden una supra regulación, aunque a su responsable principal, Sam Altman no le parece aceptable la regulación propuesta por la Unión Europea.

Los creadores de ChatGPT han publicado una nota (la que podrá verse casi a continuación) donde advierten de que en diez años los sistemas de inteligencia artificial pueden superar a los expertos humanos en la mayoría de las áreas. Esta superinteligencia, dicen, será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarseen el pasado y supone un riesgo existencial para nuestra civilización. Por eso urgen a las autoridades a pensar ya en cómo vamos a administrarla. Es material para examinar y sobre todo para pensar el por qué, los creadores de la tecnología están teóricamente tan alarmados…

Sam Altman, Greg Brockman, Ilya Sutskever, tres de los cofundadores de OpenIA, la compañía detrás de ChatGPT, creen que la superinteligencia del futuro será aún más capaz que la inteligencia artificial general — una forma de inteligencia sintética que es equiparable a la humana — y podrá ser tan productiva como las grandes compañías actuales.

Pero, es importante que veamos el contenido de esa nota:

La nota de los tres fundadores es del 22 de mayo de 2023, y dice textualmente: Inteligencia Artificial responsable, seguridad y alineación. Dada la imagen tal como la vemos ahora, es concebible que, dentro de los próximos diez años, los sistemas de Inteligencia Artificial superen el nivel de habilidad de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad. En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos. La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo. También debemos mitigar los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un tratamiento y una coordinación especiales. Un punto de partida: Hay muchas ideas que nos importan para tener una buena oportunidad de navegar con éxito este desarrollo; aquí exponemos nuestro pensamiento inicial sobre tres de ellos. Primero, necesitamos cierto grado de coordinación entre los principales esfuerzos de desarrollo para garantizar que el desarrollo de la superinteligencia ocurra de una manera que nos permita mantener la seguridad y ayudar a la integración fluida de estos sistemas con la sociedad. Hay muchas maneras en que esto podría implementarse: los principales gobiernos de todo el mundo podrían establecer un proyecto del que formen parte muchos de los esfuerzos actuales, o podríamos acordar colectivamente (con el poder de respaldo de una nueva organización como la sugerida a continuación) que la tasa de crecimiento de la capacidad de Inteligencia Artificial en la frontera es limitada a una cierta tasa por año. Y, por supuesto, las empresas individuales deben estar sujetas a un estándar extremadamente alto de actuación responsable. En segundo lugar, es probable que eventualmente necesitemos algo como un OIEA para los esfuerzos de superinteligencia; cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos como computación), deberá estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorias, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc. El seguimiento del uso de cómputo y energía podría ser de gran ayuda y darnos alguna esperanza de que esta idea pueda implementarse. Como primer paso, las empresas podrían acordar voluntariamente comenzar a implementar elementos de lo que tal agencia podría requerir algún día, y como segundo, los países individuales podrían implementarlo. Sería importante que una agencia de este tipo se centre en reducir el riesgo existencial y no en cuestiones que deberían dejarse en manos de países individuales, como definir lo que se le debe permitir decir a una Inteligencia Artificial. Tercero, necesitamos la capacidad técnica para hacer que una superinteligencia sea segura. Esta es una pregunta de investigación abierta en la que nosotros y otros estamos poniendo mucho esfuerzo. Lo que no está en el alcance: Creemos que es importante permitir que las empresas y los proyectos de código abierto desarrollen modelos por debajo de un umbral de capacidad significativo, sin el tipo de regulación que describimos aquí (incluidos mecanismos onerosos como licencias o auditorias). Los sistemas de hoy crearan un enorme valor en el mundo y, si bien tienen riesgos, el nivel de esos riesgos se siente acorde con otras tecnologías de Internet y los enfoques probables de la sociedad parecen apropiados. Por el contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora, y debemos tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a la tecnología muy por debajo de esta barra. Opinión pública y potencial: Pero la gobernanza de los sistemas más poderosos, así como las decisiones relativas a su despliegue, deben contar con una fuerte supervisión pública. Creemos que las personas de todo el mundo deberían decidir democráticamente los límites y valores predeterminados de los sistemas de Inteligencia Artificial. Todavía no sabemos cómo diseñar tal mecanismo, pero planeamos experimentar con su desarrollo. Seguimos pensando que, dentro de estos amplios limites, los usuarios individuales deberían tener mucho control sobre cómo se comporta la Inteligencia Artificial que utilizan. Dados los riesgos y las dificultades, vale la pena considerar por que estamos construyendo esta tecnología. En OpenAI tenemos dos razones fundamentales. Primero, creemos que conducirá a un mundo mucho mejor de lo que podemos imaginar hoy (ya estamos viendo ejemplos tempranos de esto en áreas como la educación, el trabajo creativo y la productividad personal). El mundo enfrenta muchos problemas que necesitaremos mucha más ayuda para resolver; esta tecnología puede mejorar nuestras sociedades, y la capacidad creativa de todos para usar estas nuevas herramientas seguramente nos asombrara. El crecimiento económico y el aumento de la calidad de vida serán asombrosos. En segundo lugar, creemos que sería poco intuitivo, arriesgado y difícil detener la creación de superinteligencia. Debido a que las ventajas son tan enormes, el costo de construirlo disminuye cada año, la cantidad de actores que lo construyen aumenta rápidamente y es inherentemente parte del camino tecnológico en el que estamos, detenerlo requeriría algo así como un régimen de vigilancia global, e incluso eso no esta garantizado para trabajar. Así que tenemos que hacerlo bien.

De acuerdo con lo que hemos visto, la visión de OpenIA — compañía en la que participa Microsoft tras la inversión de 10.000 millones de dólares —, es que las futuras generaciones de inteligencia artificial nos traerán un futuro mucho más próspero. Aunque para que eso pase, tenemos que gestionar el riesgo existencial que supone su implementación.

Los creadores de ChatGPT piensan que aún estamos a tiempo de conseguir desarrollar esta superinteligencia de manera controlada. Tampoco creen que parar ahora sea conveniente, para ellos detener el desarrollo sería arriesgado y difícil, aunque hay que recordar que el propósito declarado de OpenIA es precisamente dar vida a uno de estos sistemas superinteligentes. Por cierto, que hay demasiado dinero e intereses en juego.

El texto sugiere que la única manera de desarrollar esta tecnología de manera segura sería mediante un régimen de vigilancia global, aunque no están seguros de que eso vaya a funcionar. Por eso reclaman que las decisiones relativas a su desarrollo e implementación deben tener“una sólida supervisión pública”, algo que el CEO de la compañía ha estado repitiendo en cada una de sus apariciones públicas.

El problema, es como evitar el riesgo existencial. Aportan tres ideas para conseguirlo. Primero, hay que conseguirun desarrollo coordinado de esta tecnologíaque permita su integración en la sociedad, mientras se mantienen unos límites básicos de seguridad.

Para ello proponen dos maneras de hacerlo. Una, impulsada por los principales gobiernos del mundo en el que participen los principales desarrolladores actuales. Y la otra, mediante un acuerdo colectivo vigilado por una organización independiente que marque un ritmo de crecimiento anual de la tecnología. En todo caso, apuntan, a las empresas se les debe exigir un nivel extremadamente alto de responsabilidad.

En segundo lugar, proponen crearun organismo similar al que regula la energía atómica (el OIEA) para vigilar los avances hacia la superinteligencia. Si una tecnología, supera un determinado umbral de capacidad tendrá que someterse a la auditoría de una autoridad internacional que pueda inspeccionar los nuevos sistemas para evitar un riesgo existencial. Algo que, sugieren, ya podrían empezar a hacer las compañías desarrolladoras voluntariamente como un simulacro de las capacidades que debería tener el nuevo organismo.

 Finalmente, los tres cofundadores de OpenIA aseguran que hace falta la capacidad técnica para hacer que la superinteligencia sea segura. “Se trata de una cuestión de investigación abierta a la que nosotros y otros estamos dedicando muchos esfuerzos”, aseguran.

Pero, curiosamente, a OpenIA no le gustan las leyes europeas.

Altman, que además de cofundador de OpenAI también es su director general, advirtió recientemente que su compañíapodría dejar de operar en Europa si el bloque aplica sus medidas sobre inteligencia artificial.

El Comisario Europeo de Justicia, Didier Reynders, durante una rueda de prensa sobre la Inteligencia Artificial. La Unión Europea se ha convertido en el regulador de facto de la Inteligencia Artificial en el mundo.

La propuesta de Ley de Inteligencia Artificial de la UE establece tres niveles de riesgo para estas tecnologías. La categoría de mayor riesgo «crearía un riesgo inaceptable, como el sistema de puntuación social gestionada por un gobierno del tipo utilizado en China» y estaría prohibida. La segunda categoría de riesgo estaría «sujeta a requisitos legales específicos» y correspondería a los sistemas de IA que se utilizaran para analizar currículos y clasificar a los solicitantes de empleo. Y la tercera sería para sistemas de IA que «no están explícitamente prohibidos o catalogados como de alto riesgo» y que, por tanto, «quedarían en gran medida sin regular». 

El Parlamento Europeo votó a favor de la ley por amplia mayoría y estableció el 14 de junio como la fecha provisional para su adopción. «Los detalles realmente importan. Intentaremos cumplirlas, pero si no podemos hacerlo, dejaremos de operar», aseguró Altman en declaraciones recogidas por el Financial Times. Infelizmente, suena más a una cierta amenaza que a otra cosa.

En la edición de mañana del blog veremos en que consiste esa regulación que seguramente va camino a colocarse en funcionamiento en la Unión Europea.

Autor: Equipo de análisis de Laboratorio del Futuro

Autor: Equipo de análisis de Laboratorio del Futuro

Artículos relacionados

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

error: Content is protected !!