Inteligencia Artificial VII Nota de Open AI

Inteligencia Artificial VII Nota de Open AI

¿La inteligencia artificial debe ser regulada?

Los creadores y desarrolladores de ChatGPT creen que la nueva superinteligencia puede superar a los expertos humanos en la mayoría de las disciplinas durante los próximos 10 años y piden una supra regulación, aunque a su responsable principal, Sam Altman no le parece aceptable la regulación propuesta por la Unión Europea.

Los creadores de ChatGPT han publicado una nota (la que podrá verse casi a continuación) donde advierten de que en diez años los sistemas de inteligencia artificial pueden superar a los expertos humanos en la mayoría de las áreas. Esta superinteligencia, dicen, será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarseen el pasado y supone un riesgo existencial para nuestra civilización. Por eso urgen a las autoridades a pensar ya en cómo vamos a administrarla. Es material para examinar y sobre todo para pensar el por qué, los creadores de la tecnología están teóricamente tan alarmados…

Sam Altman, Greg Brockman, Ilya Sutskever, tres de los cofundadores de OpenIA, la compañía detrás de ChatGPT, creen que la superinteligencia del futuro será aún más capaz que la inteligencia artificial general — una forma de inteligencia sintética que es equiparable a la humana — y podrá ser tan productiva como las grandes compañías actuales.

Pero, es importante que veamos el contenido de esa nota:

La nota de los tres fundadores es del 22 de mayo de 2023, y dice textualmente: Inteligencia Artificial responsable, seguridad y alineación. Dada la imagen tal como la vemos ahora, es concebible que, dentro de los próximos diez años, los sistemas de Inteligencia Artificial superen el nivel de habilidad de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad. En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos. La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo. También debemos mitigar los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un tratamiento y una coordinación especiales. Un punto de partida: Hay muchas ideas que nos importan para tener una buena oportunidad de navegar con éxito este desarrollo; aquí exponemos nuestro pensamiento inicial sobre tres de ellos. Primero, necesitamos cierto grado de coordinación entre los principales esfuerzos de desarrollo para garantizar que el desarrollo de la superinteligencia ocurra de una manera que nos permita mantener la seguridad y ayudar a la integración fluida de estos sistemas con la sociedad. Hay muchas maneras en que esto podría implementarse: los principales gobiernos de todo el mundo podrían establecer un proyecto del que formen parte muchos de los esfuerzos actuales, o podríamos acordar colectivamente (con el poder de respaldo de una nueva organización como la sugerida a continuación) que la tasa de crecimiento de la capacidad de Inteligencia Artificial en la frontera es limitada a una cierta tasa por año. Y, por supuesto, las empresas individuales deben estar sujetas a un estándar extremadamente alto de actuación responsable. En segundo lugar, es probable que eventualmente necesitemos algo como un OIEA para los esfuerzos de superinteligencia; cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos como computación), deberá estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorias, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc. El seguimiento del uso de cómputo y energía podría ser de gran ayuda y darnos alguna esperanza de que esta idea pueda implementarse. Como primer paso, las empresas podrían acordar voluntariamente comenzar a implementar elementos de lo que tal agencia podría requerir algún día, y como segundo, los países individuales podrían implementarlo. Sería importante que una agencia de este tipo se centre en reducir el riesgo existencial y no en cuestiones que deberían dejarse en manos de países individuales, como definir lo que se le debe permitir decir a una Inteligencia Artificial. Tercero, necesitamos la capacidad técnica para hacer que una superinteligencia sea segura. Esta es una pregunta de investigación abierta en la que nosotros y otros estamos poniendo mucho esfuerzo. Lo que no está en el alcance: Creemos que es importante permitir que las empresas y los proyectos de código abierto desarrollen modelos por debajo de un umbral de capacidad significativo, sin el tipo de regulación que describimos aquí (incluidos mecanismos onerosos como licencias o auditorias). Los sistemas de hoy crearan un enorme valor en el mundo y, si bien tienen riesgos, el nivel de esos riesgos se siente acorde con otras tecnologías de Internet y los enfoques probables de la sociedad parecen apropiados. Por el contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora, y debemos tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a la tecnología muy por debajo de esta barra. Opinión pública y potencial: Pero la gobernanza de los sistemas más poderosos, así como las decisiones relativas a su despliegue, deben contar con una fuerte supervisión pública. Creemos que las personas de todo el mundo deberían decidir democráticamente los límites y valores predeterminados de los sistemas de Inteligencia Artificial. Todavía no sabemos cómo diseñar tal mecanismo, pero planeamos experimentar con su desarrollo. Seguimos pensando que, dentro de estos amplios limites, los usuarios individuales deberían tener mucho control sobre cómo se comporta la Inteligencia Artificial que utilizan. Dados los riesgos y las dificultades, vale la pena considerar por que estamos construyendo esta tecnología. En OpenAI tenemos dos razones fundamentales. Primero, creemos que conducirá a un mundo mucho mejor de lo que podemos imaginar hoy (ya estamos viendo ejemplos tempranos de esto en áreas como la educación, el trabajo creativo y la productividad personal). El mundo enfrenta muchos problemas que necesitaremos mucha más ayuda para resolver; esta tecnología puede mejorar nuestras sociedades, y la capacidad creativa de todos para usar estas nuevas herramientas seguramente nos asombrara. El crecimiento económico y el aumento de la calidad de vida serán asombrosos. En segundo lugar, creemos que sería poco intuitivo, arriesgado y difícil detener la creación de superinteligencia. Debido a que las ventajas son tan enormes, el costo de construirlo disminuye cada año, la cantidad de actores que lo construyen aumenta rápidamente y es inherentemente parte del camino tecnológico en el que estamos, detenerlo requeriría algo así como un régimen de vigilancia global, e incluso eso no esta garantizado para trabajar. Así que tenemos que hacerlo bien.

De acuerdo con lo que hemos visto, la visión de OpenIA — compañía en la que participa Microsoft tras la inversión de 10.000 millones de dólares —, es que las futuras generaciones de inteligencia artificial nos traerán un futuro mucho más próspero. Aunque para que eso pase, tenemos que gestionar el riesgo existencial que supone su implementación.

Los creadores de ChatGPT piensan que aún estamos a tiempo de conseguir desarrollar esta superinteligencia de manera controlada. Tampoco creen que parar ahora sea conveniente, para ellos detener el desarrollo sería arriesgado y difícil, aunque hay que recordar que el propósito declarado de OpenIA es precisamente dar vida a uno de estos sistemas superinteligentes. Por cierto, que hay demasiado dinero e intereses en juego.

El texto sugiere que la única manera de desarrollar esta tecnología de manera segura sería mediante un régimen de vigilancia global, aunque no están seguros de que eso vaya a funcionar. Por eso reclaman que las decisiones relativas a su desarrollo e implementación deben tener“una sólida supervisión pública”, algo que el CEO de la compañía ha estado repitiendo en cada una de sus apariciones públicas.

El problema, es como evitar el riesgo existencial. Aportan tres ideas para conseguirlo. Primero, hay que conseguirun desarrollo coordinado de esta tecnologíaque permita su integración en la sociedad, mientras se mantienen unos límites básicos de seguridad.

Para ello proponen dos maneras de hacerlo. Una, impulsada por los principales gobiernos del mundo en el que participen los principales desarrolladores actuales. Y la otra, mediante un acuerdo colectivo vigilado por una organización independiente que marque un ritmo de crecimiento anual de la tecnología. En todo caso, apuntan, a las empresas se les debe exigir un nivel extremadamente alto de responsabilidad.

En segundo lugar, proponen crearun organismo similar al que regula la energía atómica (el OIEA) para vigilar los avances hacia la superinteligencia. Si una tecnología, supera un determinado umbral de capacidad tendrá que someterse a la auditoría de una autoridad internacional que pueda inspeccionar los nuevos sistemas para evitar un riesgo existencial. Algo que, sugieren, ya podrían empezar a hacer las compañías desarrolladoras voluntariamente como un simulacro de las capacidades que debería tener el nuevo organismo.

 Finalmente, los tres cofundadores de OpenIA aseguran que hace falta la capacidad técnica para hacer que la superinteligencia sea segura. “Se trata de una cuestión de investigación abierta a la que nosotros y otros estamos dedicando muchos esfuerzos”, aseguran.

Pero, curiosamente, a OpenIA no le gustan las leyes europeas.

Altman, que además de cofundador de OpenAI también es su director general, advirtió recientemente que su compañíapodría dejar de operar en Europa si el bloque aplica sus medidas sobre inteligencia artificial.

El Comisario Europeo de Justicia, Didier Reynders, durante una rueda de prensa sobre la Inteligencia Artificial. La Unión Europea se ha convertido en el regulador de facto de la Inteligencia Artificial en el mundo.

La propuesta de Ley de Inteligencia Artificial de la UE establece tres niveles de riesgo para estas tecnologías. La categoría de mayor riesgo «crearía un riesgo inaceptable, como el sistema de puntuación social gestionada por un gobierno del tipo utilizado en China» y estaría prohibida. La segunda categoría de riesgo estaría «sujeta a requisitos legales específicos» y correspondería a los sistemas de IA que se utilizaran para analizar currículos y clasificar a los solicitantes de empleo. Y la tercera sería para sistemas de IA que «no están explícitamente prohibidos o catalogados como de alto riesgo» y que, por tanto, «quedarían en gran medida sin regular». 

El Parlamento Europeo votó a favor de la ley por amplia mayoría y estableció el 14 de junio como la fecha provisional para su adopción. «Los detalles realmente importan. Intentaremos cumplirlas, pero si no podemos hacerlo, dejaremos de operar», aseguró Altman en declaraciones recogidas por el Financial Times. Infelizmente, suena más a una cierta amenaza que a otra cosa.

En la edición de mañana del blog veremos en que consiste esa regulación que seguramente va camino a colocarse en funcionamiento en la Unión Europea.

NUEVA MULTA A META EN LA UNION EUROPEA

NUEVA MULTA A META EN LA UNION EUROPEA

La imperiosa necesidad de cumplir las reglas y proteger los datos de los usuarios

Nuevamente, el Sr. Zuckerberg, Consejero Delegado de Meta, se enfrenta a problemas con las autoridades regulatorias europeas con su Facebook/Meta. Si bien ya hemos asistido a sus presentaciones frente a esas autoridades en anos anteriores, las que no han sido precisamente ni exitosas ni demasiado amables, la Unión Europea, por intermedio de los órganos competentes ha golpeado con mucha fuerza a la empresa, por hacer caso omiso de las disposiciones vigentes. Es que, para los europeos, el tema de la protección de los datos de los usuarios no es considerado una violación menor de las reglas. Y, de acuerdo con los antecedentes, no se podría afirmar con absoluta certeza que Zuckerberg sea, precisamente un hombre estrictamente preocupado con estos detalles. Solo basta con recordar episodios como los de Cambridge Analytica, el que recordamos en un cuadro al final de este post, para aquellos que no lo tengan presente. Esos episodios – de manipulación directa de datos y personas – le costo a la empresa una fortuna en multas en los Estados Unidos y en el Reino Unido, por presunta manipulación de voluntades en favor del Brexit (salida de Inglaterra de la Unión Europea).

Ahora, la Unión Europea ha impuesto a Meta, dueña de Facebook, una multa récord de 1.200 millones de euros por transferir datos de ciudadanos europeos a Estados Unidos, según ha anunciado la Comisión de Protección de Datos irlandesa, que es la agencia que supervisa el cumplimiento de la normativa de privacidad en la Unión Europea.

El organismo europeo de protección de datos entiende que Facebook ha almacenado ilegalmente durante años datos de ciudadanos europeos en sus servidores de Estados Unidos. La multa supone un récord europeo en materia de privacidad, superando a la sanción de 746 millones de euros impuesta contra Amazon en 2021. Además, la Unión Europea da un plazo de cinco meses para que Meta deje de enviar datos de sus usuarios europeos a Estados Unidos y seis meses para borrar cualquier información personal que se haya transferido previamente.

En marzo de 2022, la Unión Europea y Estados Unidosalcanzaron un acuerdo en los principios del nuevo marco para asegurar la libre transferencia de datos personales entre ambos bloques, según anunciaron públicamente el presidente de EE. UU. Joseph Biden y la Presidenta de la Comisión Europea, Ursula Von der Leyen. El marco de transferencia quedó suspendido en 2020, cuando el Tribunal de Justicia de la Unión Europea anuló el acuerdo en vigor porque consideraba que Estados Unidos no garantizaba la privacidad de los datos de los ciudadanos europeos.

El organismo irlandés entiende que las cláusulas contractuales que emplea Meta para trasladar los datos a Estados Unidos «no abordan los riesgos para los derechos y libertades fundamentales» de los usuarios europeos de Facebook planteados por esta sentencia.

El acuerdo entre ambos bloques aún no ha entrado en vigor. Nick Clegg, presidente de Asuntos Globales de Meta, urgió a que se haga efectivo este nuevo marco. «Me frustra ver que no han puesto en marcha el acuerdo anunciado», aseguró. «Hay que garantizar ese flujo de datos».

La sanción aumenta la presión sobre el gobierno estadounidensepara que cierre finalmente el acuerdo que permita a miles de multinacionales seguir enviando información de usuarios europeos a Estados Unidos. El acuerdo final podría estar listo como muy pronto en julio, aunque podría retrasarse hasta el otoño.

Meta ha llegado a amenazar con abandonar sus operaciones en la Unión Europea (por cierto, la amenaza es uno de los instrumentos preferidos por la actualmente denominada Meta) si ambos bloques no llegaban a un acuerdo para permitir la transferencia de datos. El marco anterior fue anulado por la justicia europea tras una denuncia contra Facebook interpuesta por el austriaco Max Schrems, que buscaba impedir el envío de datos de ciudadanos europeos a EE. UU. debido a que las leyes estadounidenses no ofrecen el mismo nivel de protección que la normativa europea de protección de datos.

La compañía estadounidense ha asegurado que apelará tanto la sentencia como la multa impuesta y solicitará la suspensión de la orden ante los tribunales. Asimismo, ha señalado que no habrá ninguna interrupción inmediata de Facebook en Europa.

En un comunicado firmado por Nick Clegg (un personaje muy interesante, por cierto, el Sr. Zuckerberg no repara en gastos)[i], la compañía dice que ha usado las cláusulas contractuales con el convencimiento de que este instrumento legal cumplía con las exigencias del reglamento europeo de protección de datos. «Vamos a recurrir y solicitaremos a los tribunales que suspendan los plazos de aplicación, dado el perjuicio que causarían estas órdenes, incluyendo a los millones de personas que usan Facebook cada día».

Como es de práctica, este es un tema de todos los días – la protección de los derechos y de la propiedad de los datos de los usuarios – de manera que tendremos que estar atentos al siguiente capitulo, aun cuando para Meta/Facebook la situación no parece ser la mejor en el caso en particular.

Facebook y el caso Cambridge Analytica: En la década de 2010, la consultora británica Cambridge Analytica recopiló datos de millones de usuarios de Facebook sin su consentimiento, principalmente para utilizarlos con un fin de propaganda política. Los datos se obtuvieron por medio de una aplicación llamada This Is Your Digital Life (“Esta es tu vida digital”), desarrollada por el informático Aleksandr Kogan y su empresa Global Science Research en 2013. ​ La aplicación consistía en una serie de preguntas para elaborar perfiles psicológicos de usuarios, y recabó los datos personales de los contactos de sus usuarios mediante la plataforma Open Graph de Facebook. ​ La aplicación recopiló datos de hasta 87 millones de perfiles de Facebook, y Cambridge Analytica los utilizó para proporcionar asistencia analítica a las campañas de Ted Cruz y Donald Trump para las elecciones presidenciales de 2016. Cambridge Analytica también fue acusada de interferir en el referéndum del Brexit, si bien la investigación oficial reconoció que la empresa no intervino “más allá de ciertas indagaciones iniciales” y que no se habían producido “infracciones significativas”. La información sobre el mal uso de los datos se conoció gracias a Christopher Wylie, antiguo empleado de Cambridge Analytica, en entrevistas con The Guardian y The New York Times. ​ En respuesta, Facebook se disculpó por su papel en la recolección de datos, y su director ejecutivoMark Zuckerberg, tuvo que testificar ante el Congreso de los Estados Unidos. ​ En julio de 2019 se anunció que la Comisión Federal de Comercio imponía a Facebook una multa de 5000 millones de dólares por sus violaciones de la privacidad. En octubre de 2019, Facebook aceptó pagar una multa de 500 000 £ a la Oficina del Comisionado de Información del Reino Unido por exponer los datos de sus usuarios a un “serio riesgo de daño”. En mayo de 2018, Cambridge Analytica se declaró en quiebra en EE. UU. Otras agencias de publicidad llevan años implementado distintas formas de seguimiento psicológico, y Facebook patentó una tecnología similar en 2012. No obstante, la sinceridad de Cambridge Analytica sobre sus métodos y el calibre de sus clientes —como la campaña presidencial de Trump y la campaña a favor del Brexit— concienciaron a la opinión pública de los problemas que plantea el seguimiento psicológico, una cuestión sobre la que los estudiosos llevan años advirtiendo. El escándalo provocó un creciente interés público en la privacidad y en la influencia de los medios sociales en la política. En Twitter se hizo tendencia el movimiento ‘’#DeleteFacebook’’ (“Borra Facebook”).

[i] Sir Nicholas William Peter Clegg conocido como Nick Clegg, es un político británico socioliberal. A los 32 años fue elegido diputado al Parlamento Europeo, institución que integró hasta 2004. Desde las elecciones generales del Reino Unido de 2005 a 2017 representó al distrito de Sheffield Hallam en el Parlamento del Reino Unido. En sus inicios como parlamentario asumió como Portavoz de Interior de su partido. Solo dos años después de su entrada a la Cámara de los Comunes fue elegido Líder de los Liberal Demócratas.

Clegg lideró a su partido en las Elecciones generales del Reino Unido de 2010, en la que ningún partido obtuvo la mayoría absoluta de la Cámara de los Comunes. Debido a esta situación, el Partido Conservador de David Cameron formó una coalición de gobierno con los Liberales, nombrándose a Clegg como viceprimer ministro del Reino Unido el 11 de mayo de 2010, siendo el segundo título más importante del Gobierno del Reino Unido. Tras las Elecciones generales del Reino Unido de 2015, Clegg renunció al liderazgo de su partido, y producto de la victoria de los conservadores en estos comicios, dejó de ocupar el cargo de viceprimer ministro.

El 19 de octubre de 2018, Clegg fue nombrado vicepresidente de Asuntos Globales y Comunicación de Facebook en Palo Alto luego de que las acciones de la empresa perdieran 15% de su valor en 2018. Se incorporó a su puesto en enero de 2019.

En mayo de 2018, Clegg se unió a David Miliband y Nicky Morgan pidiendo un Brexit suave. El 23 de junio de 2018, Clegg participó en la marcha convocada por People’s Vote en Londres para conmemorar el segundo aniversario del referéndum para abandonar la Unión Europea.​ People’s Vote es un grupo que pedía una votación pública sobre el acuerdo final Brexit entre el Reino Unido y la Unión Europea. En octubre de 2018 se anunció que Clegg había sido contratado como responsable oficial de relaciones públicas en su papel de vicepresidente de Asuntos Globales y Comunicación en Facebook, sustituyendo a Elliot Schrage.​ Su salario anual es de 4.500.000 euros, lo que supone sesenta veces lo que ganaba como diputado.

error: Content is protected !!