Inteligencia Artificial XIII Laboratorio de Regulacion de China

Inteligencia Artificial XIII Laboratorio de Regulacion de China

LA VELOZ REGULACION DE LA INTELIGENCIA ARTIFICIAL EN LA REPUBLICA POPULAR CHINA

El borrador de la regulación como una mezcla de restricciones sensatas sobre los riesgos de la IA y una continuación de la fuerte tradición del gobierno chino de intervención agresiva en la industria tecnológica.

En abril (2023), hubo un gran desarrollo en el espacio de la Inteligencia Artificial en China. El regulador chino de Internet publicó un borrador de reglamento sobre Inteligencia Artificial generativa. Denominado “Medidas para la Gestión de Servicios de Inteligencia Artificial Generativa”, el documento no llama a ninguna empresa específica, pero la forma en que está redactado deja en claro que se inspiró en el lanzamiento incesante de chatbots de modelos de lenguaje grande en China y el Estados Unidos

La semana pasada, participé en el podcast de CBC News «Nothing Is Foreign » para hablar sobre el borrador de la regulación y lo que significa para el gobierno chino tomar medidas tan rápidas en una tecnología aún muy nueva. 

Como dije en el podcast, veo el borrador de la regulación como una mezcla de restricciones sensatas sobre los riesgos de la IA y una continuación de la fuerte tradición del gobierno chino de intervención agresiva en la industria tecnológica.

Muchas de las cláusulas del borrador del reglamento son principios que los críticos de la IA defienden en Occidente: los datos utilizados para entrenar modelos generativos de IA no deben infringir la propiedad intelectual o la privacidad; los algoritmos no deben discriminar a los usuarios por motivos de raza, etnia, edad, género y otros atributos; Las empresas de IA deben ser transparentes sobre cómo obtuvieron los datos de capacitación y cómo contrataron a humanos para etiquetar los datos.

Al mismo tiempo, hay reglas que otros países probablemente rechazarían. El gobierno pide que las personas que usan estas herramientas generativas de inteligencia artificial se registren con su identidad real, al igual que en cualquier plataforma social en China. El contenido que genera el software de IA también debe “reflejar los valores fundamentales del socialismo”. 

Ninguno de estos requisitos es sorprendente. El gobierno chino ha regulado con mano dura a las empresas tecnológicas en los últimos años, castigando a las plataformas por la moderación laxa e incorporando nuevos productos al régimen de censura establecido. 

El documento hace que esa tradición regulatoria sea fácil de ver: hay una mención frecuente de otras reglas que se han aprobado en China, sobre datos personales, algoritmos, falsificaciones profundas, ciberseguridad, etc. De alguna manera, se siente como si estos documentos discretos estuvieran formando lentamente una red de reglas que ayudan al gobierno a procesar nuevos desafíos en la era tecnológica.

El hecho de que el gobierno chino pueda reaccionar tan rápidamente a un nuevo fenómeno tecnológico es un arma de doble filo. La fuerza de este enfoque, que analiza cada nueva tendencia tecnológica por separado, “es su precisión, creando remedios específicos para problemas específicos”, escribió Matt Sheehan, miembro de Carnegie Endowment for International Peace. “La debilidad es su naturaleza fragmentaria, con los reguladores obligados a redactar nuevas regulaciones para nuevas aplicaciones o problemas”. Si el gobierno está ocupado jugando al whack-a-mole con nuevas reglas, podría perder la oportunidad de pensar estratégicamente sobre una visión a largo plazo de la IA. Podemos contrastar este enfoque con el de la UE, que ha estado trabajando en una Ley de Inteligencia Artificial “enormemente ambiciosa” durante años, como explicó recientemente mi colega Melissa. (Una revisión reciente del borrador de la Ley de IA incluyó regulaciones sobre IA generativa).

Hay un punto que no llegué a mencionar en el podcast pero que creo que es fascinante. A pesar de la naturaleza restrictiva del documento, también es un estímulo tácito para que las empresas sigan trabajando en IA. La multa máxima propuesta por violar las reglas es de 100 000 RMB, unos 15 000 dólares, una cifra minúscula para cualquier empresa que tenga la capacidad de construir grandes modelos lingüísticos. 

Por supuesto, si una empresa es multada cada vez que su modelo de IA viola las reglas, las cantidades pueden acumularse. Pero el tamaño de la multa sugiere que las reglas no están hechas para asustar a las empresas para que no inviertan en IA. Como escribió recientemente Angela Zhang, profesora de derecho en la Universidad de Hong Kong, el gobierno está desempeñando múltiples funciones: “El gobierno chino no solo debe ser visto como un regulador, sino también como un defensor, patrocinador e inversor en IA. Los ministerios que defienden el desarrollo de la IA, junto con los patrocinadores e inversores estatales, están preparados para convertirse en un potente contrapeso contra la estricta regulación de la IA”. 

Pueden pasar algunos meses antes de que los reguladores finalicen el borrador, y meses después antes de que entre en vigor. Pero sé que mucha gente, incluyéndome a mí, estará atenta a cualquier cambio. 

¿Quién sabe? Para cuando la regulación entre en vigencia, podría haber otro nuevo producto viral de Inteligencia Artificial que obligue al gobierno a elaborar aún más reglas. 

Equipo de análisis del Laboratorio del Futuro/publicación del MIT – Massachussets Institute of Technology (Estados Unidos). Artículo de Zeyi Yang.

Traducción del inglés: equipo de traducción e interpretación del Laboratorio del Futuro.

Inteligencia Artificial XI Cómo debe responder el mundo a la Revolucion de la Inteligencia Artificial

Inteligencia Artificial XI Cómo debe responder el mundo a la Revolucion de la Inteligencia Artificial

Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo

Yudkowsky es un teórico de la decisión de EE. UU. y dirige la investigación en el Instituto de Investigación de Inteligencia de Máquinas. Ha estado trabajando en la alineación de la Inteligencia General Artificial desde 2001 y es ampliamente considerado como uno de los fundadores del campo.

Una carta abierta publicada a fines de mayo de 2023 pide que «todos los laboratorios de IA pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4».

Esta moratoria de 6 meses sería mejor que ninguna moratoria. Tengo respeto por todos los que dieron un paso al frente y lo firmaron. Es una mejora en el margen.

Me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide muy poco para resolverla.

El tema clave no es la inteligencia “competitiva humana” (como dice la carta abierta); es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana. Los umbrales clave allí pueden no ser obvios, definitivamente no podemos calcular de antemano qué sucede y cuándo, y actualmente parece imaginable que un laboratorio de investigación cruzaría líneas críticas sin darse cuenta.

Muchos investigadores inmersos en estos temas , incluyéndome a mí, esperan que el resultado más probable de construir una IA superhumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las circunstancias actuales, es que, literalmente, todos en la Tierra morirán. No como en «tal vez posiblemente alguna posibilidad remota», sino como en «eso es lo obvio que sucedería». No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas de IA compuestos por conjuntos gigantes e inescrutables de números fraccionarios.

Sin esa precisión y preparación, el resultado más probable es una IA que no hace lo que queremos y no se preocupa por nosotros ni por la vida sensible en general. Ese tipo de cuidado es algo que, en principio, podría imbuirse en una IA, pero no estamos listos y actualmente no sabemos cómo hacerlo.

En ausencia de ese cuidado, obtenemos que «la IA no te ama, ni te odia, y estás hecho de átomos que puede usar para otra cosa».

El resultado probable de que la humanidad se enfrente a una inteligencia sobrehumana opuesta es una pérdida total. Las metáforas válidas incluyen “un niño de 10 años tratando de jugar al ajedrez contra Stockfish de 15”, “el siglo XI tratando de luchar contra el siglo XXI” y “Australopithecus tratando de luchar contra el Homo sapiens”.

Para visualizar una IA sobrehumana hostil, no imagines a un pensador inteligente y sin vida viviendo dentro de Internet y enviando correos electrónicos mal intencionados. Visualiza toda una civilización alienígena, pensando a millones de veces la velocidad humana, inicialmente confinada a las computadoras, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y lentas. Una Inteligencia Artificial lo suficientemente inteligente no permanecerá confinada a las computadoras por mucho tiempo. En el mundo actual, puede enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a pedido, lo que permite que una IA inicialmente confinada a Internet construya formas de vida artificiales o arranque directamente a la fabricación molecular posbiológica.

Si alguien construye una IA demasiado poderosa, en las condiciones actuales, espero que todos los miembros de la especie humana y toda la vida biológica en la Tierra mueran poco después.

No hay un plan propuesto sobre cómo podríamos hacer tal cosa y sobrevivir. La intención abiertamente declarada de OpenAI es hacer que alguna IA futura haga nuestra tarea de alineación de IA. Solo escuchar que este es el plan debería ser suficiente para que cualquier persona sensata entre en pánico. El otro laboratorio de inteligencia artificial líder, DeepMind, no tiene ningún plan.

Un aparte: nada de este peligro depende de si las IA son o pueden ser conscientes; es intrínseco a la noción de sistemas cognitivos poderosos que optimizan y calculan resultados que cumplen con criterios de resultados suficientemente complicados. Dicho esto, sería negligente en mis deberes morales como humano si no mencionara también que no tenemos idea de cómo determinar si los sistemas de IA son conscientes de sí mismos, ya que no tenemos idea de cómo decodificar nada de lo que sucede. en las matrices inescrutables gigantes, y por lo tanto, en algún momento, sin darnos cuenta, podemos crear mentes digitales que son verdaderamente conscientes y deberían tener derechos y no deberían ser propiedad.

La regla que la mayoría de las personas conscientes de estos problemas habría respaldado 50 años antes, era que si un sistema de IA puede hablar con fluidez y dice que es consciente de sí mismo y exige derechos humanos, eso debería ser un obstáculo para las personas que simplemente poseen esa Inteligencia Artificial. y usarlo más allá de ese punto. Ya superamos esa vieja línea en la arena. Y probablemente eso era correcto. Estoy de acuerdo en que las IA actuales probablemente solo estén imitando la conversación sobre la autoconciencia de sus datos de entrenamiento. Pero señalo que, con la poca comprensión que tenemos de las partes internas de estos sistemas, en realidad no lo sabemos.

Si ese es nuestro estado de ignorancia para GPT-4, y GPT-5 es del mismo tamaño de un paso de capacidad gigante que de GPT-3 a GPT-4, creo que ya no podremos decir justificadamente «probablemente no auto- conscientes” si permitimos que la gente fabrique GPT-5. Simplemente será “No lo sé; nadie lo sabe.» Si no puede estar seguro de si está creando una IA autoconsciente, esto es alarmante no solo por las implicaciones morales de la parte «autoconsciente», sino porque no estar seguro significa que no tiene idea de lo que está haciendo. y eso es peligroso y deberías parar.

El 7 de febrero, Satya Nadella, CEO de Microsoft, se regodeó públicamente de que el nuevo Bing haría que Google «salga y demuestre que puede bailar». “Quiero que la gente sepa que los hicimos bailar”, dijo.

No es así como habla el CEO de Microsoft en un mundo cuerdo. Muestra una brecha abrumadora entre la seriedad con la que tomamos el problema y la seriedad con la que necesitábamos tomarlo hace 30 años.

No vamos a cerrar esa brecha en seis meses.

Pasaron más de 60 años desde que se propuso y estudió por primera vez la noción de inteligencia artificial hasta que alcanzamos las capacidades actuales. Resolver la seguridad de la inteligencia sobrehumana, no la seguridad perfecta, la seguridad en el sentido de «no matar literalmente a todos», podría tomar razonablemente al menos la mitad de ese tiempo. Y lo que pasa con intentar esto con inteligencia sobrehumana es que, si te equivocas en el primer intento, no puedes aprender de tus errores, porque estás muerto. La humanidad no aprende del error y se desempolva y vuelve a intentarlo, como en otros desafíos que hemos superado en nuestra historia, porque todos nos hemos ido.

Tratar de hacer algo bien en el primer intento realmente crítico es una tarea extraordinaria, tanto en ciencia como en ingeniería. No estamos llegando con nada parecido al enfoque que se requeriría para hacerlo con éxito. Si mantuviéramos algo en el campo naciente de la Inteligencia General Artificial con los estándares menores de rigor de ingeniería que se aplican a un puente destinado a transportar un par de miles de automóviles, todo el campo se cerraría mañana.

No estamos preparados. No estamos en camino de estar preparados en una ventana de tiempo razonable. No hay plan. El progreso en las capacidades de la IA es enorme, muy por delante del progreso en la alineación de la IA o incluso del progreso en la comprensión de qué diablos está pasando dentro de esos sistemas. Si realmente hacemos esto, todos vamos a morir.

Muchos investigadores que trabajan en estos sistemas piensan que nos estamos precipitando hacia una catástrofe, y más de ellos se atreven a decirlo en privado que en público; pero piensan que no pueden detener unilateralmente la caída hacia adelante, que otros continuarán incluso si ellos personalmente renuncian a sus trabajos. Y entonces todos piensan que también podrían seguir adelante. Este es un estado de cosas estúpido y una forma indigna de que la Tierra muera, y el resto de la humanidad debería intervenir en este punto y ayudar a la industria a resolver su problema de acción colectiva.

Algunos de mis amigos me han informado recientemente que cuando las personas ajenas a la industria de la IA se enteran por primera vez del riesgo de extinción de la Inteligencia General Artificial, su reacción es «quizás no deberíamos construir AGI, entonces».

Escuchar esto me dio un pequeño destello de esperanza, porque es una reacción más simple, más sensata y francamente más sensata que la que he escuchado en los últimos 20 años de intentar que alguien en la industria se tome las cosas en serio. Cualquiera que hable así merece escuchar lo grave que es la situación en realidad, y no que le digan que una moratoria de seis meses la solucionará.

El 16 de marzo, mi pareja me envió este correo electrónico. (Más tarde me dio permiso para extraerlo aquí).

“¡Nina perdió un diente! De la manera habitual que hacen los niños, ¡no por descuido! Ver GPT4 superar esas pruebas estandarizadas el mismo día en que Nina alcanzó un hito de la infancia provocó una oleada emocional que me hizo perder la cabeza por un minuto. Todo va demasiado rápido. Me preocupa que compartir esto aumente tu propio dolor, pero prefiero que me conozcas a que cada uno de nosotros sufra solo”.

Cuando la conversación interna es sobre el dolor de ver a su hija perder su primer diente y pensar que no tendrá la oportunidad de crecer, creo que estamos más allá del punto de jugar al ajedrez político sobre una moratoria de seis meses.

Si hubiera un plan para que la Tierra sobreviviera, si solo aprobáramos una moratoria de seis meses, respaldaría ese plan. No hay tal plan.

Esto es lo que realmente tendría que hacerse:

La moratoria sobre nuevos grandes entrenamientos debe ser indefinida y mundial. No puede haber excepciones, incluso para gobiernos o militares. Si la política comienza con los EE. UU., entonces China debe ver que los EE. UU. no buscan una ventaja, sino que intentan evitar una tecnología terriblemente peligrosa que no puede tener un verdadero dueño y que matará a todos en los EE. UU., en China y en la Tierra.  Si tuviera una libertad infinita para escribir leyes, podría hacer una sola excepción para que las Inteligencias Artificiales se entrenen únicamente para resolver problemas en biología y biotecnología, no entrenadas en texto de Internet, y no al nivel en el que comienzan a hablar o planificar; pero si eso estuviera complicando remotamente el problema, descartaría inmediatamente esa propuesta y diría que simplemente cerrara todo.

Apague todos los clústeres de GPU grandes (las grandes granjas de computadoras donde se refinan las IA más poderosas). Cierra todas las carreras de entrenamiento grandes. Ponga un límite a la cantidad de poder de cómputo que cualquiera puede usar para entrenar un sistema de IA y muévalo hacia abajo en los próximos años para compensar los algoritmos de entrenamiento más eficientes. Sin excepciones para gobiernos y militares. Hacer acuerdos multinacionales inmediatos para evitar que las actividades prohibidas se trasladen a otros lugares. Seguimiento de todas las GPU vendidas. Si la inteligencia dice que un país fuera del acuerdo está construyendo un clúster de GPU, tenga menos miedo de un conflicto a tiros entre naciones que de que se viole la moratoria; estar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo.

No enmarque nada como un conflicto entre intereses nacionales, tenga claro que cualquiera que hable de carreras armamentistas es un tonto. Que todos vivamos o muramos como uno, en esto, no es una política sino un hecho de la naturaleza. Hacer explícito en la diplomacia internacional que la prevención de escenarios de extinción de la IA se considera una prioridad por encima de la prevención de un intercambio nuclear total, y que los países nucleares aliados están dispuestos a correr algún riesgo de intercambio nuclear si eso es lo que se necesita para reducir el riesgo de grandes carreras de entrenamiento de IA.

Ese es el tipo de cambio de política que haría que mi pareja y yo nos abrazáramos y nos decimos que sucedió un milagro, y ahora existe la posibilidad de que Nina viva. Las personas cuerdas que escuchan sobre esto por primera vez y dicen con sensatez «tal vez no deberíamos» merecen escuchar, honestamente, lo que se necesitaría para que eso suceda. Y cuando su solicitud de política es tan grande, la única manera de que se apruebe es si los legisladores se dan cuenta de que si hacen negocios como de costumbre y hacen lo que es políticamente fácil, eso significa que sus propios hijos también van a morir.

No estamos listos No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo.

Equipo de análisis del Laboratorio del Futuro/Revista Time (Inglaterra). Artículo de Eliezer Yudkowsky.

Traducción del inglés: equipo de traducción e interpretación del Laboratorio del Futuro.

Cómo debe responder el mundo a la Revolución de la Inteligencia Artificial

Cómo debe responder el mundo a la Revolución de la Inteligencia Artificial

Bremmer es columnista de asuntos exteriores y editor general de TIME. Es presidente de Eurasia Group, una consultora de riesgo político, y de GZERO Media, una empresa dedicada a brindar una cobertura inteligente y atractiva de asuntos internacionales. Enseña geopolítica aplicada en la Escuela de Asuntos Internacionales y Públicos de la Universidad de Columbia y su libro más reciente es El poder de la crisis.

El creciente desarrollo de la inteligencia artificial producirá avances médicos que salvarán y mejorarán miles de millones de vidas. Se convertirá en el motor de prosperidad más poderoso de la historia. Le dará a un número incalculable de personas, incluidas generaciones que aún no han nacido, herramientas poderosas que sus antepasados ​​​​nunca imaginaron. Pero los riesgos y desafíos que planteará la Inteligencia Artificial también se están volviendo claros, y ahora es el momento de comprenderlos y abordarlos. Aquí están los más grandes.

La salud de la democracia y los mercados libres depende del acceso a información precisa y verificable. En los últimos años, las redes sociales han hecho que sea más difícil distinguir los hechos de la ficción, pero los avances en IA desencadenarán legiones de bots que parecen mucho más humanos que los que hemos encontrado hasta la fecha. Las falsificaciones profundas de audio y video mucho más sofisticadas socavarán nuestra confianza (ya disminuida) en aquellos que sirven en el gobierno y aquellos que informan las noticias. En China, y más tarde en sus estados clientes, AI llevará el reconocimiento facial y otras herramientas que pueden usarse para la vigilancia estatal a niveles de sofisticación exponencialmente más altos.

Este problema se extiende más allá de nuestras instituciones, porque la producción de «IA generativa», inteligencia artificial que genera contenido escrito, visual y de otro tipo sofisticado en respuesta a las indicaciones de los usuarios, no se limita a las grandes empresas de tecnología. Cualquier persona con una computadora portátil y habilidades básicas de programación ya tiene acceso a modelos de IA mucho más poderosos que los que existían hace incluso unos meses y pueden producir volúmenes de contenido sin precedentes. Este desafío de proliferación está a punto de crecer exponencialmente, ya que millones de personas tendrán su propio GPT ejecutándose en datos en tiempo real disponibles en Internet. La revolución de la IA permitirá a los delincuentes, terroristas y otros malhechores codificar malware, crear armas biológicas, manipular los mercados financieros y distorsionar la opinión pública con una facilidad asombrosa.

La inteligencia artificial también puede exacerbar la desigualdad, dentro de las sociedades entre pequeños grupos con riqueza, acceso o habilidades especiales, así como entre naciones más ricas y pobres.

La Inteligencia Artificial creará agitación en la fuerza laboral. Sí los avances tecnológicos del pasado crearon principalmente más empleos de los que eliminaron, y aumentaron la productividad y la prosperidad en general, pero hay advertencias cruciales. Los trabajos creados por los grandes cambios tecnológicos en el lugar de trabajo exigen conjuntos de habilidades diferentes a los que han destruido, y la transición nunca es fácil. Los trabajadores deben ser reentrenados. Aquellos que no pueden volver a capacitarse deben estar protegidos por una red de seguridad social que varía en fuerza de un lugar a otro. Ambos problemas son costosos y nunca será fácil para los gobiernos y las empresas privadas ponerse de acuerdo sobre cómo compartir esta carga.

Más fundamentalmente todavía, el desplazamiento creado por la Inteligencia Artificia; ocurrirá de manera más amplia y mucho más rápida que las transiciones del pasado. La agitación de la transición generará agitación económica y, por lo tanto, política en todo el mundo.

Finalmente, la revolución de la IA también impondrá un costo emocional y espiritual. Los seres humanos son animales sociales. Prosperamos en la interacción con los demás y nos marchitamos en el aislamiento. Con demasiada frecuencia, los bots reemplazarán a los humanos como compañeros de muchas personas, y para cuando los científicos y los médicos comprendan el impacto a largo plazo de esta tendencia, nuestra creciente dependencia de la inteligencia artificial, incluso para la compañía, puede ser irreversible. Este puede ser el desafío más importante de la IA.

La respuesta:

Desafíos como estos exigirán una respuesta global. Hoy en día, la inteligencia artificial no está regulada por funcionarios gubernamentales sino por empresas de tecnología. La razón es simple: no puedes crear reglas para un juego que no entiendes. Pero confiar en las empresas de tecnología para regular sus productos no es un plan sostenible. Existen principalmente para obtener ganancias, no para proteger a los consumidores, las naciones o el planeta. Es un poco como dejar que las empresas de energía lideren las estrategias para combatir el cambio climático, excepto que el calentamiento y sus peligros ya se entienden de una manera que no se entienden los riesgos de la IA, lo que nos deja sin grupos de presión que puedan ayudar a forzar la adopción de políticas inteligentes y saludables.

Entonces, ¿dónde están las soluciones? Necesitaremos acción nacional, cooperación global y cierta cooperación con sentido común de los gobiernos de EE. UU. y China, en particular.

Siempre será más fácil lograr una política bien coordinada dentro de los gobiernos nacionales que a nivel internacional, pero los líderes políticos tienen sus propias prioridades. En Washington, los formuladores de políticas se han centrado principalmente en ganar una carrera con China para desarrollar los productos tecnológicos que mejor respalden la seguridad y la prosperidad del siglo XXI, y eso los ha alentado a dar a las empresas tecnológicas que sirven al interés nacional algo parecido a la libertad. Los legisladores chinos, temerosos de que las herramientas de inteligencia artificial puedan socavar su autoridad política, han regulado de manera mucho más agresiva. Los legisladores europeos se han centrado menos en la seguridad o las ganancias que en el impacto social de los avances de la IA.

Pero todos tendrán que establecer reglas en los próximos años que limiten la capacidad de los bots de IA para socavar las instituciones políticas, los mercados financieros y la seguridad nacional. Eso significa identificar y rastrear a los malos actores, así como ayudar a las personas a separar la información real de la falsa. Desafortunadamente, estos son pasos grandes, costosos y complicados que los legisladores probablemente no tomen hasta que se enfrenten a crisis generadas por IA (pero reales). Eso no puede suceder hasta que comience la discusión y el debate sobre estos temas.

A diferencia del cambio climático, los gobiernos del mundo aún no han acordado que la revolución de la IA plantea un desafío transfronterizo existencial. Aquí, las Naciones Unidas tienen un papel que desempeñar como la única institución con el poder de convocatoria para desarrollar un consenso mundial. Un enfoque de la IA liderado por las Naciones Unidas nunca será la respuesta más eficiente, pero ayudará a lograr un consenso sobre la naturaleza del problema y aunar recursos internacionales.

Al forjar un acuerdo sobre qué riesgos son más probables, más impactantes y emergentes más rápidamente, un equivalente centrado en la IA del Panel Intergubernamental sobre el Cambio Climático puede regular las reuniones y la producción de acuerdos sobre el «Estado de la IA» que profundizan cada vez más en el corazón. de amenazas relacionadas con la IA. Al igual que con el cambio climático, este proceso también deberá incluir la participación de funcionarios de políticas públicas, científicos, tecnólogos, delegados del sector privado y activistas individuales que representen a la mayoría de los estados miembros para crear un proceso COP (Conferencia de las Partes) para abordar las amenazas a bioseguridad, libertad de información, salud de la fuerza laboral, etc. También podría haber una agencia de inteligencia artificial inspirada en la Agencia Internacional de Energía Atómica para ayudar a vigilar la proliferación de IA.

Dicho esto, no hay forma de abordar los riesgos de rápida metástasis creados por la revolución de la IA sin una infusión de sentido común muy necesario en las relaciones entre EE. UU. y China. Después de todo, es la competencia tecnológica entre los dos países y sus principales empresas tecnológicas lo que crea el mayor riesgo de guerra, especialmente porque la IA juega un papel cada vez mayor en las armas y la planificación militar.

Beijing y Washington deben desarrollar y mantener conversaciones al más alto nivel sobre las amenazas emergentes para ambos países (y el mundo) y la mejor manera de contenerlas. Y no pueden esperar a que una versión de IA de la Crisis de los Misiles Cubanos los obligue a lograr una transparencia genuina en el manejo de su competencia. Para crear un «acuerdo de control de armas de IA» con monitoreo y verificación mutuos, cada gobierno debe escucharse no solo entre sí, sino también a los tecnólogos de ambos lados que entienden los riesgos que deben contenerse.

¿Descabellado? Absolutamente. El momento es terrible, porque estos avances llegan en un momento de intensa competencia entre dos países poderosos que realmente no confían el uno en el otro.

Pero si los estadounidenses y los soviéticos pudieron construir una infraestructura de control de armas en funcionamiento en las décadas de 1970 y 1980, EE. UU. y China pueden construir un equivalente para el siglo XXI. Esperemos que se den cuenta de que no tienen otra opción antes de que una catástrofe lo haga inevitablemente obvio.

Equipo de análisis del Laboratorio del Futuro/Revista Time (Inglaterra). Artículo de Ian Bremmer. Traducción del inglés: equipo de traducción e interpretación del Laboratorio del Futuro.

Inteligencia Artificial IX – Regulacion Brasileña

Inteligencia Artificial IX – Regulacion Brasileña

Proyecto de Ley de Regulación de Inteligencia Artificial de la Cámara de Diputados de la República Federativa del Brasil

Para la mayoría de los miembros de la Cámara de Diputados de la Republica Federativa del Brasil, el marco de la inteligencia artificial incentivara el desarrollo tecnológico. Es importante destacar que el país, es el primero en América Latina en ocuparse del tema. El Proyecto de Ley tiene media sanción, esperando el tratamiento y aprobación de la Cámara de Senadores. La iniciativa se presentó bajo la Administración del Presidente Jair Mesias Bolsonaro. Con posterioridad, según hemos de dar cuenta, se ha avanzado en la presentación de proyectos que contribuyen a un complemento mejorado de lo que ya se ha tratado, incluso en el Senado Federal.

Para Diputados, el marco de la inteligencia artificial incentivará el desarrollo tecnológico.  

La mayoría de los Diputados evaluó que la definición de principios para la aplicación de la Inteligencia Artificial en Brasil, tema del Proyecto de Ley 21/20, va a incentivar el desarrollo tecnológico del país. El texto fue aprobado en el Plenario de la Cámara de Diputados y, continuando con los caminos constitucionales, será encaminado al Senado para su tratamiento.

La relatora del Proyecto, la Diputada Luisa Canziani (PTB por el Estado de Paraná), afirmo que limito el texto y las directrices a ser utilizadas por el poder publico al disciplinar la aplicación de la inteligencia artificial para no crear reglas que terminen desestimulando su adopción. Ella recordó que algunos Estados ya están creando reglas propias y, que, por eso, es necesario establecer una legislación nacional sobre el tema. “Tomamos lo que hay de mejor en las experiencias internacionales de reglamentación de inteligencia artificial en la construcción de este texto. Si no aprobamos esta materia, vamos a inhibir las inversiones relacionadas con la innovación y la inteligencia”.

El autor de la propuesta, el Diputado Eduardo Bismarck (PDT, por el Estado de Ceará), afirmo que la aprobación de un marco legal para el sector indica al mundo que Brasil está atento a la innovación y a la inteligencia artificial. “La inteligencia artificial ya es parte de nuestra realidad, y Brasil, va a hacer en el futuro otras legislaciones. El momento es ahora y es el de trazar principios: derechos, deberes y responsabilidades”.

La propuesta llego a ser criticada por el Diputado Leo de Brito (PT-Estado de Acre), que solicito reglas mas específicas. Luego de la inclusión en el texto de temas como la responsabilidad del Estado, fue realizado un acuerdo a favor del texto. De acuerdo con el Diputado de Brito “fuimos contemplados en algunas cuestiones fundamentales, por eso retiramos nuestra oposición”.

Para el Diputado Paulo Ganime (Novo-Estado de Rio de Janeiro), el proyecto está en la “dosis cierta”. “En este caso, el marco se destina a la promoción del desarrollo tecnológico, de la evolución de la inteligencia artificial en Brasil, de la generación de empleo y de trabajo, y de más seguridad jurídica para un sector que todavía está en proceso de salida y donde Brasil puede convertirse en un precursor”.

El Diputado Eduardo Cury (PSDB- Estado de Sao Paulo) resalto que la propuesta es el puntapié inicial para la reglamentación del tema. “El proyecto tiene un ajuste correcto, con el inicio de una reglamentación que no detalla al punto de inhibir la innovación”.

Texto de la Redacción Final del Proyecto de Ley presentado:

Se coloca a continuación, la redacción final del Proyecto de Ley aprobado por la Cámara de Diputados, en su lenguaje original, para respetar mas fielmente su contenido.

redação final

projeto de lei nº 21-A de 2020

Estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá outras providências.

O CONGRESSO NACIONAL decreta:

Art. 1º Esta Lei estabelece fundamentos e princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil e diretrizes para o fomento e a atuação do poder público nessa área.

Art. 2º Para os fins desta Lei, considera-se sistema de inteligência artificial o sistema baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e de informações, aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, fazendo predições, recomendações, classificações ou decisões, e que utiliza, sem a elas se limitar, técnicas como:

I – Sistemas de aprendizagem de máquina (machine learning), incluída aprendizagem supervisionada, não supervisionada e por reforço;

II – Sistemas baseados em conhecimento ou em lógica;

III – abordagens estatísticas, inferência bayesiana, métodos de pesquisa e de otimização.

Parágrafo único. Esta Lei não se aplica aos processos de automação exclusivamente orientados por parâmetros predefinidos de programação que não incluam a capacidade do sistema de aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, a partir das ações e das informações recebidas.

Art. 3º A aplicação de inteligência artificial no Brasil tem por objetivo o desenvolvimento científico e tecnológico, bem como:

I – a promoção do desenvolvimento econômico sustentável e inclusivo e do bem-estar da sociedade;

II – o aumento da competitividade e da produtividade brasileira;

III – a inserção competitiva do Brasil nas cadeias globais de valor;

IV – a melhoria na prestação de serviços públicos e na implementação de políticas públicas;

V – A promoção da pesquisa e desenvolvimento com a finalidade de estimular a inovação nos setores produtivos; e

VI – a proteção e a preservação do meio ambiente.

Art. 4º O desenvolvimento e a aplicação da inteligência artificial no Brasil têm como fundamentos:

I – O desenvolvimento científico e tecnológico e a inovação;

II – A livre iniciativa e a livre concorrência;

III – o respeito à ética, aos direitos humanos e aos valores democráticos;

IV – A livre manifestação de pensamento e a livre expressão da atividade intelectual, artística, científica e de comunicação;

V – A não discriminação, a pluralidade, o respeito às diversidades regionais, a inclusão e o respeito aos direitos e garantias fundamentais do cidadão;

VI – o reconhecimento de sua natureza digital, transversal e dinâmica;

VII – o estímulo à autorregulação, mediante adoção de códigos de conduta e de guias de boas práticas, observados os princípios previstos no art. 5º desta Lei, e as boas práticas globais;

VIII – a segurança, a privacidade e a proteção de dados pessoais;

IX – A segurança da informação;

X – O acesso à informação;

XI – a defesa nacional, a segurança do Estado e a soberania nacional;

XII – a liberdade dos modelos de negócios, desde que não conflite com as disposições estabelecidas nesta Lei;

XIII – a preservação da estabilidade, da segurança, da resiliência e da funcionalidade dos sistemas de inteligência artificial, por meio de medidas técnicas compatíveis com os padrões internacionais e de estímulo ao uso de boas práticas;

XIV – a proteção da livre concorrência e contra práticas abusivas de mercado, na forma da Lei nº 12.529, de 30 de novembro de 2011; e

XV – A harmonização com as Leis nºs 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais), 12.965, de 23 de abril de 2014, 12.529, de 30 de novembro de 2011, 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), e 12.527 de 18 de novembro de 2011.

Parágrafo único. Os códigos de conduta e os guias de boas práticas previstos no inciso VII do caput deste artigo poderão servir como elementos indicativos de conformidade.

Art. 5º São princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil:

I – Finalidade benéfica: busca de resultados benéficos para a humanidade pelos sistemas de inteligência artificial;

II – Centralidade do ser humano: respeito à dignidade humana, à privacidade, à proteção de dados pessoais e aos direitos fundamentais, quando o sistema tratar de questões relacionadas ao ser humano;

III – não discriminação: mitigação da possibilidade de uso dos sistemas para fins discriminatórios, ilícitos ou abusivos;

IV – Busca pela neutralidade: recomendação de que os agentes atuantes na cadeia de desenvolvimento e de operação de sistemas de inteligência artificial busquem identificar e mitigar vieses contrários ao disposto na legislação vigente;

V – Transparência: direito das pessoas de serem informadas de maneira clara, acessível e precisa sobre a utilização das soluções de inteligência artificial, salvo disposição legal em sentido contrário e observados os segredos comercial e industrial, nas seguintes hipóteses:

a) sobre o fato de estarem se comunicando diretamente com sistemas de inteligência artificial, tal como por meio de robôs de conversação para atendimento personalizado on-line (chatbot), quando estiverem utilizando esses sistemas;

b) sobre a identidade da pessoa natural, quando ela operar o sistema de maneira autônoma e individual, ou da pessoa jurídica responsável pela operação dos sistemas de inteligência artificial;

c) sobre critérios gerais que orientam o funcionamento do sistema de inteligência artificial, assegurados os segredos comercial e industrial, quando houver potencial de risco relevante para os direitos fundamentais;

VI – segurança e prevenção: utilização de medidas técnicas, organizacionais e administrativas, considerando o uso de meios razoáveis e disponíveis na ocasião, compatíveis com as melhores práticas, os padrões internacionais e a viabilidade econômica, direcionadas a permitir o gerenciamento e a mitigação de riscos oriundos da operação de sistemas de inteligência artificial durante todo o seu ciclo de vida e o seu contínuo funcionamento;

VII – inovação responsável: garantia de adoção do disposto nesta Lei, pelos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial que estejam em uso, documentando seu processo interno de gestão e responsabilizando-se, nos limites de sua respectiva participação, do contexto e das tecnologias disponíveis, pelos resultados do funcionamento desses sistemas;

VIII – disponibilidade de dados: não violação do direito de autor pelo uso de dados, de banco de dados e de textos por ele protegidos, para fins de treinamento de sistemas de inteligência artificial, desde que não seja impactada a exploração normal da obra por seu titular.

Art. 6º Ao disciplinar a aplicação de inteligência artificial, o poder público deverá observar as seguintes diretrizes:

I – Intervenção subsidiária: regras específicas deverão ser desenvolvidas para os usos de sistemas de inteligência artificial apenas quando absolutamente necessárias para a garantia do atendimento ao disposto na legislação vigente;

II – Atuação setorial: a atuação do poder público deverá ocorrer pelo órgão ou entidade competente, considerados o contexto e o arcabouço regulatório específicos de cada setor;

III – gestão baseada em risco: o desenvolvimento e o uso dos sistemas de inteligência artificial deverão considerar os riscos concretos, e as definições sobre a necessidade de regulação dos sistemas de inteligência artificial e sobre o respectivo grau de intervenção deverão ser sempre proporcionais aos riscos concretos oferecidos por cada sistema e à probabilidade de ocorrência desses riscos, avaliados sempre em comparação com:

a) os potenciais benefícios sociais e econômicos oferecidos pelo sistema de inteligência artificial; e

b) os riscos apresentados por sistemas similares que não envolvam inteligência artificial, nos termos do inciso V deste caput;

IV – Participação social e interdisciplinar: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será baseada em evidências e precedida de consulta pública, realizada preferencialmente pela internet e com ampla divulgação prévia, de modo a possibilitar a participação de todos os interessados e as diversas especialidades envolvidas;

V – Análise de impacto regulatório: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será precedida de análise de impacto regulatório, nos termos do Decreto nº 10.411, de 30 de junho de 2020, e da Lei nº 13.874, de 20 de setembro de 2019; e

VI – responsabilidade: as normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial deverão, salvo disposição legal em contrário, pautar-se na responsabilidade subjetiva e levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar e a forma como esses agentes podem demonstrar adequação às normas aplicáveis, por meio de esforços razoáveis compatíveis com os padrões internacionais e as melhores práticas de mercado.

§ 1º Na gestão com base em risco a que se refere o inciso III do caput deste artigo, a administração pública, nos casos de baixo risco, deverá incentivar a inovação responsável com a utilização de técnicas regulatórias flexíveis.

§ 2º Na gestão com base em risco a que se refere o inciso III do caput deste artigo, a administração pública, nos casos concretos em que se constatar alto risco, poderá, no âmbito da sua competência, requerer informações sobre as medidas de segurança e prevenção enumeradas no inciso VI do caput do art. 5º desta Lei, e respectivas salvaguardas, nos termos e nos limites de transparência estabelecidos por esta Lei, observados os segredos comercial e industrial.

§ 3º Quando a utilização do sistema de inteligência artificial envolver relações de consumo, o agente responderá independentemente de culpa pela reparação dos danos causados aos consumidores, no limite de sua participação efetiva no evento danoso, observada a Lei nº 8.078 de 11 de setembro de 1990 (Código de Defesa do Consumidor).

§ 4º As pessoas jurídicas de direito público e as de direito privado prestadoras de serviços públicos responderão pelos danos que seus agentes, nessa qualidade, causarem a terceiros, assegurado o direito de regresso contra o responsável nos casos de dolo ou culpa.

Art. 7º Constituem diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos Municípios em relação ao uso e ao fomento dos sistemas de inteligência artificial no Brasil:

I – Promoção da confiança nas tecnologias de inteligência artificial, com disseminação de informações e de conhecimento sobre seus usos éticos e responsáveis;

II – Incentivo a investimentos em pesquisa e desenvolvimento de inteligência artificial;

III – promoção da interoperabilidade tecnológica dos sistemas de inteligência artificial utilizados pelo poder público, de modo a permitir o intercâmbio de informações e a celeridade de procedimentos;

IV – Incentivo ao desenvolvimento e à adoção de sistemas de inteligência artificial nos setores público e privado;

V – Estímulo à capacitação e à preparação das pessoas para a reestruturação do mercado de trabalho;

VI – Estímulo a práticas pedagógicas inovadoras, com visão multidisciplinar, e ênfase da importância de ressignificação dos processos de formação de professores para lidar com os desafios decorrentes da inserção da inteligência artificial como ferramenta pedagógica em sala de aula;

VII – estímulo à adoção de instrumentos regulatórios que promovam a inovação, como ambientes regulatórios experimentais (sandboxes regulatórios), análises de impacto regulatório e autorregulações setoriais;

VIII – estímulo à criação de mecanismos de governança transparente e colaborativa, com a participação de representantes do poder público, do setor empresarial, da sociedade civil e da comunidade científica; e

IX – Promoção da cooperação internacional, mediante estímulo ao compartilhamento do conhecimento sobre sistemas de inteligência artificial e à negociação de tratados, acordos e padrões técnicos globais que facilitem a interoperabilidade entre os sistemas e a harmonização da legislação a esse respeito.

Parágrafo único. Para fins deste artigo, o poder público federal promoverá a gestão estratégica e as orientações quanto ao uso transparente e ético de sistemas de inteligência artificial no setor público, conforme as políticas públicas estratégicas para o setor.

Art. 8º As diretrizes de que tratam os arts. 6º e 7º desta Lei serão aplicadas conforme regulamentação do Poder Executivo federal por órgãos e entidades setoriais com competência técnica na matéria, os quais deverão:

I – Monitorar a gestão do risco dos sistemas de inteligência artificial, no caso concreto, avaliando os riscos da aplicação e as medidas de mitigação em sua área de competência;

II – Estabelecer direitos, deveres e responsabilidades; e

III – reconhecer instituições de autorregulação.

Art. 9º Para os fins desta Lei, sistemas de inteligência artificial são representações tecnológicas oriundas do campo da informática e da ciência da computação, competindo privativamente à União legislar e normatizar a matéria para a promoção de uniformidade legal em todo o território nacional, na forma do disposto no inciso IV do caput do art. 22 da Constituição Federal.

Art. 10. Esta Lei entra em vigor após decorridos 90 (noventa) dias de sua publicação oficial.

Sala das Sessões, em 29 de setembro de 2021.

Deputada LUISA CANZIANI

Relatora

Fuentes

Equipo de análisis del Laboratorio del Futuro/Sistema de Información de la Cámara de Diputados de la República Federativa del Brasil. Con la colaboración de Agencia Cámara de Noticias.

Traducción en los elementos centrales, equipo de traducción del Laboratorio del Futuro.

Propuesta de Legislacion de Inteligencia Artificial UE VIII

Propuesta de Legislacion de Inteligencia Artificial UE VIII

La Ley de regulación de la Inteligencia Artificial de la Unión Europea

La Unión Europea, luego de escuchar las opiniones de diferentes organizaciones, ha elaborado la denominada Ley de Inteligencia Artificial, en lo que se ha constituido como el comienzo de un ordenamiento dentro de este complejo tema. Lo ha hecho, luego de escuchar las opiniones de especialistas, organizaciones y universidades. Se trata de un tema muy extenso, por lo que dejamos a disposición de los lectores, tanto la ley como las diferentes opiniones expresadas por los especialistas. Esto debe ser considerado como muy importante, dado que – con la excepción de la Cámara de Diputados de la Republica Federativa de Brasil – los gobiernos regionales no han aun abordado un tema de tamaña importancia.

¿Qué es la Ley de IA de la UE?:

La Ley de IA es una ley europea propuesta sobre inteligencia artificial (IA), la primera ley sobre IA de un regulador importante en cualquier lugar del mundo. La ley asigna aplicaciones de IA a tres categorías de riesgo. En primer lugar, se prohíben las aplicaciones y los sistemas que crean un riesgo inaceptable, como la puntuación social administrada por el gobierno del tipo que se usa en la Republica Popular China. 

En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos. 

Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran parte sin regular.

Consultar la Ley de IA de la Unión Europea en este enlace.

¿Por qué nos debe importar?

Las aplicaciones de Inteligencia Artificial influyen en la información que ve en línea al predecir qué contenido le atrae, captura y analiza datos de rostros para hacer cumplir las leyes o personalizar anuncios, y se utilizan para diagnosticar y tratar el cáncer, por ejemplo. En otras palabras, la Inteligencia Artificial afecta muchas partes de la vida de las personas.

Al igual que el Reglamento General de Protección de Datos (GDPR) de la Unión Europea en 2018, la Ley de IA de la UE podría convertirse en un estándar global, determinando en qué medida la IA tiene un efecto positivo en lugar de negativo en la vida de las personas dondequiera que estén. La regulación de la IA de la UE ya está causando sensación a nivel internacional. A fines de septiembre de 2021, el Congreso de Brasil aprobó un proyecto de ley que crea un marco legal para la inteligencia artificial. Todavía tiene que pasar por el Senado del país. 

¿La regulación puede ser mejorada?

Hay varias lagunas y excepciones en la ley propuesta. Estas deficiencias limitan la capacidad de la Ley para garantizar que la IA siga siendo una fuerza para el bien en su vida. Actualmente, por ejemplo, el reconocimiento facial por parte de la policía está prohibido a menos que las imágenes se capturen con retraso o la tecnología se esté utilizando para encontrar niños desaparecidos.

Además, la ley es inflexible. Si dentro de dos años se utiliza una aplicación de IA peligrosa en un sector imprevisto, la ley no prevé ningún mecanismo para etiquetarla como de “alto riesgo”. 

Análisis más detallados:

Este apartado incluye un puñado de análisis de la Ley AI, entre muchos cientos, que hemos seleccionado. Hemos elegido estos análisis porque, en nuestra opinión, contienen ideas constructivas y que invitan a la reflexión sobre cómo mejorar la Ley. 

  • Instituto Futuro de la Vida:

El Future of Life Institute (FLI), una organización independiente sin fines de lucro con el objetivo de maximizar los beneficios de la tecnología y reducir sus riesgos asociados, compartió sus recomendaciones para la Ley de IA de la UE con la Comisión Europea. Argumenta que la Ley debería garantizar que los proveedores de IA consideren el impacto de sus aplicaciones en la sociedad en general, no solo en el individuo. Las aplicaciones de IA que causan daños insignificantes a las personas podrían causar daños significativos a nivel social. Por ejemplo, una aplicación de marketing utilizada para influir en el comportamiento electoral de los ciudadanos podría afectar los resultados de las elecciones. Lea más de las recomendaciones en el siguiente link aquí .   

  • Instituciones de la Universidad de Cambridge:

El Centro Leverhulme para el Futuro de la Inteligencia y el Centro para el Estudio del Riesgo Existencial, dos instituciones líderes en la Universidad de Cambridge brindaron sus comentarios sobre la propuesta de ley de IA de la UE a la Comisión Europea. Esperan que la Ley ayude a establecer estándares a nivel internacional para permitir los beneficios y reducir los riesgos de la IA. Una de sus recomendaciones es permitir que se propongan cambios en la lista de sistemas restringidos y de alto riesgo, aumentando la flexibilidad de la regulación.  Lea el razonamiento completo  aquí .

  • Accede Ahora Europa:

Access Now, una organización que defiende y extiende los derechos digitales de los usuarios en riesgo, también ha brindado comentarios sobre la Ley de IA de la UE. Le preocupa que la ley, en su forma actual, no logre el objetivo de proteger los derechos fundamentales. En concreto, no cree que la propuesta vaya lo suficientemente lejos para proteger los derechos fundamentales en relación con las aplicaciones biométricas como el reconocimiento de emociones y los polígrafos de IA. El borrador actual de la Ley de IA aboga por obligaciones de transparencia para estas aplicaciones, pero Access Now recomienda medidas más estrictas para reducir todos los riesgos asociados, como las prohibiciones. Lea sus sugerencias concretas  aquí .

  • Michael Veale y Frederik Zuiderveen Borgesius:

Michael Veale, profesor asistente en el University College London en Digital Rights and Regulation, y Frederik Zuiderveen Borgesius, profesor de ICT y Private Law en la Dutch Radboud University, brindan un análisis exhaustivo de algunas de las partes más sensibles de la Ley de IA de la UE. Una de las muchas ideas sorprendentes de su artículo es que el cumplimiento de la ley dependería casi por completo de la autoevaluación. La autoevaluación significa que no hay ejecución para cumplir con la ley. Una vez que los organismos de normalización como CEN y CENELEC hayan publicado sus normas, ya no será necesaria la verificación de terceros ante la ley. El artículo completo se puede encontrar aquí .

  • La Sociedad del Futuro:

The Future Society, una organización sin fines de lucro registrada en Estonia, que aboga por la adopción responsable de la IA en beneficio de la humanidad, envió sus comentarios a la Comisión Europea sobre la Ley de IA de la UE. Una de sus sugerencias es garantizar que la gobernanza siga respondiendo a las tendencias tecnológicas. Esto podría lograrse mejorando el flujo de información entre las instituciones nacionales y europeas y compilando y analizando sistemáticamente los informes de incidentes de los estados miembros. Lea los comentarios completos  aquí .

  • Nathalie A. Smuha y colegas:

Nathalie A. Smuha, investigadora de la Facultad de Derecho de KU Leuven, Emma Ahmed-Rengers, investigadora de doctorado en Derecho e Informática de la Universidad de Birmingham, y sus colegas argumentan que la Ley de IA de la UE no siempre reconoce con precisión los errores y daños. asociados con diferentes tipos de sistemas de IA ni asignarles la responsabilidad de manera adecuada. También afirman que la propuesta no proporciona un marco efectivo para el cumplimiento de los derechos y deberes legales. La propuesta no garantiza una transparencia significativa, la rendición de cuentas y los derechos de participación pública. Lea el artículo completo  aquí .

  • La Alianza Europea de PYMES DIGITALES:

La European DIGITAL SME Alliance, una red de pequeñas y medianas empresas (PYME) de TIC en Europa, da la bienvenida a una regulación de IA armonizada y se centra en la IA ética en la UE, pero sugiere muchas mejoras para evitar sobrecargar a las PYME. Por ejemplo, sostiene que siempre que las evaluaciones de la conformidad se basen en normas, las PYME deberían participar activamente en el desarrollo de dichas normas. De lo contrario, las normas pueden redactarse de una manera que no sea práctica para las PYME. Muchas otras recomendaciones se pueden leer aquí .

  • El costo de la Ley de IA de la UE:

Centre for Data Innovation, una organización sin ánimo de lucro centrada en la innovación basada en datos publicó un informe en el que afirma que la Ley de IA de la UE costará 31 000 millones de euros en los próximos cinco años y reducirá las inversiones en IA en casi un 20 %. La empresaria Meeri Haataja y la académica Joanna Bryson publicaron su propia investigación escribiendo que probablemente será mucho más barato, ya que la regulación cubre principalmente una pequeña proporción de las aplicaciones de IA consideradas de alto riesgo. Además, el análisis de costos no considera todos los beneficios de la regulación para el público. Finalmente, CEPS, un grupo de expertos y foro de debate sobre asuntos de la Union Europea, publicó sus propios análisis de las estimaciones de costos y llegó a una conclusión similar a la de Haataja y Bryson.  

  • El daño social y la Ley:

Nathalie Smuha, distingue el daño social del daño individual en el contexto de la Ley AI. El daño social no se relaciona con los intereses de un individuo en particular, sino que considera los daños a la sociedad en general, más allá de la suma de los intereses individuales. Afirma que la propuesta sigue estando imbuida de preocupaciones relacionadas casi exclusivamente con el daño individual y parece pasar por alto la necesidad de protección contra los daños sociales de AI. El documento completo se puede leer aquí .

  • El papel de las normas:

Investigadores de Oxford Information Labs discuten qué papel otorga la Ley de Inteligencia Artificial de la Unión Europea a los estándares para la IA. El punto clave que señalan es que la conformidad con los estándares armonizados creará una presunción de conformidad para las aplicaciones y servicios de IA de alto riesgo. Esto, a su vez, puede aumentar la confianza de que cumplen los complejos requisitos del reglamento propuesto y crear fuertes incentivos para que la industria cumpla con las normas europeas. Encuentre el extenso análisis del papel de los estándares en la regulación de IA de la UE aquí .

Equipo de análisis del Laboratorio del Futuro/Sistema de Información de Unión Europea.

error: Content is protected !!