Meta, Spotify y otras tecnológicas piden a la Unión Europea que aclare su normativa sobre la Inteligencia Artificial

Noticias

3 Sep, 2024

3 Sep, 2024

El pedido fue por medio de una carta abierta. La nueva legislación europea no se aplicará plenamente hasta 2026.

Una treintena de empresas tecnológicas, entre ellas Meta (Facebook, Instagram) y Spotify, así como investigadores y asociaciones pidieron en un carta abierta a la Unión Europea que aclare su normativa sobre inteligencia artificial (IA).

«Europa se ha vuelto menos competitiva e innovadora que otras regiones y hoy corre el riesgo de perder aún más terreno en la era de la IA debido a decisiones regulatorias inconsistentes», dice la carta publicada el jueves.

«En los últimos tiempos, las regulaciones se han vuelto fragmentadas e impredecibles», argumentan los firmantes, que consideran que las intervenciones de las autoridades europeas «han generado mucha incertidumbre sobre el tipo de datos que se pueden utilizar para entrenar modelos de IA.» Por eso piden a los responsables políticos europeos «decisiones armonizadas, coherentes, rápidas y claras sobre las regulaciones de datos en la UE».

En agosto entró oficialmente en vigor la nueva legislación europea para regular la IA, pionera a nivel mundial, que tiene el objetivo de impulsar la innovación protegiendo al mismo tiempo la vida privada. La normativa impone restricciones a los sistemas de IA si suponen un peligro para la sociedad. También obliga a los sistemas como ChatGPT a garantizar la calidad de los datos y el respeto de los derechos de autor.

La nueva legislación no se aplicará plenamente hasta 2026 pero algunas disposiciones serán vinculantes el próximo año.

El organismo internacional es el primero en decretar un marco legal para el desarrollo de este tipo de tecnología. La ley había sido aprobada en marzo, pero entró en vigor desde el mes de agosto de 2024.

La normativa asigna sus normas a cada empresa que utiliza sistemas de IA en función de cuatro niveles de riesgo: sin riesgo, riesgo mínimo, riesgo alto y los sistemas de IA prohibidos. Esta categorización también determina qué plazos se les aplica a cada empresa para cumplir con la nueva legislación.

En esta línea, con la entrada en vigencia de la ley la UE prohibirá totalmente determinadas prácticas a partir de febrero de 2025. Entre ellas están las que manipulan la toma de decisiones de un usuario o amplían las bases de datos de reconocimiento facial mediante el scraping de Internet.

Otros sistemas de IA que se consideran de alto riesgo, como los que recopilan datos biométricos y los que se utilizan para infraestructuras críticas o decisiones laborales, tendrán que cumplir las normas más estrictas. Entre las exigencias, las empresas tendrán que mostrar sus conjuntos de datos de entrenamiento de IA y también deberán aportar pruebas de supervisión humana, entre otros requisitos.

Thomas Regnier, portavoz de la Comisión Europea, aseguró que «alrededor del 85% de las empresas de IA» actuales entran en la tercera categoría de «riesgo mínimo», con muy poca regulación exigida.

La entrada en vigor de la normativa exigirá a los Estados de la UE crear autoridades nacionales competentes – con límite en agosto – que supervisen la aplicación de la normativa en su país. A su vez, los miembros de la comisión europea se preparan para acelerar las inversiones en IA, con una inyección esperada de 1.000 millones de euros en 2024 y hasta 20.000 millones en 2030.

Una regulación fragmentada implica que la UE corre el riesgo de perderse la era de la IA.

Somos un grupo de empresas, investigadores e instituciones que forman parte integral de Europa y que trabajamos para servir a cientos de millones de europeos. Queremos que Europa triunfe y prospere, incluso en el campo de la investigación y la tecnología de inteligencia artificial de vanguardia. Pero la realidad es que Europa se ha vuelto menos competitiva e innovadora en comparación con otras regiones y ahora corre el riesgo de quedarse aún más rezagada en la era de la inteligencia artificial debido a la incoherencia en la toma de decisiones regulatorias.

A falta de reglas coherentes, la UE va a perder la oportunidad de aprovechar dos pilares de la innovación en IA. El primero son los desarrollos en modelos «abiertos» que se ponen a disposición de todo el mundo de forma gratuita para que los utilice, modifique y desarrolle, multiplicando los beneficios y difundiendo las oportunidades sociales y económicas. El segundo son los últimos modelos «multimodales», que funcionan de forma fluida en texto, imágenes y voz y que permitirán el siguiente salto adelante en IA. La diferencia entre los modelos basados ​​únicamente en texto y los multimodales es como la diferencia entre tener un solo sentido y tener los cinco.

Los modelos abiertos de vanguardia como Llama (basados ​​en texto o multimodales) pueden potenciar la productividad, impulsar la investigación científica y agregar cientos de miles de millones de euros a la economía europea. Las instituciones públicas y los investigadores ya están utilizando estos modelos para acelerar la investigación médica y preservar las lenguas, mientras que las empresas establecidas y las empresas emergentes están obteniendo acceso a herramientas que nunca podrían construir o permitirse por sí mismas. Sin ellas, el desarrollo de la IA se producirá en otras partes, privando a los europeos de los avances tecnológicos de los que disfrutan en Estados Unidos, China e India.

Las investigaciones estiman que la IA generativa podría aumentar el PIB mundial en un 10% durante la próxima década  y a los ciudadanos de la UE no se les debería negar ese crecimiento.

La capacidad de la UE para competir con el resto del mundo en materia de IA y aprovechar los beneficios de los modelos de código abierto depende de su mercado único y de un conjunto de normas regulatorias compartidas. Si las empresas e instituciones van a invertir decenas de miles de millones de euros para desarrollar una IA generativa para los ciudadanos europeos, necesitan unas normas claras, que se apliquen de forma coherente y que permitan el uso de datos europeos. Pero en los últimos tiempos, la toma de decisiones regulatorias se ha vuelto fragmentada e impredecible, mientras que las intervenciones de las autoridades europeas de protección de datos han creado una enorme incertidumbre sobre qué tipos de datos se pueden utilizar para entrenar modelos de IA. Esto significa que la próxima generación de modelos de IA de código abierto, y los productos y servicios que construyamos sobre ellos, no comprenderán ni reflejarán los conocimientos, la cultura o los idiomas europeos. La UE también se perderá otras innovaciones, como el asistente de IA de Meta, que va camino de convertirse en el asistente de IA más utilizado del mundo a finales de este año.

Puede optar por reafirmar el principio de armonización consagrado en marcos regulatorios como el RGPD para que la innovación en IA se produzca aquí a la misma escala y velocidad que en otras partes, o puede seguir rechazando el progreso, traicionando las ambiciones del mercado único y viendo cómo el resto del mundo construye sobre tecnologías a las que los europeos no tendrán acceso.

Esperamos que los responsables políticos y los reguladores europeos vean lo que está en juego si no se produce un cambio de rumbo. Europa no puede permitirse el lujo de desaprovechar los amplios beneficios que se derivan de las tecnologías de IA abiertas y construidas de manera responsable, que acelerarán el crecimiento económico y permitirán el progreso en la investigación científica. Para ello, necesitamos decisiones armonizadas, coherentes, rápidas y claras en el marco de las normas de datos de la UE que permitan utilizar los datos europeos en el entrenamiento de la IA en beneficio de los europeos. Se necesitan medidas decisivas para ayudar a liberar la creatividad, el ingenio y el espíritu emprendedor que garantizarán la prosperidad, el crecimiento y el liderazgo técnico de Europa.

Firmado,

Alexandre Lebrun
Director ejecutivo de Nabla

André Martins
Vicepresidente de investigación de inteligencia artificial, Unbabel

Aureliusz Górski
Fundador y director ejecutivo de CampusAI

Borje Ekholm
Presidente y director ejecutivo de Ericsson

Benedicto Macon-Cooney
Estratega principal de políticas, Instituto Tony Blair

Christian Klein
Director ejecutivo de SAP SE

Daniel Ek
Fundador y CEO de Spotify

Daniel J. Beutel
Cofundador y director ejecutivo de Flower Labs

David Lacombled
Presidente, La villa numeris

Branquias de diarmuidos
Director de tecnología de Criteo

Edgar Riba
Presidente de Kornia AI

Egle Markeviciute
Secretaria, Consumer Choice Center Europe

Eugenio Valdano
Doctor en Filosofía

Federico Marchetti
Fundador de YOOX

Francesco Milleri
Presidente y director ejecutivo de EssilorLuxottica

Georgi Gerganov
ggml.ai

Han Stoffels
Director ejecutivo de 8vance

Hira Mehmood
Cofundador y miembro de la junta directiva de Bineric AI

Hosuk Lee-Makiyama
Directora, ECIPE

Juan Elkann
Director ejecutivo de Exor

Josef Sivic
Investigador, Instituto Checo de Informática, Robótica y Cibernética, Universidad Técnica Checa

Julien Launay
Director ejecutivo y cofundador de Adaptive ML

Lorenzo Bertelli
Director de Marketing del Grupo Prada

Maciej Hutyra
Director ejecutivo de SalesTube Sp. z oo

Marco Baroni
Profesor de investigación, ICREA

Marco Tronchetti Provera
Vicepresidente ejecutivo de Pirelli

Mark Zuckerberg
Fundador y director ejecutivo de Meta

Miguel Ferrer
Tecnología estética

Martín Ott
Director ejecutivo de Taxfix SE

Matthieu Rouif
Director ejecutivo de Photoroom

Maurice Lévy
Presidente emérito de Publicis Groupe

Máximo Ibarra
Director General Ingeniería Ingeniería Informática SPA

Michal Kanownik
Director ejecutivo de la Asociación Digital Polonia

Miguel López
Director ejecutivo de thyssenkrupp AG

Minh Dao
CEO, FULLY AI

Niklas von Weihe
CTO, TOTALMENTE IA

Nicolò Cesa Bianchi
Profesor de Ciencias de la Computación, Universidad de Milán, Italia

Patrick Collison

Patrick Pérez
Investigador de IA

Philippe Corrot
Cofundador y director ejecutivo de Mirakl

Profesora Dagmar Schuller
Director ejecutivo de AudiEERING

Ralf Gommers
Director, Quansight

Sebastián Siemiatkowski
Director ejecutivo y cofundador de Klarna

Simonas Černiauskas
Director ejecutivo de Infobalt

Stefano da Empoli
Presidente del Instituto para la Competitividad (I-Com)

Stefano Yacus
Científico investigador sénior de la Universidad de Harvard

Vicente Luciani
Director ejecutivo de Artefact

Vivian Bouzali
CCCO, METLEN Energía y Metales

Yann Le Cun
Vicepresidente y científico jefe de inteligencia artificial, Meta

Autor: Equipo de Investigación del Laboratorio del Futuro

Autor: Equipo de Investigación del Laboratorio del Futuro

Artículos relacionados

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

error: Content is protected !!