La Ley de regulación de la Inteligencia Artificial de la Unión Europea
La Unión Europea, luego de escuchar las opiniones de diferentes organizaciones, ha elaborado la denominada Ley de Inteligencia Artificial, en lo que se ha constituido como el comienzo de un ordenamiento dentro de este complejo tema. Lo ha hecho, luego de escuchar las opiniones de especialistas, organizaciones y universidades. Se trata de un tema muy extenso, por lo que dejamos a disposición de los lectores, tanto la ley como las diferentes opiniones expresadas por los especialistas. Esto debe ser considerado como muy importante, dado que – con la excepción de la Cámara de Diputados de la Republica Federativa de Brasil – los gobiernos regionales no han aun abordado un tema de tamaña importancia.
¿Qué es la Ley de IA de la UE?:
La Ley de IA es una ley europea propuesta sobre inteligencia artificial (IA), la primera ley sobre IA de un regulador importante en cualquier lugar del mundo. La ley asigna aplicaciones de IA a tres categorías de riesgo. En primer lugar, se prohíben las aplicaciones y los sistemas que crean un riesgo inaceptable, como la puntuación social administrada por el gobierno del tipo que se usa en la Republica Popular China.
En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos.
Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran parte sin regular.
Consultar la Ley de IA de la Unión Europea en este enlace.
¿Por qué nos debe importar?
Las aplicaciones de Inteligencia Artificial influyen en la información que ve en línea al predecir qué contenido le atrae, captura y analiza datos de rostros para hacer cumplir las leyes o personalizar anuncios, y se utilizan para diagnosticar y tratar el cáncer, por ejemplo. En otras palabras, la Inteligencia Artificial afecta muchas partes de la vida de las personas.
Al igual que el Reglamento General de Protección de Datos (GDPR) de la Unión Europea en 2018, la Ley de IA de la UE podría convertirse en un estándar global, determinando en qué medida la IA tiene un efecto positivo en lugar de negativo en la vida de las personas dondequiera que estén. La regulación de la IA de la UE ya está causando sensación a nivel internacional. A fines de septiembre de 2021, el Congreso de Brasil aprobó un proyecto de ley que crea un marco legal para la inteligencia artificial. Todavía tiene que pasar por el Senado del país.
¿La regulación puede ser mejorada?
Hay varias lagunas y excepciones en la ley propuesta. Estas deficiencias limitan la capacidad de la Ley para garantizar que la IA siga siendo una fuerza para el bien en su vida. Actualmente, por ejemplo, el reconocimiento facial por parte de la policía está prohibido a menos que las imágenes se capturen con retraso o la tecnología se esté utilizando para encontrar niños desaparecidos.
Además, la ley es inflexible. Si dentro de dos años se utiliza una aplicación de IA peligrosa en un sector imprevisto, la ley no prevé ningún mecanismo para etiquetarla como de “alto riesgo”.
Análisis más detallados:
Este apartado incluye un puñado de análisis de la Ley AI, entre muchos cientos, que hemos seleccionado. Hemos elegido estos análisis porque, en nuestra opinión, contienen ideas constructivas y que invitan a la reflexión sobre cómo mejorar la Ley.
- Instituto Futuro de la Vida:
El Future of Life Institute (FLI), una organización independiente sin fines de lucro con el objetivo de maximizar los beneficios de la tecnología y reducir sus riesgos asociados, compartió sus recomendaciones para la Ley de IA de la UE con la Comisión Europea. Argumenta que la Ley debería garantizar que los proveedores de IA consideren el impacto de sus aplicaciones en la sociedad en general, no solo en el individuo. Las aplicaciones de IA que causan daños insignificantes a las personas podrían causar daños significativos a nivel social. Por ejemplo, una aplicación de marketing utilizada para influir en el comportamiento electoral de los ciudadanos podría afectar los resultados de las elecciones. Lea más de las recomendaciones en el siguiente link aquí .
- Instituciones de la Universidad de Cambridge:
El Centro Leverhulme para el Futuro de la Inteligencia y el Centro para el Estudio del Riesgo Existencial, dos instituciones líderes en la Universidad de Cambridge brindaron sus comentarios sobre la propuesta de ley de IA de la UE a la Comisión Europea. Esperan que la Ley ayude a establecer estándares a nivel internacional para permitir los beneficios y reducir los riesgos de la IA. Una de sus recomendaciones es permitir que se propongan cambios en la lista de sistemas restringidos y de alto riesgo, aumentando la flexibilidad de la regulación. Lea el razonamiento completo aquí .
- Accede Ahora Europa:
Access Now, una organización que defiende y extiende los derechos digitales de los usuarios en riesgo, también ha brindado comentarios sobre la Ley de IA de la UE. Le preocupa que la ley, en su forma actual, no logre el objetivo de proteger los derechos fundamentales. En concreto, no cree que la propuesta vaya lo suficientemente lejos para proteger los derechos fundamentales en relación con las aplicaciones biométricas como el reconocimiento de emociones y los polígrafos de IA. El borrador actual de la Ley de IA aboga por obligaciones de transparencia para estas aplicaciones, pero Access Now recomienda medidas más estrictas para reducir todos los riesgos asociados, como las prohibiciones. Lea sus sugerencias concretas aquí .
- Michael Veale y Frederik Zuiderveen Borgesius:
Michael Veale, profesor asistente en el University College London en Digital Rights and Regulation, y Frederik Zuiderveen Borgesius, profesor de ICT y Private Law en la Dutch Radboud University, brindan un análisis exhaustivo de algunas de las partes más sensibles de la Ley de IA de la UE. Una de las muchas ideas sorprendentes de su artículo es que el cumplimiento de la ley dependería casi por completo de la autoevaluación. La autoevaluación significa que no hay ejecución para cumplir con la ley. Una vez que los organismos de normalización como CEN y CENELEC hayan publicado sus normas, ya no será necesaria la verificación de terceros ante la ley. El artículo completo se puede encontrar aquí .
- La Sociedad del Futuro:
The Future Society, una organización sin fines de lucro registrada en Estonia, que aboga por la adopción responsable de la IA en beneficio de la humanidad, envió sus comentarios a la Comisión Europea sobre la Ley de IA de la UE. Una de sus sugerencias es garantizar que la gobernanza siga respondiendo a las tendencias tecnológicas. Esto podría lograrse mejorando el flujo de información entre las instituciones nacionales y europeas y compilando y analizando sistemáticamente los informes de incidentes de los estados miembros. Lea los comentarios completos aquí .
- Nathalie A. Smuha y colegas:
Nathalie A. Smuha, investigadora de la Facultad de Derecho de KU Leuven, Emma Ahmed-Rengers, investigadora de doctorado en Derecho e Informática de la Universidad de Birmingham, y sus colegas argumentan que la Ley de IA de la UE no siempre reconoce con precisión los errores y daños. asociados con diferentes tipos de sistemas de IA ni asignarles la responsabilidad de manera adecuada. También afirman que la propuesta no proporciona un marco efectivo para el cumplimiento de los derechos y deberes legales. La propuesta no garantiza una transparencia significativa, la rendición de cuentas y los derechos de participación pública. Lea el artículo completo aquí .
- La Alianza Europea de PYMES DIGITALES:
La European DIGITAL SME Alliance, una red de pequeñas y medianas empresas (PYME) de TIC en Europa, da la bienvenida a una regulación de IA armonizada y se centra en la IA ética en la UE, pero sugiere muchas mejoras para evitar sobrecargar a las PYME. Por ejemplo, sostiene que siempre que las evaluaciones de la conformidad se basen en normas, las PYME deberían participar activamente en el desarrollo de dichas normas. De lo contrario, las normas pueden redactarse de una manera que no sea práctica para las PYME. Muchas otras recomendaciones se pueden leer aquí .
- El costo de la Ley de IA de la UE:
Centre for Data Innovation, una organización sin ánimo de lucro centrada en la innovación basada en datos publicó un informe en el que afirma que la Ley de IA de la UE costará 31 000 millones de euros en los próximos cinco años y reducirá las inversiones en IA en casi un 20 %. La empresaria Meeri Haataja y la académica Joanna Bryson publicaron su propia investigación escribiendo que probablemente será mucho más barato, ya que la regulación cubre principalmente una pequeña proporción de las aplicaciones de IA consideradas de alto riesgo. Además, el análisis de costos no considera todos los beneficios de la regulación para el público. Finalmente, CEPS, un grupo de expertos y foro de debate sobre asuntos de la Union Europea, publicó sus propios análisis de las estimaciones de costos y llegó a una conclusión similar a la de Haataja y Bryson.
- El daño social y la Ley:
Nathalie Smuha, distingue el daño social del daño individual en el contexto de la Ley AI. El daño social no se relaciona con los intereses de un individuo en particular, sino que considera los daños a la sociedad en general, más allá de la suma de los intereses individuales. Afirma que la propuesta sigue estando imbuida de preocupaciones relacionadas casi exclusivamente con el daño individual y parece pasar por alto la necesidad de protección contra los daños sociales de AI. El documento completo se puede leer aquí .
- El papel de las normas:
Investigadores de Oxford Information Labs discuten qué papel otorga la Ley de Inteligencia Artificial de la Unión Europea a los estándares para la IA. El punto clave que señalan es que la conformidad con los estándares armonizados creará una presunción de conformidad para las aplicaciones y servicios de IA de alto riesgo. Esto, a su vez, puede aumentar la confianza de que cumplen los complejos requisitos del reglamento propuesto y crear fuertes incentivos para que la industria cumpla con las normas europeas. Encuentre el extenso análisis del papel de los estándares en la regulación de IA de la UE aquí .
Equipo de análisis del Laboratorio del Futuro/Sistema de Información de Unión Europea.
0 comentarios