Inteligencia Artificial IX – Regulacion Brasileña

Inteligencia Artificial IX – Regulacion Brasileña

Proyecto de Ley de Regulación de Inteligencia Artificial de la Cámara de Diputados de la República Federativa del Brasil

Para la mayoría de los miembros de la Cámara de Diputados de la Republica Federativa del Brasil, el marco de la inteligencia artificial incentivara el desarrollo tecnológico. Es importante destacar que el país, es el primero en América Latina en ocuparse del tema. El Proyecto de Ley tiene media sanción, esperando el tratamiento y aprobación de la Cámara de Senadores. La iniciativa se presentó bajo la Administración del Presidente Jair Mesias Bolsonaro. Con posterioridad, según hemos de dar cuenta, se ha avanzado en la presentación de proyectos que contribuyen a un complemento mejorado de lo que ya se ha tratado, incluso en el Senado Federal.

Para Diputados, el marco de la inteligencia artificial incentivará el desarrollo tecnológico.  

La mayoría de los Diputados evaluó que la definición de principios para la aplicación de la Inteligencia Artificial en Brasil, tema del Proyecto de Ley 21/20, va a incentivar el desarrollo tecnológico del país. El texto fue aprobado en el Plenario de la Cámara de Diputados y, continuando con los caminos constitucionales, será encaminado al Senado para su tratamiento.

La relatora del Proyecto, la Diputada Luisa Canziani (PTB por el Estado de Paraná), afirmo que limito el texto y las directrices a ser utilizadas por el poder publico al disciplinar la aplicación de la inteligencia artificial para no crear reglas que terminen desestimulando su adopción. Ella recordó que algunos Estados ya están creando reglas propias y, que, por eso, es necesario establecer una legislación nacional sobre el tema. “Tomamos lo que hay de mejor en las experiencias internacionales de reglamentación de inteligencia artificial en la construcción de este texto. Si no aprobamos esta materia, vamos a inhibir las inversiones relacionadas con la innovación y la inteligencia”.

El autor de la propuesta, el Diputado Eduardo Bismarck (PDT, por el Estado de Ceará), afirmo que la aprobación de un marco legal para el sector indica al mundo que Brasil está atento a la innovación y a la inteligencia artificial. “La inteligencia artificial ya es parte de nuestra realidad, y Brasil, va a hacer en el futuro otras legislaciones. El momento es ahora y es el de trazar principios: derechos, deberes y responsabilidades”.

La propuesta llego a ser criticada por el Diputado Leo de Brito (PT-Estado de Acre), que solicito reglas mas específicas. Luego de la inclusión en el texto de temas como la responsabilidad del Estado, fue realizado un acuerdo a favor del texto. De acuerdo con el Diputado de Brito “fuimos contemplados en algunas cuestiones fundamentales, por eso retiramos nuestra oposición”.

Para el Diputado Paulo Ganime (Novo-Estado de Rio de Janeiro), el proyecto está en la “dosis cierta”. “En este caso, el marco se destina a la promoción del desarrollo tecnológico, de la evolución de la inteligencia artificial en Brasil, de la generación de empleo y de trabajo, y de más seguridad jurídica para un sector que todavía está en proceso de salida y donde Brasil puede convertirse en un precursor”.

El Diputado Eduardo Cury (PSDB- Estado de Sao Paulo) resalto que la propuesta es el puntapié inicial para la reglamentación del tema. “El proyecto tiene un ajuste correcto, con el inicio de una reglamentación que no detalla al punto de inhibir la innovación”.

Texto de la Redacción Final del Proyecto de Ley presentado:

Se coloca a continuación, la redacción final del Proyecto de Ley aprobado por la Cámara de Diputados, en su lenguaje original, para respetar mas fielmente su contenido.

redação final

projeto de lei nº 21-A de 2020

Estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá outras providências.

O CONGRESSO NACIONAL decreta:

Art. 1º Esta Lei estabelece fundamentos e princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil e diretrizes para o fomento e a atuação do poder público nessa área.

Art. 2º Para os fins desta Lei, considera-se sistema de inteligência artificial o sistema baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e de informações, aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, fazendo predições, recomendações, classificações ou decisões, e que utiliza, sem a elas se limitar, técnicas como:

I – Sistemas de aprendizagem de máquina (machine learning), incluída aprendizagem supervisionada, não supervisionada e por reforço;

II – Sistemas baseados em conhecimento ou em lógica;

III – abordagens estatísticas, inferência bayesiana, métodos de pesquisa e de otimização.

Parágrafo único. Esta Lei não se aplica aos processos de automação exclusivamente orientados por parâmetros predefinidos de programação que não incluam a capacidade do sistema de aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, a partir das ações e das informações recebidas.

Art. 3º A aplicação de inteligência artificial no Brasil tem por objetivo o desenvolvimento científico e tecnológico, bem como:

I – a promoção do desenvolvimento econômico sustentável e inclusivo e do bem-estar da sociedade;

II – o aumento da competitividade e da produtividade brasileira;

III – a inserção competitiva do Brasil nas cadeias globais de valor;

IV – a melhoria na prestação de serviços públicos e na implementação de políticas públicas;

V – A promoção da pesquisa e desenvolvimento com a finalidade de estimular a inovação nos setores produtivos; e

VI – a proteção e a preservação do meio ambiente.

Art. 4º O desenvolvimento e a aplicação da inteligência artificial no Brasil têm como fundamentos:

I – O desenvolvimento científico e tecnológico e a inovação;

II – A livre iniciativa e a livre concorrência;

III – o respeito à ética, aos direitos humanos e aos valores democráticos;

IV – A livre manifestação de pensamento e a livre expressão da atividade intelectual, artística, científica e de comunicação;

V – A não discriminação, a pluralidade, o respeito às diversidades regionais, a inclusão e o respeito aos direitos e garantias fundamentais do cidadão;

VI – o reconhecimento de sua natureza digital, transversal e dinâmica;

VII – o estímulo à autorregulação, mediante adoção de códigos de conduta e de guias de boas práticas, observados os princípios previstos no art. 5º desta Lei, e as boas práticas globais;

VIII – a segurança, a privacidade e a proteção de dados pessoais;

IX – A segurança da informação;

X – O acesso à informação;

XI – a defesa nacional, a segurança do Estado e a soberania nacional;

XII – a liberdade dos modelos de negócios, desde que não conflite com as disposições estabelecidas nesta Lei;

XIII – a preservação da estabilidade, da segurança, da resiliência e da funcionalidade dos sistemas de inteligência artificial, por meio de medidas técnicas compatíveis com os padrões internacionais e de estímulo ao uso de boas práticas;

XIV – a proteção da livre concorrência e contra práticas abusivas de mercado, na forma da Lei nº 12.529, de 30 de novembro de 2011; e

XV – A harmonização com as Leis nºs 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais), 12.965, de 23 de abril de 2014, 12.529, de 30 de novembro de 2011, 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), e 12.527 de 18 de novembro de 2011.

Parágrafo único. Os códigos de conduta e os guias de boas práticas previstos no inciso VII do caput deste artigo poderão servir como elementos indicativos de conformidade.

Art. 5º São princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil:

I – Finalidade benéfica: busca de resultados benéficos para a humanidade pelos sistemas de inteligência artificial;

II – Centralidade do ser humano: respeito à dignidade humana, à privacidade, à proteção de dados pessoais e aos direitos fundamentais, quando o sistema tratar de questões relacionadas ao ser humano;

III – não discriminação: mitigação da possibilidade de uso dos sistemas para fins discriminatórios, ilícitos ou abusivos;

IV – Busca pela neutralidade: recomendação de que os agentes atuantes na cadeia de desenvolvimento e de operação de sistemas de inteligência artificial busquem identificar e mitigar vieses contrários ao disposto na legislação vigente;

V – Transparência: direito das pessoas de serem informadas de maneira clara, acessível e precisa sobre a utilização das soluções de inteligência artificial, salvo disposição legal em sentido contrário e observados os segredos comercial e industrial, nas seguintes hipóteses:

a) sobre o fato de estarem se comunicando diretamente com sistemas de inteligência artificial, tal como por meio de robôs de conversação para atendimento personalizado on-line (chatbot), quando estiverem utilizando esses sistemas;

b) sobre a identidade da pessoa natural, quando ela operar o sistema de maneira autônoma e individual, ou da pessoa jurídica responsável pela operação dos sistemas de inteligência artificial;

c) sobre critérios gerais que orientam o funcionamento do sistema de inteligência artificial, assegurados os segredos comercial e industrial, quando houver potencial de risco relevante para os direitos fundamentais;

VI – segurança e prevenção: utilização de medidas técnicas, organizacionais e administrativas, considerando o uso de meios razoáveis e disponíveis na ocasião, compatíveis com as melhores práticas, os padrões internacionais e a viabilidade econômica, direcionadas a permitir o gerenciamento e a mitigação de riscos oriundos da operação de sistemas de inteligência artificial durante todo o seu ciclo de vida e o seu contínuo funcionamento;

VII – inovação responsável: garantia de adoção do disposto nesta Lei, pelos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial que estejam em uso, documentando seu processo interno de gestão e responsabilizando-se, nos limites de sua respectiva participação, do contexto e das tecnologias disponíveis, pelos resultados do funcionamento desses sistemas;

VIII – disponibilidade de dados: não violação do direito de autor pelo uso de dados, de banco de dados e de textos por ele protegidos, para fins de treinamento de sistemas de inteligência artificial, desde que não seja impactada a exploração normal da obra por seu titular.

Art. 6º Ao disciplinar a aplicação de inteligência artificial, o poder público deverá observar as seguintes diretrizes:

I – Intervenção subsidiária: regras específicas deverão ser desenvolvidas para os usos de sistemas de inteligência artificial apenas quando absolutamente necessárias para a garantia do atendimento ao disposto na legislação vigente;

II – Atuação setorial: a atuação do poder público deverá ocorrer pelo órgão ou entidade competente, considerados o contexto e o arcabouço regulatório específicos de cada setor;

III – gestão baseada em risco: o desenvolvimento e o uso dos sistemas de inteligência artificial deverão considerar os riscos concretos, e as definições sobre a necessidade de regulação dos sistemas de inteligência artificial e sobre o respectivo grau de intervenção deverão ser sempre proporcionais aos riscos concretos oferecidos por cada sistema e à probabilidade de ocorrência desses riscos, avaliados sempre em comparação com:

a) os potenciais benefícios sociais e econômicos oferecidos pelo sistema de inteligência artificial; e

b) os riscos apresentados por sistemas similares que não envolvam inteligência artificial, nos termos do inciso V deste caput;

IV – Participação social e interdisciplinar: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será baseada em evidências e precedida de consulta pública, realizada preferencialmente pela internet e com ampla divulgação prévia, de modo a possibilitar a participação de todos os interessados e as diversas especialidades envolvidas;

V – Análise de impacto regulatório: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será precedida de análise de impacto regulatório, nos termos do Decreto nº 10.411, de 30 de junho de 2020, e da Lei nº 13.874, de 20 de setembro de 2019; e

VI – responsabilidade: as normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial deverão, salvo disposição legal em contrário, pautar-se na responsabilidade subjetiva e levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar e a forma como esses agentes podem demonstrar adequação às normas aplicáveis, por meio de esforços razoáveis compatíveis com os padrões internacionais e as melhores práticas de mercado.

§ 1º Na gestão com base em risco a que se refere o inciso III do caput deste artigo, a administração pública, nos casos de baixo risco, deverá incentivar a inovação responsável com a utilização de técnicas regulatórias flexíveis.

§ 2º Na gestão com base em risco a que se refere o inciso III do caput deste artigo, a administração pública, nos casos concretos em que se constatar alto risco, poderá, no âmbito da sua competência, requerer informações sobre as medidas de segurança e prevenção enumeradas no inciso VI do caput do art. 5º desta Lei, e respectivas salvaguardas, nos termos e nos limites de transparência estabelecidos por esta Lei, observados os segredos comercial e industrial.

§ 3º Quando a utilização do sistema de inteligência artificial envolver relações de consumo, o agente responderá independentemente de culpa pela reparação dos danos causados aos consumidores, no limite de sua participação efetiva no evento danoso, observada a Lei nº 8.078 de 11 de setembro de 1990 (Código de Defesa do Consumidor).

§ 4º As pessoas jurídicas de direito público e as de direito privado prestadoras de serviços públicos responderão pelos danos que seus agentes, nessa qualidade, causarem a terceiros, assegurado o direito de regresso contra o responsável nos casos de dolo ou culpa.

Art. 7º Constituem diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos Municípios em relação ao uso e ao fomento dos sistemas de inteligência artificial no Brasil:

I – Promoção da confiança nas tecnologias de inteligência artificial, com disseminação de informações e de conhecimento sobre seus usos éticos e responsáveis;

II – Incentivo a investimentos em pesquisa e desenvolvimento de inteligência artificial;

III – promoção da interoperabilidade tecnológica dos sistemas de inteligência artificial utilizados pelo poder público, de modo a permitir o intercâmbio de informações e a celeridade de procedimentos;

IV – Incentivo ao desenvolvimento e à adoção de sistemas de inteligência artificial nos setores público e privado;

V – Estímulo à capacitação e à preparação das pessoas para a reestruturação do mercado de trabalho;

VI – Estímulo a práticas pedagógicas inovadoras, com visão multidisciplinar, e ênfase da importância de ressignificação dos processos de formação de professores para lidar com os desafios decorrentes da inserção da inteligência artificial como ferramenta pedagógica em sala de aula;

VII – estímulo à adoção de instrumentos regulatórios que promovam a inovação, como ambientes regulatórios experimentais (sandboxes regulatórios), análises de impacto regulatório e autorregulações setoriais;

VIII – estímulo à criação de mecanismos de governança transparente e colaborativa, com a participação de representantes do poder público, do setor empresarial, da sociedade civil e da comunidade científica; e

IX – Promoção da cooperação internacional, mediante estímulo ao compartilhamento do conhecimento sobre sistemas de inteligência artificial e à negociação de tratados, acordos e padrões técnicos globais que facilitem a interoperabilidade entre os sistemas e a harmonização da legislação a esse respeito.

Parágrafo único. Para fins deste artigo, o poder público federal promoverá a gestão estratégica e as orientações quanto ao uso transparente e ético de sistemas de inteligência artificial no setor público, conforme as políticas públicas estratégicas para o setor.

Art. 8º As diretrizes de que tratam os arts. 6º e 7º desta Lei serão aplicadas conforme regulamentação do Poder Executivo federal por órgãos e entidades setoriais com competência técnica na matéria, os quais deverão:

I – Monitorar a gestão do risco dos sistemas de inteligência artificial, no caso concreto, avaliando os riscos da aplicação e as medidas de mitigação em sua área de competência;

II – Estabelecer direitos, deveres e responsabilidades; e

III – reconhecer instituições de autorregulação.

Art. 9º Para os fins desta Lei, sistemas de inteligência artificial são representações tecnológicas oriundas do campo da informática e da ciência da computação, competindo privativamente à União legislar e normatizar a matéria para a promoção de uniformidade legal em todo o território nacional, na forma do disposto no inciso IV do caput do art. 22 da Constituição Federal.

Art. 10. Esta Lei entra em vigor após decorridos 90 (noventa) dias de sua publicação oficial.

Sala das Sessões, em 29 de setembro de 2021.

Deputada LUISA CANZIANI

Relatora

Fuentes

Equipo de análisis del Laboratorio del Futuro/Sistema de Información de la Cámara de Diputados de la República Federativa del Brasil. Con la colaboración de Agencia Cámara de Noticias.

Traducción en los elementos centrales, equipo de traducción del Laboratorio del Futuro.

Propuesta de Legislacion de Inteligencia Artificial UE VIII

Propuesta de Legislacion de Inteligencia Artificial UE VIII

La Ley de regulación de la Inteligencia Artificial de la Unión Europea

La Unión Europea, luego de escuchar las opiniones de diferentes organizaciones, ha elaborado la denominada Ley de Inteligencia Artificial, en lo que se ha constituido como el comienzo de un ordenamiento dentro de este complejo tema. Lo ha hecho, luego de escuchar las opiniones de especialistas, organizaciones y universidades. Se trata de un tema muy extenso, por lo que dejamos a disposición de los lectores, tanto la ley como las diferentes opiniones expresadas por los especialistas. Esto debe ser considerado como muy importante, dado que – con la excepción de la Cámara de Diputados de la Republica Federativa de Brasil – los gobiernos regionales no han aun abordado un tema de tamaña importancia.

¿Qué es la Ley de IA de la UE?:

La Ley de IA es una ley europea propuesta sobre inteligencia artificial (IA), la primera ley sobre IA de un regulador importante en cualquier lugar del mundo. La ley asigna aplicaciones de IA a tres categorías de riesgo. En primer lugar, se prohíben las aplicaciones y los sistemas que crean un riesgo inaceptable, como la puntuación social administrada por el gobierno del tipo que se usa en la Republica Popular China. 

En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos. 

Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran parte sin regular.

Consultar la Ley de IA de la Unión Europea en este enlace.

¿Por qué nos debe importar?

Las aplicaciones de Inteligencia Artificial influyen en la información que ve en línea al predecir qué contenido le atrae, captura y analiza datos de rostros para hacer cumplir las leyes o personalizar anuncios, y se utilizan para diagnosticar y tratar el cáncer, por ejemplo. En otras palabras, la Inteligencia Artificial afecta muchas partes de la vida de las personas.

Al igual que el Reglamento General de Protección de Datos (GDPR) de la Unión Europea en 2018, la Ley de IA de la UE podría convertirse en un estándar global, determinando en qué medida la IA tiene un efecto positivo en lugar de negativo en la vida de las personas dondequiera que estén. La regulación de la IA de la UE ya está causando sensación a nivel internacional. A fines de septiembre de 2021, el Congreso de Brasil aprobó un proyecto de ley que crea un marco legal para la inteligencia artificial. Todavía tiene que pasar por el Senado del país. 

¿La regulación puede ser mejorada?

Hay varias lagunas y excepciones en la ley propuesta. Estas deficiencias limitan la capacidad de la Ley para garantizar que la IA siga siendo una fuerza para el bien en su vida. Actualmente, por ejemplo, el reconocimiento facial por parte de la policía está prohibido a menos que las imágenes se capturen con retraso o la tecnología se esté utilizando para encontrar niños desaparecidos.

Además, la ley es inflexible. Si dentro de dos años se utiliza una aplicación de IA peligrosa en un sector imprevisto, la ley no prevé ningún mecanismo para etiquetarla como de “alto riesgo”. 

Análisis más detallados:

Este apartado incluye un puñado de análisis de la Ley AI, entre muchos cientos, que hemos seleccionado. Hemos elegido estos análisis porque, en nuestra opinión, contienen ideas constructivas y que invitan a la reflexión sobre cómo mejorar la Ley. 

  • Instituto Futuro de la Vida:

El Future of Life Institute (FLI), una organización independiente sin fines de lucro con el objetivo de maximizar los beneficios de la tecnología y reducir sus riesgos asociados, compartió sus recomendaciones para la Ley de IA de la UE con la Comisión Europea. Argumenta que la Ley debería garantizar que los proveedores de IA consideren el impacto de sus aplicaciones en la sociedad en general, no solo en el individuo. Las aplicaciones de IA que causan daños insignificantes a las personas podrían causar daños significativos a nivel social. Por ejemplo, una aplicación de marketing utilizada para influir en el comportamiento electoral de los ciudadanos podría afectar los resultados de las elecciones. Lea más de las recomendaciones en el siguiente link aquí .   

  • Instituciones de la Universidad de Cambridge:

El Centro Leverhulme para el Futuro de la Inteligencia y el Centro para el Estudio del Riesgo Existencial, dos instituciones líderes en la Universidad de Cambridge brindaron sus comentarios sobre la propuesta de ley de IA de la UE a la Comisión Europea. Esperan que la Ley ayude a establecer estándares a nivel internacional para permitir los beneficios y reducir los riesgos de la IA. Una de sus recomendaciones es permitir que se propongan cambios en la lista de sistemas restringidos y de alto riesgo, aumentando la flexibilidad de la regulación.  Lea el razonamiento completo  aquí .

  • Accede Ahora Europa:

Access Now, una organización que defiende y extiende los derechos digitales de los usuarios en riesgo, también ha brindado comentarios sobre la Ley de IA de la UE. Le preocupa que la ley, en su forma actual, no logre el objetivo de proteger los derechos fundamentales. En concreto, no cree que la propuesta vaya lo suficientemente lejos para proteger los derechos fundamentales en relación con las aplicaciones biométricas como el reconocimiento de emociones y los polígrafos de IA. El borrador actual de la Ley de IA aboga por obligaciones de transparencia para estas aplicaciones, pero Access Now recomienda medidas más estrictas para reducir todos los riesgos asociados, como las prohibiciones. Lea sus sugerencias concretas  aquí .

  • Michael Veale y Frederik Zuiderveen Borgesius:

Michael Veale, profesor asistente en el University College London en Digital Rights and Regulation, y Frederik Zuiderveen Borgesius, profesor de ICT y Private Law en la Dutch Radboud University, brindan un análisis exhaustivo de algunas de las partes más sensibles de la Ley de IA de la UE. Una de las muchas ideas sorprendentes de su artículo es que el cumplimiento de la ley dependería casi por completo de la autoevaluación. La autoevaluación significa que no hay ejecución para cumplir con la ley. Una vez que los organismos de normalización como CEN y CENELEC hayan publicado sus normas, ya no será necesaria la verificación de terceros ante la ley. El artículo completo se puede encontrar aquí .

  • La Sociedad del Futuro:

The Future Society, una organización sin fines de lucro registrada en Estonia, que aboga por la adopción responsable de la IA en beneficio de la humanidad, envió sus comentarios a la Comisión Europea sobre la Ley de IA de la UE. Una de sus sugerencias es garantizar que la gobernanza siga respondiendo a las tendencias tecnológicas. Esto podría lograrse mejorando el flujo de información entre las instituciones nacionales y europeas y compilando y analizando sistemáticamente los informes de incidentes de los estados miembros. Lea los comentarios completos  aquí .

  • Nathalie A. Smuha y colegas:

Nathalie A. Smuha, investigadora de la Facultad de Derecho de KU Leuven, Emma Ahmed-Rengers, investigadora de doctorado en Derecho e Informática de la Universidad de Birmingham, y sus colegas argumentan que la Ley de IA de la UE no siempre reconoce con precisión los errores y daños. asociados con diferentes tipos de sistemas de IA ni asignarles la responsabilidad de manera adecuada. También afirman que la propuesta no proporciona un marco efectivo para el cumplimiento de los derechos y deberes legales. La propuesta no garantiza una transparencia significativa, la rendición de cuentas y los derechos de participación pública. Lea el artículo completo  aquí .

  • La Alianza Europea de PYMES DIGITALES:

La European DIGITAL SME Alliance, una red de pequeñas y medianas empresas (PYME) de TIC en Europa, da la bienvenida a una regulación de IA armonizada y se centra en la IA ética en la UE, pero sugiere muchas mejoras para evitar sobrecargar a las PYME. Por ejemplo, sostiene que siempre que las evaluaciones de la conformidad se basen en normas, las PYME deberían participar activamente en el desarrollo de dichas normas. De lo contrario, las normas pueden redactarse de una manera que no sea práctica para las PYME. Muchas otras recomendaciones se pueden leer aquí .

  • El costo de la Ley de IA de la UE:

Centre for Data Innovation, una organización sin ánimo de lucro centrada en la innovación basada en datos publicó un informe en el que afirma que la Ley de IA de la UE costará 31 000 millones de euros en los próximos cinco años y reducirá las inversiones en IA en casi un 20 %. La empresaria Meeri Haataja y la académica Joanna Bryson publicaron su propia investigación escribiendo que probablemente será mucho más barato, ya que la regulación cubre principalmente una pequeña proporción de las aplicaciones de IA consideradas de alto riesgo. Además, el análisis de costos no considera todos los beneficios de la regulación para el público. Finalmente, CEPS, un grupo de expertos y foro de debate sobre asuntos de la Union Europea, publicó sus propios análisis de las estimaciones de costos y llegó a una conclusión similar a la de Haataja y Bryson.  

  • El daño social y la Ley:

Nathalie Smuha, distingue el daño social del daño individual en el contexto de la Ley AI. El daño social no se relaciona con los intereses de un individuo en particular, sino que considera los daños a la sociedad en general, más allá de la suma de los intereses individuales. Afirma que la propuesta sigue estando imbuida de preocupaciones relacionadas casi exclusivamente con el daño individual y parece pasar por alto la necesidad de protección contra los daños sociales de AI. El documento completo se puede leer aquí .

  • El papel de las normas:

Investigadores de Oxford Information Labs discuten qué papel otorga la Ley de Inteligencia Artificial de la Unión Europea a los estándares para la IA. El punto clave que señalan es que la conformidad con los estándares armonizados creará una presunción de conformidad para las aplicaciones y servicios de IA de alto riesgo. Esto, a su vez, puede aumentar la confianza de que cumplen los complejos requisitos del reglamento propuesto y crear fuertes incentivos para que la industria cumpla con las normas europeas. Encuentre el extenso análisis del papel de los estándares en la regulación de IA de la UE aquí .

Equipo de análisis del Laboratorio del Futuro/Sistema de Información de Unión Europea.

Inteligencia Artificial VII Nota de Open AI

Inteligencia Artificial VII Nota de Open AI

¿La inteligencia artificial debe ser regulada?

Los creadores y desarrolladores de ChatGPT creen que la nueva superinteligencia puede superar a los expertos humanos en la mayoría de las disciplinas durante los próximos 10 años y piden una supra regulación, aunque a su responsable principal, Sam Altman no le parece aceptable la regulación propuesta por la Unión Europea.

Los creadores de ChatGPT han publicado una nota (la que podrá verse casi a continuación) donde advierten de que en diez años los sistemas de inteligencia artificial pueden superar a los expertos humanos en la mayoría de las áreas. Esta superinteligencia, dicen, será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarseen el pasado y supone un riesgo existencial para nuestra civilización. Por eso urgen a las autoridades a pensar ya en cómo vamos a administrarla. Es material para examinar y sobre todo para pensar el por qué, los creadores de la tecnología están teóricamente tan alarmados…

Sam Altman, Greg Brockman, Ilya Sutskever, tres de los cofundadores de OpenIA, la compañía detrás de ChatGPT, creen que la superinteligencia del futuro será aún más capaz que la inteligencia artificial general — una forma de inteligencia sintética que es equiparable a la humana — y podrá ser tan productiva como las grandes compañías actuales.

Pero, es importante que veamos el contenido de esa nota:

La nota de los tres fundadores es del 22 de mayo de 2023, y dice textualmente: Inteligencia Artificial responsable, seguridad y alineación. Dada la imagen tal como la vemos ahora, es concebible que, dentro de los próximos diez años, los sistemas de Inteligencia Artificial superen el nivel de habilidad de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad. En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos. La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo. También debemos mitigar los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un tratamiento y una coordinación especiales. Un punto de partida: Hay muchas ideas que nos importan para tener una buena oportunidad de navegar con éxito este desarrollo; aquí exponemos nuestro pensamiento inicial sobre tres de ellos. Primero, necesitamos cierto grado de coordinación entre los principales esfuerzos de desarrollo para garantizar que el desarrollo de la superinteligencia ocurra de una manera que nos permita mantener la seguridad y ayudar a la integración fluida de estos sistemas con la sociedad. Hay muchas maneras en que esto podría implementarse: los principales gobiernos de todo el mundo podrían establecer un proyecto del que formen parte muchos de los esfuerzos actuales, o podríamos acordar colectivamente (con el poder de respaldo de una nueva organización como la sugerida a continuación) que la tasa de crecimiento de la capacidad de Inteligencia Artificial en la frontera es limitada a una cierta tasa por año. Y, por supuesto, las empresas individuales deben estar sujetas a un estándar extremadamente alto de actuación responsable. En segundo lugar, es probable que eventualmente necesitemos algo como un OIEA para los esfuerzos de superinteligencia; cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos como computación), deberá estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorias, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc. El seguimiento del uso de cómputo y energía podría ser de gran ayuda y darnos alguna esperanza de que esta idea pueda implementarse. Como primer paso, las empresas podrían acordar voluntariamente comenzar a implementar elementos de lo que tal agencia podría requerir algún día, y como segundo, los países individuales podrían implementarlo. Sería importante que una agencia de este tipo se centre en reducir el riesgo existencial y no en cuestiones que deberían dejarse en manos de países individuales, como definir lo que se le debe permitir decir a una Inteligencia Artificial. Tercero, necesitamos la capacidad técnica para hacer que una superinteligencia sea segura. Esta es una pregunta de investigación abierta en la que nosotros y otros estamos poniendo mucho esfuerzo. Lo que no está en el alcance: Creemos que es importante permitir que las empresas y los proyectos de código abierto desarrollen modelos por debajo de un umbral de capacidad significativo, sin el tipo de regulación que describimos aquí (incluidos mecanismos onerosos como licencias o auditorias). Los sistemas de hoy crearan un enorme valor en el mundo y, si bien tienen riesgos, el nivel de esos riesgos se siente acorde con otras tecnologías de Internet y los enfoques probables de la sociedad parecen apropiados. Por el contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora, y debemos tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a la tecnología muy por debajo de esta barra. Opinión pública y potencial: Pero la gobernanza de los sistemas más poderosos, así como las decisiones relativas a su despliegue, deben contar con una fuerte supervisión pública. Creemos que las personas de todo el mundo deberían decidir democráticamente los límites y valores predeterminados de los sistemas de Inteligencia Artificial. Todavía no sabemos cómo diseñar tal mecanismo, pero planeamos experimentar con su desarrollo. Seguimos pensando que, dentro de estos amplios limites, los usuarios individuales deberían tener mucho control sobre cómo se comporta la Inteligencia Artificial que utilizan. Dados los riesgos y las dificultades, vale la pena considerar por que estamos construyendo esta tecnología. En OpenAI tenemos dos razones fundamentales. Primero, creemos que conducirá a un mundo mucho mejor de lo que podemos imaginar hoy (ya estamos viendo ejemplos tempranos de esto en áreas como la educación, el trabajo creativo y la productividad personal). El mundo enfrenta muchos problemas que necesitaremos mucha más ayuda para resolver; esta tecnología puede mejorar nuestras sociedades, y la capacidad creativa de todos para usar estas nuevas herramientas seguramente nos asombrara. El crecimiento económico y el aumento de la calidad de vida serán asombrosos. En segundo lugar, creemos que sería poco intuitivo, arriesgado y difícil detener la creación de superinteligencia. Debido a que las ventajas son tan enormes, el costo de construirlo disminuye cada año, la cantidad de actores que lo construyen aumenta rápidamente y es inherentemente parte del camino tecnológico en el que estamos, detenerlo requeriría algo así como un régimen de vigilancia global, e incluso eso no esta garantizado para trabajar. Así que tenemos que hacerlo bien.

De acuerdo con lo que hemos visto, la visión de OpenIA — compañía en la que participa Microsoft tras la inversión de 10.000 millones de dólares —, es que las futuras generaciones de inteligencia artificial nos traerán un futuro mucho más próspero. Aunque para que eso pase, tenemos que gestionar el riesgo existencial que supone su implementación.

Los creadores de ChatGPT piensan que aún estamos a tiempo de conseguir desarrollar esta superinteligencia de manera controlada. Tampoco creen que parar ahora sea conveniente, para ellos detener el desarrollo sería arriesgado y difícil, aunque hay que recordar que el propósito declarado de OpenIA es precisamente dar vida a uno de estos sistemas superinteligentes. Por cierto, que hay demasiado dinero e intereses en juego.

El texto sugiere que la única manera de desarrollar esta tecnología de manera segura sería mediante un régimen de vigilancia global, aunque no están seguros de que eso vaya a funcionar. Por eso reclaman que las decisiones relativas a su desarrollo e implementación deben tener“una sólida supervisión pública”, algo que el CEO de la compañía ha estado repitiendo en cada una de sus apariciones públicas.

El problema, es como evitar el riesgo existencial. Aportan tres ideas para conseguirlo. Primero, hay que conseguirun desarrollo coordinado de esta tecnologíaque permita su integración en la sociedad, mientras se mantienen unos límites básicos de seguridad.

Para ello proponen dos maneras de hacerlo. Una, impulsada por los principales gobiernos del mundo en el que participen los principales desarrolladores actuales. Y la otra, mediante un acuerdo colectivo vigilado por una organización independiente que marque un ritmo de crecimiento anual de la tecnología. En todo caso, apuntan, a las empresas se les debe exigir un nivel extremadamente alto de responsabilidad.

En segundo lugar, proponen crearun organismo similar al que regula la energía atómica (el OIEA) para vigilar los avances hacia la superinteligencia. Si una tecnología, supera un determinado umbral de capacidad tendrá que someterse a la auditoría de una autoridad internacional que pueda inspeccionar los nuevos sistemas para evitar un riesgo existencial. Algo que, sugieren, ya podrían empezar a hacer las compañías desarrolladoras voluntariamente como un simulacro de las capacidades que debería tener el nuevo organismo.

 Finalmente, los tres cofundadores de OpenIA aseguran que hace falta la capacidad técnica para hacer que la superinteligencia sea segura. “Se trata de una cuestión de investigación abierta a la que nosotros y otros estamos dedicando muchos esfuerzos”, aseguran.

Pero, curiosamente, a OpenIA no le gustan las leyes europeas.

Altman, que además de cofundador de OpenAI también es su director general, advirtió recientemente que su compañíapodría dejar de operar en Europa si el bloque aplica sus medidas sobre inteligencia artificial.

El Comisario Europeo de Justicia, Didier Reynders, durante una rueda de prensa sobre la Inteligencia Artificial. La Unión Europea se ha convertido en el regulador de facto de la Inteligencia Artificial en el mundo.

La propuesta de Ley de Inteligencia Artificial de la UE establece tres niveles de riesgo para estas tecnologías. La categoría de mayor riesgo «crearía un riesgo inaceptable, como el sistema de puntuación social gestionada por un gobierno del tipo utilizado en China» y estaría prohibida. La segunda categoría de riesgo estaría «sujeta a requisitos legales específicos» y correspondería a los sistemas de IA que se utilizaran para analizar currículos y clasificar a los solicitantes de empleo. Y la tercera sería para sistemas de IA que «no están explícitamente prohibidos o catalogados como de alto riesgo» y que, por tanto, «quedarían en gran medida sin regular». 

El Parlamento Europeo votó a favor de la ley por amplia mayoría y estableció el 14 de junio como la fecha provisional para su adopción. «Los detalles realmente importan. Intentaremos cumplirlas, pero si no podemos hacerlo, dejaremos de operar», aseguró Altman en declaraciones recogidas por el Financial Times. Infelizmente, suena más a una cierta amenaza que a otra cosa.

En la edición de mañana del blog veremos en que consiste esa regulación que seguramente va camino a colocarse en funcionamiento en la Unión Europea.

NUEVA MULTA A META EN LA UNION EUROPEA

NUEVA MULTA A META EN LA UNION EUROPEA

La imperiosa necesidad de cumplir las reglas y proteger los datos de los usuarios

Nuevamente, el Sr. Zuckerberg, Consejero Delegado de Meta, se enfrenta a problemas con las autoridades regulatorias europeas con su Facebook/Meta. Si bien ya hemos asistido a sus presentaciones frente a esas autoridades en anos anteriores, las que no han sido precisamente ni exitosas ni demasiado amables, la Unión Europea, por intermedio de los órganos competentes ha golpeado con mucha fuerza a la empresa, por hacer caso omiso de las disposiciones vigentes. Es que, para los europeos, el tema de la protección de los datos de los usuarios no es considerado una violación menor de las reglas. Y, de acuerdo con los antecedentes, no se podría afirmar con absoluta certeza que Zuckerberg sea, precisamente un hombre estrictamente preocupado con estos detalles. Solo basta con recordar episodios como los de Cambridge Analytica, el que recordamos en un cuadro al final de este post, para aquellos que no lo tengan presente. Esos episodios – de manipulación directa de datos y personas – le costo a la empresa una fortuna en multas en los Estados Unidos y en el Reino Unido, por presunta manipulación de voluntades en favor del Brexit (salida de Inglaterra de la Unión Europea).

Ahora, la Unión Europea ha impuesto a Meta, dueña de Facebook, una multa récord de 1.200 millones de euros por transferir datos de ciudadanos europeos a Estados Unidos, según ha anunciado la Comisión de Protección de Datos irlandesa, que es la agencia que supervisa el cumplimiento de la normativa de privacidad en la Unión Europea.

El organismo europeo de protección de datos entiende que Facebook ha almacenado ilegalmente durante años datos de ciudadanos europeos en sus servidores de Estados Unidos. La multa supone un récord europeo en materia de privacidad, superando a la sanción de 746 millones de euros impuesta contra Amazon en 2021. Además, la Unión Europea da un plazo de cinco meses para que Meta deje de enviar datos de sus usuarios europeos a Estados Unidos y seis meses para borrar cualquier información personal que se haya transferido previamente.

En marzo de 2022, la Unión Europea y Estados Unidosalcanzaron un acuerdo en los principios del nuevo marco para asegurar la libre transferencia de datos personales entre ambos bloques, según anunciaron públicamente el presidente de EE. UU. Joseph Biden y la Presidenta de la Comisión Europea, Ursula Von der Leyen. El marco de transferencia quedó suspendido en 2020, cuando el Tribunal de Justicia de la Unión Europea anuló el acuerdo en vigor porque consideraba que Estados Unidos no garantizaba la privacidad de los datos de los ciudadanos europeos.

El organismo irlandés entiende que las cláusulas contractuales que emplea Meta para trasladar los datos a Estados Unidos «no abordan los riesgos para los derechos y libertades fundamentales» de los usuarios europeos de Facebook planteados por esta sentencia.

El acuerdo entre ambos bloques aún no ha entrado en vigor. Nick Clegg, presidente de Asuntos Globales de Meta, urgió a que se haga efectivo este nuevo marco. «Me frustra ver que no han puesto en marcha el acuerdo anunciado», aseguró. «Hay que garantizar ese flujo de datos».

La sanción aumenta la presión sobre el gobierno estadounidensepara que cierre finalmente el acuerdo que permita a miles de multinacionales seguir enviando información de usuarios europeos a Estados Unidos. El acuerdo final podría estar listo como muy pronto en julio, aunque podría retrasarse hasta el otoño.

Meta ha llegado a amenazar con abandonar sus operaciones en la Unión Europea (por cierto, la amenaza es uno de los instrumentos preferidos por la actualmente denominada Meta) si ambos bloques no llegaban a un acuerdo para permitir la transferencia de datos. El marco anterior fue anulado por la justicia europea tras una denuncia contra Facebook interpuesta por el austriaco Max Schrems, que buscaba impedir el envío de datos de ciudadanos europeos a EE. UU. debido a que las leyes estadounidenses no ofrecen el mismo nivel de protección que la normativa europea de protección de datos.

La compañía estadounidense ha asegurado que apelará tanto la sentencia como la multa impuesta y solicitará la suspensión de la orden ante los tribunales. Asimismo, ha señalado que no habrá ninguna interrupción inmediata de Facebook en Europa.

En un comunicado firmado por Nick Clegg (un personaje muy interesante, por cierto, el Sr. Zuckerberg no repara en gastos)[i], la compañía dice que ha usado las cláusulas contractuales con el convencimiento de que este instrumento legal cumplía con las exigencias del reglamento europeo de protección de datos. «Vamos a recurrir y solicitaremos a los tribunales que suspendan los plazos de aplicación, dado el perjuicio que causarían estas órdenes, incluyendo a los millones de personas que usan Facebook cada día».

Como es de práctica, este es un tema de todos los días – la protección de los derechos y de la propiedad de los datos de los usuarios – de manera que tendremos que estar atentos al siguiente capitulo, aun cuando para Meta/Facebook la situación no parece ser la mejor en el caso en particular.

Facebook y el caso Cambridge Analytica: En la década de 2010, la consultora británica Cambridge Analytica recopiló datos de millones de usuarios de Facebook sin su consentimiento, principalmente para utilizarlos con un fin de propaganda política. Los datos se obtuvieron por medio de una aplicación llamada This Is Your Digital Life (“Esta es tu vida digital”), desarrollada por el informático Aleksandr Kogan y su empresa Global Science Research en 2013. ​ La aplicación consistía en una serie de preguntas para elaborar perfiles psicológicos de usuarios, y recabó los datos personales de los contactos de sus usuarios mediante la plataforma Open Graph de Facebook. ​ La aplicación recopiló datos de hasta 87 millones de perfiles de Facebook, y Cambridge Analytica los utilizó para proporcionar asistencia analítica a las campañas de Ted Cruz y Donald Trump para las elecciones presidenciales de 2016. Cambridge Analytica también fue acusada de interferir en el referéndum del Brexit, si bien la investigación oficial reconoció que la empresa no intervino “más allá de ciertas indagaciones iniciales” y que no se habían producido “infracciones significativas”. La información sobre el mal uso de los datos se conoció gracias a Christopher Wylie, antiguo empleado de Cambridge Analytica, en entrevistas con The Guardian y The New York Times. ​ En respuesta, Facebook se disculpó por su papel en la recolección de datos, y su director ejecutivoMark Zuckerberg, tuvo que testificar ante el Congreso de los Estados Unidos. ​ En julio de 2019 se anunció que la Comisión Federal de Comercio imponía a Facebook una multa de 5000 millones de dólares por sus violaciones de la privacidad. En octubre de 2019, Facebook aceptó pagar una multa de 500 000 £ a la Oficina del Comisionado de Información del Reino Unido por exponer los datos de sus usuarios a un “serio riesgo de daño”. En mayo de 2018, Cambridge Analytica se declaró en quiebra en EE. UU. Otras agencias de publicidad llevan años implementado distintas formas de seguimiento psicológico, y Facebook patentó una tecnología similar en 2012. No obstante, la sinceridad de Cambridge Analytica sobre sus métodos y el calibre de sus clientes —como la campaña presidencial de Trump y la campaña a favor del Brexit— concienciaron a la opinión pública de los problemas que plantea el seguimiento psicológico, una cuestión sobre la que los estudiosos llevan años advirtiendo. El escándalo provocó un creciente interés público en la privacidad y en la influencia de los medios sociales en la política. En Twitter se hizo tendencia el movimiento ‘’#DeleteFacebook’’ (“Borra Facebook”).

[i] Sir Nicholas William Peter Clegg conocido como Nick Clegg, es un político británico socioliberal. A los 32 años fue elegido diputado al Parlamento Europeo, institución que integró hasta 2004. Desde las elecciones generales del Reino Unido de 2005 a 2017 representó al distrito de Sheffield Hallam en el Parlamento del Reino Unido. En sus inicios como parlamentario asumió como Portavoz de Interior de su partido. Solo dos años después de su entrada a la Cámara de los Comunes fue elegido Líder de los Liberal Demócratas.

Clegg lideró a su partido en las Elecciones generales del Reino Unido de 2010, en la que ningún partido obtuvo la mayoría absoluta de la Cámara de los Comunes. Debido a esta situación, el Partido Conservador de David Cameron formó una coalición de gobierno con los Liberales, nombrándose a Clegg como viceprimer ministro del Reino Unido el 11 de mayo de 2010, siendo el segundo título más importante del Gobierno del Reino Unido. Tras las Elecciones generales del Reino Unido de 2015, Clegg renunció al liderazgo de su partido, y producto de la victoria de los conservadores en estos comicios, dejó de ocupar el cargo de viceprimer ministro.

El 19 de octubre de 2018, Clegg fue nombrado vicepresidente de Asuntos Globales y Comunicación de Facebook en Palo Alto luego de que las acciones de la empresa perdieran 15% de su valor en 2018. Se incorporó a su puesto en enero de 2019.

En mayo de 2018, Clegg se unió a David Miliband y Nicky Morgan pidiendo un Brexit suave. El 23 de junio de 2018, Clegg participó en la marcha convocada por People’s Vote en Londres para conmemorar el segundo aniversario del referéndum para abandonar la Unión Europea.​ People’s Vote es un grupo que pedía una votación pública sobre el acuerdo final Brexit entre el Reino Unido y la Unión Europea. En octubre de 2018 se anunció que Clegg había sido contratado como responsable oficial de relaciones públicas en su papel de vicepresidente de Asuntos Globales y Comunicación en Facebook, sustituyendo a Elliot Schrage.​ Su salario anual es de 4.500.000 euros, lo que supone sesenta veces lo que ganaba como diputado.

error: Content is protected !!