Pioneros de la Inteligencia Artificial 3

Pioneros de la Inteligencia Artificial 3

PETER NORVIG.

Peter Norvig es uno de los pioneros más influyentes en el campo de la inteligencia artificial (IA) y ha jugado un papel crucial tanto en su desarrollo teórico como en su aplicación práctica. A lo largo de su carrera, ha contribuido de manera significativa a la comprensión y desarrollo de técnicas avanzadas de IA, como el aprendizaje automático, la programación probabilística, y la búsqueda en inteligencia artificial. Además, ha sido un defensor clave de la accesibilidad a la IA a través de su trabajo en educación, divulgación y liderazgo en proyectos innovadores en empresas tecnológicas de alto impacto.

Norvig nació el 14 de diciembre de 1956 en Estados Unidos. Desde muy joven, mostró una inclinación por la tecnología y la programación. Estudió en la Universidad de Brown, donde obtuvo su licenciatura en Matemáticas Aplicadas en 1978. Posteriormente, completó su doctorado en Informática en la Universidad de California, Berkeley, en 1986. Durante su formación académica, Norvig se interesó profundamente por la inteligencia artificial, una disciplina que entonces estaba emergiendo como un campo fascinante, aunque aún limitado en términos de capacidades y aplicaciones reales. La inteligencia artificial, en aquel momento, aún estaba lejos de la capacidad que mostraría en las décadas posteriores, pero Norvig estaba decidido a contribuir al avance del campo.

Uno de los hitos más importantes en la carrera de Norvig fue su colaboración con Stuart J. Russell, con quien coescribió el libro Artificial Intelligence: A Modern Approach, publicado por primera vez en 1995. Esta obra es, sin lugar a duda, uno de los libros de texto más influyentes en el campo de la IA, siendo adoptado por más de 1,500 universidades en todo el mundo. A través de este libro, Norvig y Russell proporcionaron una exposición exhaustiva y accesible de los fundamentos de la IA, desde la resolución de problemas y la búsqueda hasta la planificación, el razonamiento probabilístico, el aprendizaje automático, y el procesamiento del lenguaje natural. El enfoque holístico y detallado de este libro ha formado a generaciones de investigadores, ingenieros y estudiantes en el campo de la inteligencia artificial, consolidando su reputación como una obra esencial para quienes buscan una comprensión rigurosa de la IA. Lo que hace a esta obra tan influyente es su capacidad de equilibrar la teoría con la práctica, y su amplia cobertura de temas tanto clásicos como emergentes en la IA.

Además de su contribución a la literatura académica, Norvig ha desempeñado un papel crucial en la industria tecnológica, particularmente en su rol como Director de Investigación y luego Director de Ciencias de la Computación en Google. Se unió a Google en 2001, un momento en que la compañía estaba creciendo rápidamente y explorando nuevas áreas de innovación tecnológica. Durante su tiempo en Google, Norvig trabajó en varios proyectos importantes relacionados con el desarrollo de algoritmos de búsqueda, procesamiento del lenguaje natural y aprendizaje automático. Su trabajo ayudó a refinar los sistemas de búsqueda de Google, mejorando la forma en que la información es organizada y presentada a los usuarios. También contribuyó a la creación de nuevas herramientas y tecnologías que utilizaron la inteligencia artificial para mejorar la experiencia del usuario y la eficiencia operativa de la empresa.

Una de las áreas de investigación más notables de Norvig ha sido el procesamiento del lenguaje natural (PLN), una rama de la IA que se centra en la interacción entre los ordenadores y el lenguaje humano. Su trabajo en esta área ha permitido avances significativos en la comprensión y generación automática del lenguaje, contribuyendo a mejoras en productos como Google Translate y en los sistemas de búsqueda avanzada basados en lenguaje natural. En el corazón de este campo, se encuentra la capacidad de las máquinas para comprender las sutilezas del lenguaje humano, como el contexto, la ambigüedad y las intenciones, lo que ha sido clave para hacer que la IA sea más accesible y útil para las personas en su vida cotidiana.

Norvig también ha sido un defensor de la IA como una herramienta educativa y ha desempeñado un papel importante en la promoción de la enseñanza de la IA a gran escala. Junto con el profesor Sebastian Thrun, lanzó en 2011 el primer curso de IA en línea masivo y abierto (MOOC, por sus siglas en inglés) ofrecido a través de la plataforma de aprendizaje de la Universidad de Stanford. Este curso de «Introducción a la Inteligencia Artificial» atrajo a más de 160,000 estudiantes de todo el mundo, marcando el comienzo de una revolución en la enseñanza en línea y en la democratización del acceso a la educación en IA. La experiencia de enseñar a tantos estudiantes y recibir retroalimentación directa sobre el aprendizaje y la enseñanza ayudó a Norvig a perfeccionar su enfoque pedagógico, reconociendo la importancia de hacer que los conceptos complejos de IA sean accesibles y comprensibles para una audiencia amplia y diversa.

Norvig también es conocido por su defensa del enfoque basado en datos dentro de la IA. En una famosa conferencia, Norvig y su colega Fernando Pereira sostuvieron que «más datos son mejor que algoritmos más sofisticados». Esta idea refleja una de las tendencias clave en el desarrollo contemporáneo de la IA: a medida que los datos masivos se han vuelto más accesibles gracias a Internet y al almacenamiento digital, los algoritmos de aprendizaje automático han podido mejorar enormemente, simplemente alimentando a las máquinas con grandes cantidades de datos para que aprendan de patrones y estructuras que no eran evidentes con datos más limitados. Este enfoque ha sido fundamental en el auge de la IA basada en redes neuronales profundas (deep learning), que ha llevado a avances en campos como el reconocimiento de voz, la visión por computadora y la traducción automática.

A lo largo de su carrera, Norvig ha sido una voz influyente en la discusión ética sobre la IA. Reconociendo los desafíos y riesgos potenciales que plantea la IA avanzada, ha abogado por un enfoque responsable en el desarrollo y la implementación de esta tecnología. Ha señalado la importancia de diseñar sistemas de IA que sean transparentes, comprensibles y que respeten los valores humanos, abogando por un desarrollo que esté alineado con el bienestar de la sociedad. En diversas charlas y escritos, Norvig ha expresado su preocupación por cuestiones como el sesgo en los algoritmos de IA, la privacidad de los datos y el impacto de la automatización en el empleo. Estos temas han sido parte integral del debate contemporáneo sobre la IA, y la perspectiva de Norvig ha sido invaluable en la promoción de una IA ética y beneficiosa para la humanidad.

En reconocimiento a sus contribuciones al campo de la inteligencia artificial, Norvig ha recibido varios premios y distinciones a lo largo de su carrera. Ha sido nombrado miembro de la Asociación para el Avance de la Inteligencia Artificial (AAAI) y de la Asociación de Maquinaria Computacional (ACM), dos de las organizaciones más prestigiosas en el ámbito de la informática y la IA. Además, ha participado activamente en conferencias internacionales, publicando numerosos artículos de investigación y colaborando con algunos de los principales científicos de IA en el mundo.

En resumen, Peter Norvig ha sido una figura central en el desarrollo de la inteligencia artificial, tanto en su dimensión teórica como en su aplicación práctica. Su contribución a la enseñanza y divulgación de la IA, su trabajo en la industria tecnológica y su influencia en la discusión ética sobre el futuro de la IA lo han posicionado como uno de los pioneros más influyentes en este campo. A través de su enfoque basado en datos, su compromiso con la educación abierta y su participación en proyectos que han mejorado directamente la vida de millones de personas, Norvig ha dejado una huella duradera en la IA moderna. Su trabajo sigue siendo un referente clave para investigadores, ingenieros y estudiantes que buscan comprender y avanzar en el campo de la inteligencia artificial.

Pioneros de la Inteligencia Artificial 2

Pioneros de la Inteligencia Artificial 2

STUART J. RUSSELL.

Stuart J. Russell es uno de los nombres más reconocidos en el campo de la inteligencia artificial (IA), especialmente por su trabajo en la IA ética y su visión de una IA que beneficie a la humanidad sin comprometer sus valores fundamentales. Nacido en 1962 en Portsmouth, Inglaterra, Russell ha construido una carrera destacada en la intersección entre la teoría de la IA y su aplicación práctica, haciendo importantes contribuciones tanto a la investigación académica como a los debates éticos que rodean esta tecnología. Su enfoque riguroso y su visión global lo han posicionado como una de las voces más influyentes en el campo de la IA contemporánea.

Russell completó su educación primaria en Inglaterra antes de trasladarse a los Estados Unidos para realizar estudios superiores. En 1982, obtuvo su título en Física de la Universidad de Oxford, y posteriormente, en 1986, obtuvo su doctorado en Informática por la Universidad de Stanford. Fue en Stanford donde Russell comenzó a desarrollar un profundo interés por la IA, influenciado por figuras como John McCarthy, a quien se le atribuye la creación del término «inteligencia artificial». Tras obtener su doctorado, Russell se incorporó a la Universidad de California, Berkeley, como profesor de Ciencias de la Computación, donde ha desarrollado gran parte de su carrera académica y de investigación.

Uno de los aspectos más destacados de la trayectoria de Russell es su enfoque en los fundamentos teóricos de la IA y su esfuerzo por crear sistemas que no solo sean capaces de realizar tareas específicas, sino también de comportarse de manera racional en un amplio rango de situaciones. En este sentido, uno de sus aportes más importantes es su trabajo en el campo de la «racionalidad limitada», que explora cómo los agentes inteligentes pueden tomar decisiones óptimas, dado que sus recursos computacionales y la información disponible son limitados. Esta línea de investigación ha sido crucial para el desarrollo de sistemas de IA más realistas, que operan dentro de las restricciones impuestas por el mundo real.

Russell es probablemente más conocido por su libro Artificial Intelligence: A Modern Approach, que coescribió con Peter Norvig. Publicado por primera vez en 1995, este libro de texto ha sido adoptado en más de 1,500 universidades en todo el mundo y es considerado una referencia esencial en la enseñanza de la IA. En él, Russell y Norvig presentan una introducción exhaustiva a los conceptos fundamentales de la IA, cubriendo temas como la resolución de problemas, la planificación, el aprendizaje automático, la percepción y el lenguaje natural. El enfoque integral y equilibrado del libro ha ayudado a moldear la formación de generaciones de estudiantes de IA, consolidando la reputación de Russell como un educador y divulgador excepcional en el campo.

Más allá de sus contribuciones a la teoría y la enseñanza de la IA, Stuart Russell también ha desempeñado un papel fundamental en el debate sobre la ética de la IA y los riesgos asociados a su desarrollo. En particular, Russell ha sido un firme defensor de la creación de una IA segura y controlable. En su libro Human Compatible: Artificial Intelligence and the Problem of Control (2019), Russell argumenta que el enfoque tradicional de la IA, que se centra en crear sistemas que maximicen la eficiencia en la consecución de un conjunto de objetivos fijos, es inherentemente peligroso. Según Russell, uno de los principales riesgos es que una IA avanzada, si se programa para perseguir objetivos de manera ciega, podría actuar en formas contrarias a los intereses humanos. Por ejemplo, una IA diseñada para maximizar la productividad industrial podría causar daños medioambientales o humanos si no se le imponen las restricciones adecuadas.

Russell propone una nueva dirección para la investigación de IA que denomina «IA provista de valores humanos». En lugar de programar a las máquinas para maximizar un objetivo específico, argumenta que debemos diseñarlas para que actúen de acuerdo con los valores humanos, incluso cuando esos valores no estén completamente definidos. Esta IA, según Russell, debería estar diseñada para ser «insegura» en su conocimiento de las preferencias humanas, y siempre dispuesta a ajustarse a nuevas informaciones sobre lo que los humanos realmente desean. Este enfoque introduce la incertidumbre deliberada en los sistemas de IA, de modo que las máquinas no puedan dañar a los humanos en su afán por cumplir objetivos mal entendidos o mal definidos.

El trabajo de Russell en este ámbito lo ha llevado a participar activamente en iniciativas globales que abogan por el desarrollo ético de la IA. Es cofundador del Center for Human-Compatible Artificial Intelligence (CHAI), una institución dedicada a investigar cómo crear IA que coopere de manera efectiva con los humanos en lugar de competir con ellos o causarles daño. A través de su trabajo en CHAI, Russell ha contribuido a sentar las bases de una nueva ética de la IA, basada en el reconocimiento de la importancia de los valores humanos y la necesidad de diseñar sistemas que se alineen con estos principios.

Además de sus investigaciones académicas, Russell ha desempeñado un papel clave en la promoción del debate sobre los riesgos de la IA a nivel internacional. Ha testificado ante diversos comités gubernamentales y ha sido consultor para organizaciones como las Naciones Unidas y el Parlamento Europeo. Una de sus principales preocupaciones es la posible militarización de la IA, especialmente en forma de sistemas autónomos de armas, que podrían tomar decisiones de vida o muerte sin la intervención humana. Russell ha sido una de las voces más activas en la campaña por la prohibición de las «armas autónomas letales», argumentando que su uso plantea riesgos éticos y prácticos significativos, ya que podría desestabilizar la seguridad global y hacer que los conflictos armados sean más difíciles de controlar.

En reconocimiento a sus contribuciones a la investigación en IA y a su impacto en el debate global sobre la ética de la IA, Stuart Russell ha recibido numerosos premios y distinciones a lo largo de su carrera. Entre ellos se destacan el Premio IJCAI a la Excelencia en Investigación (1995), el Premio ACM-AAAI Allen Newell (2005) y la beca de la Asociación para el Avance de la Inteligencia Artificial (AAAI). Estos galardones reflejan no solo su influencia en el campo de la IA, sino también su compromiso con la búsqueda de soluciones prácticas y éticas para los desafíos planteados por la tecnología.

En términos de legado, Stuart J. Russell ha sido un líder clave en el desarrollo de la IA moderna y en la promoción de un enfoque más responsable y ético en la investigación y el desarrollo de esta tecnología. Su trabajo ha sentado las bases para una comprensión más profunda de cómo los sistemas de IA pueden interactuar con el mundo real, y su énfasis en la seguridad y la compatibilidad con los valores humanos ha abierto nuevas vías para el estudio de la IA ética. Al mismo tiempo, su influencia como educador, a través de su libro de texto seminal y sus enseñanzas en Berkeley, ha formado a miles de estudiantes que hoy trabajan en los aspectos más variados de la IA.

A lo largo de su carrera, Russell ha demostrado que la inteligencia artificial no es solo una cuestión técnica, sino también una cuestión profundamente ética, que requiere una reflexión cuidadosa sobre el impacto que estas tecnologías tendrán en el mundo. Su visión de una IA que beneficie a la humanidad sin poner en riesgo nuestros valores más fundamentales continúa siendo una influencia crucial en el campo, y su legado seguirá orientando el desarrollo de la IA en las próximas décadas.

Serie Los Pioneros de la Inteligencia Artificial i

Serie Los Pioneros de la Inteligencia Artificial i

JOHN MCCARTHY.

John McCarthy es ampliamente reconocido como uno de los pioneros más influyentes en el campo de la inteligencia artificial (IA). Nacido el 4 de septiembre de 1927 en Boston, Massachusetts, McCarthy creció en una familia de inmigrantes de origen irlandés y ruso. Desde temprana edad mostró un notable interés por la matemática y las ciencias, inclinaciones que lo llevaron a convertirse en una figura clave en el desarrollo de lo que hoy conocemos como IA. Este artículo explora su trayectoria académica, sus aportes técnicos al campo y el legado que dejó en la comunidad científica.

McCarthy asistió a la Universidad de California, Berkeley, donde inicialmente se especializó en matemáticas. Tras obtener su licenciatura en 1948, continuó sus estudios de posgrado en Princeton, donde completó su doctorado en Matemáticas en 1951. Durante su tiempo en Princeton, estuvo influenciado por la rica tradición de la lógica matemática que había sido desarrollada por figuras como Kurt Gödel y Alan Turing. Fue en este contexto que McCarthy comenzó a interesarse en las intersecciones entre la lógica formal y la capacidad de las máquinas para procesar información de manera inteligente.

Uno de los logros más notables de McCarthy fue la acuñación del término «inteligencia artificial». Durante la Conferencia de Dartmouth en 1956, un evento que McCarthy ayudó a organizar, él y sus colegas presentaron una serie de ideas que formaron la base conceptual de la IA como campo de estudio independiente. En esa conferencia, McCarthy propuso que “la inteligencia puede describirse de manera tan precisa que una máquina puede simularla». Esta afirmación se convertiría en el núcleo de la investigación en IA durante las décadas siguientes. La Conferencia de Dartmouth es vista como el punto de partida oficial de la IA, y McCarthy como uno de sus padres fundadores.

En el ámbito técnico, uno de los mayores legados de McCarthy es el desarrollo de LISP, un lenguaje de programación que se ha mantenido como una herramienta fundamental en la investigación de IA. LISP fue diseñado por McCarthy en 1958 como un lenguaje para la manipulación de datos simbólicos, lo que lo hizo especialmente útil para la representación del conocimiento y la realización de razonamientos lógicos en IA. LISP introdujo varias innovaciones, incluyendo la idea de «listas» como estructuras de datos fundamentales, y fue uno de los primeros lenguajes en implementar la recursión, una técnica clave para la resolución de problemas complejos. Aunque han surgido otros lenguajes de programación más modernos, LISP sigue siendo utilizado en aplicaciones especializadas y en la enseñanza de conceptos avanzados de IA y programación.

Otro de los grandes logros de McCarthy fue su contribución a la teoría de sistemas automatizados y el concepto de «computación de tiempo compartido». Durante su tiempo en el MIT en la década de 1960, McCarthy ayudó a desarrollar el concepto de tiempo compartido, que permitió a múltiples usuarios interactuar con una computadora al mismo tiempo. Esta innovación cambió drásticamente la manera en que se entendía y utilizaba la computación, y fue un precursor de la computación en la nube y otras formas de procesamiento distribuido.

McCarthy también fue un firme defensor del enfoque simbólico para la IA. A diferencia de otros investigadores que se centraron en redes neuronales y métodos estadísticos, McCarthy creía que la IA debía basarse en la manipulación de símbolos y la lógica formal para simular el pensamiento humano. Su visión de una IA «fuerte», es decir, una IA que no solo pudiera realizar tareas específicas, sino también desarrollar una forma de razonamiento general y comprender el mundo de manera similar a como lo hacen los humanos, influyó profundamente en el desarrollo de la IA durante las primeras décadas de su existencia. Aunque las técnicas de IA han cambiado drásticamente desde los días de McCarthy, su enfoque en la representación del conocimiento y la lógica continúa siendo relevante en áreas como la planificación automatizada y los sistemas expertos.

A lo largo de su carrera, McCarthy recibió numerosos premios y reconocimientos por sus contribuciones al campo de la IA. En 1971, fue galardonado con el Premio Turing, considerado el equivalente al «Nobel» de la informática, por su papel en la invención de LISP y sus contribuciones teóricas a la IA. A lo largo de su vida, continuó publicando investigaciones influyentes y promoviendo su visión de la IA, manteniendo su fe en la posibilidad de crear una inteligencia artificial general (AGI), a pesar del escepticismo de algunos de sus contemporáneos.

Además de sus aportes técnicos, McCarthy también fue un pensador profundo sobre las implicaciones éticas de la IA. Fue uno de los primeros en advertir sobre los posibles riesgos de la IA avanzada, señalando que los futuros sistemas inteligentes deberían ser diseñados con fuertes consideraciones éticas. Sin embargo, McCarthy era optimista acerca de la capacidad de la humanidad para gestionar estos riesgos, y a menudo abogaba por una aproximación cuidadosa pero progresiva al desarrollo de tecnologías avanzadas.

El legado de John McCarthy trasciende sus contribuciones técnicas. Su capacidad para formular preguntas fundamentales sobre la naturaleza de la inteligencia y su empeño en construir herramientas que emularan estas capacidades han sentado las bases para gran parte de la investigación actual en IA. Aunque no vivió para ver la plena realización de su sueño de una inteligencia artificial general, McCarthy fue una figura clave en la evolución del campo, inspirando a generaciones de científicos y tecnólogos que continúan trabajando en los problemas que él mismo planteó.

McCarthy falleció el 24 de octubre de 2011 a la edad de 84 años, dejando un legado duradero en la historia de la ciencia y la tecnología. Sus ideas sobre la representación del conocimiento, la lógica formal y el lenguaje de programación siguen influyendo en la investigación actual, mientras que su visión a largo plazo sobre la IA continúa siendo un faro para los investigadores que buscan entender y replicar la inteligencia humana en las máquinas. En resumen, John McCarthy fue uno de los arquitectos más influyentes en la fundación de la inteligencia artificial como campo de estudio. A través de sus innovaciones como el lenguaje de programación LISP y su trabajo en el concepto de computación de tiempo compartido, McCarthy no solo contribuyó al desarrollo de herramientas fundamentales para la IA, sino que también ayudó a definir la visión a largo plazo del campo. Su legado permanece vivo en la comunidad científica, donde sus ideas continúan inspirando nuevos enfoques y descubrimientos en la búsqueda de construir máquinas verdaderamente inteligentes.

Meta, Spotify y otras tecnológicas piden a la Unión Europea que aclare su normativa sobre la Inteligencia Artificial

Meta, Spotify y otras tecnológicas piden a la Unión Europea que aclare su normativa sobre la Inteligencia Artificial

El pedido fue por medio de una carta abierta. La nueva legislación europea no se aplicará plenamente hasta 2026.

Una treintena de empresas tecnológicas, entre ellas Meta (Facebook, Instagram) y Spotify, así como investigadores y asociaciones pidieron en un carta abierta a la Unión Europea que aclare su normativa sobre inteligencia artificial (IA).

«Europa se ha vuelto menos competitiva e innovadora que otras regiones y hoy corre el riesgo de perder aún más terreno en la era de la IA debido a decisiones regulatorias inconsistentes», dice la carta publicada el jueves.

«En los últimos tiempos, las regulaciones se han vuelto fragmentadas e impredecibles», argumentan los firmantes, que consideran que las intervenciones de las autoridades europeas «han generado mucha incertidumbre sobre el tipo de datos que se pueden utilizar para entrenar modelos de IA.» Por eso piden a los responsables políticos europeos «decisiones armonizadas, coherentes, rápidas y claras sobre las regulaciones de datos en la UE».

En agosto entró oficialmente en vigor la nueva legislación europea para regular la IA, pionera a nivel mundial, que tiene el objetivo de impulsar la innovación protegiendo al mismo tiempo la vida privada. La normativa impone restricciones a los sistemas de IA si suponen un peligro para la sociedad. También obliga a los sistemas como ChatGPT a garantizar la calidad de los datos y el respeto de los derechos de autor.

La nueva legislación no se aplicará plenamente hasta 2026 pero algunas disposiciones serán vinculantes el próximo año.

El organismo internacional es el primero en decretar un marco legal para el desarrollo de este tipo de tecnología. La ley había sido aprobada en marzo, pero entró en vigor desde el mes de agosto de 2024.

La normativa asigna sus normas a cada empresa que utiliza sistemas de IA en función de cuatro niveles de riesgo: sin riesgo, riesgo mínimo, riesgo alto y los sistemas de IA prohibidos. Esta categorización también determina qué plazos se les aplica a cada empresa para cumplir con la nueva legislación.

En esta línea, con la entrada en vigencia de la ley la UE prohibirá totalmente determinadas prácticas a partir de febrero de 2025. Entre ellas están las que manipulan la toma de decisiones de un usuario o amplían las bases de datos de reconocimiento facial mediante el scraping de Internet.

Otros sistemas de IA que se consideran de alto riesgo, como los que recopilan datos biométricos y los que se utilizan para infraestructuras críticas o decisiones laborales, tendrán que cumplir las normas más estrictas. Entre las exigencias, las empresas tendrán que mostrar sus conjuntos de datos de entrenamiento de IA y también deberán aportar pruebas de supervisión humana, entre otros requisitos.

Thomas Regnier, portavoz de la Comisión Europea, aseguró que «alrededor del 85% de las empresas de IA» actuales entran en la tercera categoría de «riesgo mínimo», con muy poca regulación exigida.

La entrada en vigor de la normativa exigirá a los Estados de la UE crear autoridades nacionales competentes – con límite en agosto – que supervisen la aplicación de la normativa en su país. A su vez, los miembros de la comisión europea se preparan para acelerar las inversiones en IA, con una inyección esperada de 1.000 millones de euros en 2024 y hasta 20.000 millones en 2030.

Una regulación fragmentada implica que la UE corre el riesgo de perderse la era de la IA.

Somos un grupo de empresas, investigadores e instituciones que forman parte integral de Europa y que trabajamos para servir a cientos de millones de europeos. Queremos que Europa triunfe y prospere, incluso en el campo de la investigación y la tecnología de inteligencia artificial de vanguardia. Pero la realidad es que Europa se ha vuelto menos competitiva e innovadora en comparación con otras regiones y ahora corre el riesgo de quedarse aún más rezagada en la era de la inteligencia artificial debido a la incoherencia en la toma de decisiones regulatorias.

A falta de reglas coherentes, la UE va a perder la oportunidad de aprovechar dos pilares de la innovación en IA. El primero son los desarrollos en modelos «abiertos» que se ponen a disposición de todo el mundo de forma gratuita para que los utilice, modifique y desarrolle, multiplicando los beneficios y difundiendo las oportunidades sociales y económicas. El segundo son los últimos modelos «multimodales», que funcionan de forma fluida en texto, imágenes y voz y que permitirán el siguiente salto adelante en IA. La diferencia entre los modelos basados ​​únicamente en texto y los multimodales es como la diferencia entre tener un solo sentido y tener los cinco.

Los modelos abiertos de vanguardia como Llama (basados ​​en texto o multimodales) pueden potenciar la productividad, impulsar la investigación científica y agregar cientos de miles de millones de euros a la economía europea. Las instituciones públicas y los investigadores ya están utilizando estos modelos para acelerar la investigación médica y preservar las lenguas, mientras que las empresas establecidas y las empresas emergentes están obteniendo acceso a herramientas que nunca podrían construir o permitirse por sí mismas. Sin ellas, el desarrollo de la IA se producirá en otras partes, privando a los europeos de los avances tecnológicos de los que disfrutan en Estados Unidos, China e India.

Las investigaciones estiman que la IA generativa podría aumentar el PIB mundial en un 10% durante la próxima década  y a los ciudadanos de la UE no se les debería negar ese crecimiento.

La capacidad de la UE para competir con el resto del mundo en materia de IA y aprovechar los beneficios de los modelos de código abierto depende de su mercado único y de un conjunto de normas regulatorias compartidas. Si las empresas e instituciones van a invertir decenas de miles de millones de euros para desarrollar una IA generativa para los ciudadanos europeos, necesitan unas normas claras, que se apliquen de forma coherente y que permitan el uso de datos europeos. Pero en los últimos tiempos, la toma de decisiones regulatorias se ha vuelto fragmentada e impredecible, mientras que las intervenciones de las autoridades europeas de protección de datos han creado una enorme incertidumbre sobre qué tipos de datos se pueden utilizar para entrenar modelos de IA. Esto significa que la próxima generación de modelos de IA de código abierto, y los productos y servicios que construyamos sobre ellos, no comprenderán ni reflejarán los conocimientos, la cultura o los idiomas europeos. La UE también se perderá otras innovaciones, como el asistente de IA de Meta, que va camino de convertirse en el asistente de IA más utilizado del mundo a finales de este año.

Puede optar por reafirmar el principio de armonización consagrado en marcos regulatorios como el RGPD para que la innovación en IA se produzca aquí a la misma escala y velocidad que en otras partes, o puede seguir rechazando el progreso, traicionando las ambiciones del mercado único y viendo cómo el resto del mundo construye sobre tecnologías a las que los europeos no tendrán acceso.

Esperamos que los responsables políticos y los reguladores europeos vean lo que está en juego si no se produce un cambio de rumbo. Europa no puede permitirse el lujo de desaprovechar los amplios beneficios que se derivan de las tecnologías de IA abiertas y construidas de manera responsable, que acelerarán el crecimiento económico y permitirán el progreso en la investigación científica. Para ello, necesitamos decisiones armonizadas, coherentes, rápidas y claras en el marco de las normas de datos de la UE que permitan utilizar los datos europeos en el entrenamiento de la IA en beneficio de los europeos. Se necesitan medidas decisivas para ayudar a liberar la creatividad, el ingenio y el espíritu emprendedor que garantizarán la prosperidad, el crecimiento y el liderazgo técnico de Europa.

Firmado,

Alexandre Lebrun
Director ejecutivo de Nabla

André Martins
Vicepresidente de investigación de inteligencia artificial, Unbabel

Aureliusz Górski
Fundador y director ejecutivo de CampusAI

Borje Ekholm
Presidente y director ejecutivo de Ericsson

Benedicto Macon-Cooney
Estratega principal de políticas, Instituto Tony Blair

Christian Klein
Director ejecutivo de SAP SE

Daniel Ek
Fundador y CEO de Spotify

Daniel J. Beutel
Cofundador y director ejecutivo de Flower Labs

David Lacombled
Presidente, La villa numeris

Branquias de diarmuidos
Director de tecnología de Criteo

Edgar Riba
Presidente de Kornia AI

Egle Markeviciute
Secretaria, Consumer Choice Center Europe

Eugenio Valdano
Doctor en Filosofía

Federico Marchetti
Fundador de YOOX

Francesco Milleri
Presidente y director ejecutivo de EssilorLuxottica

Georgi Gerganov
ggml.ai

Han Stoffels
Director ejecutivo de 8vance

Hira Mehmood
Cofundador y miembro de la junta directiva de Bineric AI

Hosuk Lee-Makiyama
Directora, ECIPE

Juan Elkann
Director ejecutivo de Exor

Josef Sivic
Investigador, Instituto Checo de Informática, Robótica y Cibernética, Universidad Técnica Checa

Julien Launay
Director ejecutivo y cofundador de Adaptive ML

Lorenzo Bertelli
Director de Marketing del Grupo Prada

Maciej Hutyra
Director ejecutivo de SalesTube Sp. z oo

Marco Baroni
Profesor de investigación, ICREA

Marco Tronchetti Provera
Vicepresidente ejecutivo de Pirelli

Mark Zuckerberg
Fundador y director ejecutivo de Meta

Miguel Ferrer
Tecnología estética

Martín Ott
Director ejecutivo de Taxfix SE

Matthieu Rouif
Director ejecutivo de Photoroom

Maurice Lévy
Presidente emérito de Publicis Groupe

Máximo Ibarra
Director General Ingeniería Ingeniería Informática SPA

Michal Kanownik
Director ejecutivo de la Asociación Digital Polonia

Miguel López
Director ejecutivo de thyssenkrupp AG

Minh Dao
CEO, FULLY AI

Niklas von Weihe
CTO, TOTALMENTE IA

Nicolò Cesa Bianchi
Profesor de Ciencias de la Computación, Universidad de Milán, Italia

Patrick Collison

Patrick Pérez
Investigador de IA

Philippe Corrot
Cofundador y director ejecutivo de Mirakl

Profesora Dagmar Schuller
Director ejecutivo de AudiEERING

Ralf Gommers
Director, Quansight

Sebastián Siemiatkowski
Director ejecutivo y cofundador de Klarna

Simonas Černiauskas
Director ejecutivo de Infobalt

Stefano da Empoli
Presidente del Instituto para la Competitividad (I-Com)

Stefano Yacus
Científico investigador sénior de la Universidad de Harvard

Vicente Luciani
Director ejecutivo de Artefact

Vivian Bouzali
CCCO, METLEN Energía y Metales

Yann Le Cun
Vicepresidente y científico jefe de inteligencia artificial, Meta

Autorizacion de la FDA para carne sintetica

Autorizacion de la FDA para carne sintetica

EE. UU. aprueba el consumo humano de carne de pollo cultivada en laboratorio.

La agencia reguladora de los alimentos de EE. UU. ha dado luz verde por primera vez a la comercialización en supermercados y restaurantes de carne de pollo cultivada en el laboratorio,

La autorización concedida:

La Federal and Drugs Administration (FDA), la agencia reguladora de los alimentos y medicamentos de EE. UU., ha autorizado por primera vez en su historia un producto cárnico cultivado en laboratorio para el consumo humano. Lo ha hecho para la carne de pollo producida en las instalaciones de la empresa californiana Upside Foods y de la empresa y Good Meat, que a partir de ahora tiene el visto bueno para llevar sus productos a supermercados y restaurantes del país americano.

Upside Foods, antes conocida como Memphis Meats, podrá comercializar su pollo cultivado una vez que el USDA (Departamento de Agricultura de Estados Unidos) haya inspeccionado sus instalaciones. La carne se produce extrayendo células vivas del animal que se introducen en tanques de acero inoxidable, donde se replican hasta producir una estructura y una consistencia similares a las de un filete de carne de pollo.

Tras evaluar la producción y el material de células cultivadas que usa Upside Food, la FDA dijo que «no tiene más preguntas» sobre la seguridad de su filete de pollo cultivado. «El mundo está experimentando una revolución alimentaria y la FDA de EE. UU. se ha comprometido a apoyar la innovación en el suministro de alimentos», apuntan en un comunicado el comisario de la FDA Robert Califf y Susan Mayne, directora del Centro de Seguridad Alimentaria y Nutrición Aplicada de la agencia norteamericana.

La implementación de la medida inicia una nueva era que apunta a eliminar la matanza de animales y reducir los impactos ambientales del pastoreo, el cultivo de alimentos para animales y los desechos animales.

“En lugar de dedicar tanta tierra y tanta agua a alimentar a los animales que serán sacrificados, podemos hacer algo distinto”, dijo Josh Tetrick, cofundador y director general de Eat Just, la operadora de la multinacional Good Meat.

Este miércoles, ambas firmas recibieron la aprobación de los inspectores federales requeridos para vender carne y pollo de laboratorio en Estados Unidos.

Además, la Administración de Alimentos y Medicamentos le dio luz verde a otra empresa fabricante, Joinn Biologics, que trabaja con Good Meats.

El nuevo mercado de la carne de laboratorio:

De esta carne se dice que reduce radicalmente el consumo de agua, la superficie y los recursos que se emplean en la producción ganadera industrial o tradicional. También que es más sostenible porque genera menos contaminación y CO2. Se trata de un mercado global que cuenta con más de 2.000 millones de dólares en inversiones y que está liderado fundamentalmente por Israel y EE.UU.

La empresa israelí, Aleph Farms, presentó hace ya tiempo la primera costilla hecha con una impresora 3D, una evolución significativa de la carne picada de laboratorio que se había visto hasta el momento. Hacer un filete es mucho más complicado que recrear la carne picada, para replicar un trozo de músculo hay que dotarlo de una estructura que lo soporte, grasa y tejido conectivo. También hablamos aquí de Future Meat, una de las mayores empresas de carne cultivada en laboratorio del mundo que asegura tener un proceso de fabricación que reduce el costo de producción de sus pechugas de pollo de 15 euros a sólo 6,80 por 450 gramos.

Estados Unidos, y en concreto California, es otro lugar donde se está invirtiendo mucho dinero en este tipo de tecnología. Tres compañías: Finless Foods, BlueNalu y la propia Upside Foods, están compitiendo por llevarse un trozo del mercado de la carne de cultivo y están produciendo tanto pollo, cordero y ternera como crustáceos o moluscos.

Aun así, hay voces que no son tan optimistas. Los investigadores franceses Sghaier Chriki y Jean-François Hocquette, publicaron una investigación titulada ‘El Mito de la Carne Cultivada’ en la que ponen en duda si la industria será capaz de conseguir de manera artificial compuestos que se producen en los animales de manera natural como hormonas y factores de crecimiento.

Que este tipo de carne llegue a nuestras mesas en masa depende de las agencias reguladoras. Por ahora la de Singapur y la de EE. UU. ya se han lanzado por el camino de las autorizaciones y todo apunta a que la agencia europea lo hará pronto.

Más de 150 empresas cultivan carne a base de células de animales. Si bien la novedad sorprende en Estados Unidos, lo cierto es que, en el mundo, más de 150 empresas se están concentrando en cultivar carne a partir de células; no sólo de pollo sino también de cerdo, cordero, pescado y carne vacuna, que tienen mayor impacto sobre el ambiente.

La carne de pollo «de laboratorio» es cultivada en tanques de acero con células provenientes de un animal vivo, un huevo fertilizado o un banco especial de células.

En el caso de Upside, la producción sale en planchas grandes a las que luego se les da la forma de chuletas de pollo o de salchichas.

En tanto, Good Meat, que ya vende carne cultivada en Singapur, primer país que lo autorizó durante el 2020, convierte acumulaciones de células de pollo en costillas, nuggets y carne picada.

Donde consumir la carne autorizada:

De todos modos, esta nueva modalidad de consumo en Estados Unidos no estará de manera inmediata, ni tampoco será consumido por todo el mundo.

«El pollo cultivado es mucho más caro que el pollo tradicional criado en granja. Además, no se lo puede producir en la misma escala que la carne tradicional», de acuerdo con Ricardo San Martín, director de uno de los departamentos de Meat Lab, en la Universidad de California Berkeley. Por lo pronto, las empresas prevén servir el nuevo alimento en restaurantes escogidos previamente. En el caso de Upside ya se asoció con el restaurante Bar Creen de San Francisco; en tanto los platos de Good Meat se servirán en el restaurante de Washington regentado por su chef y dueño José Andrés. Todavía no se cerró ningún acuerdo con ninguna de las cadenas de supermercados.

error: Content is protected !!