Neuralink, una de las empresas del complejo de Elon Musk, recibió la autorización de la Administración de Alimentos y de Medicamentos de los Estados Unidos para la experimentación de implantes cerebrales en humanos, cuestión que por el momento – vamos a tener que creer piamente en el asunto – se había desarrollado únicamente en animales. En principio, la autorización se vuelca limitadamente para buscar una mejora (hablar de cura es aventurado por el momento) una restauración en condiciones cerebrales seriamente dañadas. Por cierto, bien entendido, son pasos hacia el transhumanismo. Y, hablando de transhumanismo
La compañía Neuralink, propiedad de Elon Musk, anunció que ha recibido la aprobación de la Administración de Fármacos y Alimentos (FDA, en inglés) para hacer estudios en humanos de sus implantes cerebrales, probados hasta ahora en animales.
La empresa adelantó la luz verde de la FDA para los primeros estudios en humanos en su cuenta de Twitter. “Representa un primer paso importante que algún día permitirá que nuestra tecnología ayude a muchas personas”, escribió la empresa.
A principios de diciembre, Musk había asegurado que Neuralink, una empresa que no ha estado exenta de polémica por sus experimentos con animales estaba lista para realizar implantes cerebrales en seres humanos en un plazo de seis meses.
En ese entonces, Musk señaló que la FDA había expresado preocupación por el posible sobrecalentamiento del implante (que incluye microcables en el tejido cerebral), pues podrían traducirse en la fuga de elementos químicos desde el implante hacia la masa cerebral.
La función del implante será la de “leer” la actividad cerebral para poder transmitir órdenes que ayuden a restaurar algunas funciones cerebrales gravemente dañadas tras un infarto o una esclerosis lateral amiotrófica, que derivan en graves daños en la capacidad comunicativa.
Hasta ahora, los implantes cerebrales se han desarrollado en una sola dirección: desde el cerebro hacia el exterior (generalmente una computadora que procesa las señales), pero el proyecto de Neuralink aspira a poder trasladar información también en la otra dirección, hacia el cerebro.
Neuralink está desarrollando en paralelo dos tipos de implantes, uno para restaurar la visión “incluso en aquellos que nunca la han tenido” y otro para restablecer las funciones corporales básicas en personas con parálisis por daños en la médula espinal.
Ahora, hablemos un poco de Neuralink, la empresa que es pionera en todo esto y que deberemos seguir con cuidado en el futuro, para poder observar con detalle su evolución y en particular sus desarrollos.
Neuralink Corporation es una empresa de neuro tecnología estadounidense especializada en el desarrollo de interfaces cerebro-computadora, implantables, también conocidos como Brain-Machine Interfaces o BMI, fundada por Elon Musk. Actualmente se encuentran desarrollando un dispositivo capaz de tratar pacientes que sufran de discapacidades causadas por desórdenes neurológicos mediante estimulación cerebral directa. Y, según declaraciones de Musk, la tecnología desarrollada por Neuralink busca, a la larga, lograr una simbiosis total con la inteligencia artificial. Actualmente se encuentra desarrollando experimentaciones en animales en conjunto con la Universidad de California, Davis
Neuralink fue fundada en 2016 por Elon Musk, Ben Rapoport, Dongjin Seo, Max Hodak, Paul Merolla, Philip Sabes, Tim Gardner, Tim Hanson y Vanessa Tolosa.
En abril de 2017, el blog Wait ButWhy informó que la compañía tenía como objetivo fabricar dispositivos para tratar enfermedades cerebrales graves a corto plazo, con el objetivo final de la mejora humana, a veces llamado transhumanismo. Musk dijo que su interés en la idea surgió en parte del concepto de ciencia ficción de «cordón neural» en el universo ficticio de The Culture (La Cultura), una serie de 10 novelas de Iain M. Banks.
Musk definió el cordón neural como una «capa digital por encima de la corteza» que no implicaría necesariamente una inserción quirúrgica extensa, sino idealmente un implante a través de una vena o arteria. Musk explicó que el objetivo a largo plazo es lograr «simbiosis con inteligencia artificial», que percibe como una amenaza existencial para la humanidad si no se controla. A partir de 2017, algunas neuro prótesis pueden interpretar señales cerebrales y permitir que las personas discapacitadas controlen sus brazos y piernas protésicos. Musk habló de apuntar a vincular esa tecnología con implantes que, en lugar de activar el movimiento, pueden interactuar a velocidad de banda ancha, con otros tipos de software y dispositivos externos.
A partir de 2020, Neuralink tiene su sede en el Distrito Mission de San Francisco, compartiendo el antiguo edificio de la fábrica Pioneer con OpenAI, otra empresa co-fundada por Musk. Musk era el propietario mayoritario de Neuralink en septiembre de 2018, pero no ocupaba un puesto ejecutivo. El papel de director ejecutivo desempeñado por Jared Birchall, quien también ha sido incluido como director financiero y presidente de Neuralink, y como ejecutivo de varias otras empresas que Musk fundó o cofundó, se ha descrito como formal. La marca comercial «Neuralink» se compró a sus propietarios anteriores en enero de 2017.
Para agosto de 2020, solo dos de los ocho científicos fundadores permanecían en la compañía, según un artículo de Stat News que informó que Neuralink había visto «años de conflicto interno en los que las líneas de tiempo apresuradas han chocado con el ritmo lento e incremental de la ciencia». Estando Musk en escena, esto no debería haber llamado la atención.
Desde su fundación, el equipo de Neuralink se ha caracterizado por su alto grado de discreción a la hora de revelar información, ya que la existencia de la compañía no sería anunciada al público hasta 2017, e información sobre la tecnología que se encontraban desarrollando no sería revelada hasta 2019.
La compañía ha recibido 158 millones de dólares de patrocinio, de los cuales 100 millones han sido invertidos por el propio Musk, y cuenta con 90 empleados.
La marca «Neuralink» fue adquirida de sus dueños anteriores en enero de 2017.
La compañía está conformada por un grupo de expertos en distintas áreas tales como la neurociencia, bioquímica, robótica, matemáticas aplicadas, maquinaria, entre otras.3 Actualmente está buscando expertos en distintas áreas científicas para conformar su equipo.
Sus miembros fundadores son:
Elon Musk.
Max Hodak, presidente de la compañía Previamente trabajó en el desarrollo de interfaces cerebro-computadora en la Universidad de Duke.
Matthew McDougall, jefe de Neurocirugía en Neuralink y neurocirujano en el California Pacific Medical Center. Previamente estaba empleado en Stanford donde trabajaba en laboratorios que implantaban y diseñaban interfaces cerebro-computadora.
Vanessa Tolosa, directora de Interfaces Neurales. Previamente dirigía un equipo de neurotecnología en el Lawrence Livermore National Laboratory que trabajaba con una gran variedad de tecnología sobre prótesis tecnológicas que utilizaban tanto en un ámbito clínico como académico.3
DJ Seo, director del Sistema de Implantaciones. Fue el co-inventor del “neural dust” una tecnología que desarrolló mientras estudiaba en UC Berkeley.
Philip Sabes, científico senior. Previamente era profesor de Fisiología en UC San Francisco y lideraba un laboratorio que estudiaba cómo el cerebro procesaba señales sensoriales y motoras.
Tim Gardner, profesor de biología en la Universidad de Boston que han trabajado en la implantación de interfaces cerebro-computadora en aves.4
Ben Rapoport, neurocirujano con un PhD en ingeniería eléctrica y ciencias computacionales de MIT.
Tim Hanson, investigador en el Berkeley Sensor and Acuator Center.
Neuralink tiene como objetivo a corto plazo crear interfaces cerebro-computadora que puedan tratar distintas enfermedades causadas por desórdenes neurológicos. Dichas interfaces tienen el potencial de ayudar a personas con una amplitud de desórdenes clínicos. Investigadores han demostrado que, con el uso de estas, pacientes han sido capaces de controlar cursores de computadoras, prótesis robóticas y sintetizadores del habla. Lo que demuestra su potencial uso en el área médica para tratar con pacientes que presenten discapacidades debido a desórdenes neurológicos. Todos aquellos estudios experimentando con interfaces cerebro-computadora han sido realizados utilizando sistemas que no cuentan con más de 256 electrodos.
Neuralink está construyendo un sistema Brain Computer Interface (BCI) completamente integrado. También llamado BMI (Brain-Machine-Interface). Los BCI (Brain Computer Interface) se pueden usar para tratar trastornos neurológicos y revelar acerca de las funciones cerebrales. Karageorgos et al. han presentado HALO (Arquitectura de hardware para BCI de baja potencia), una arquitectura para BCI implantables, que permite el tratamiento de trastornos, como la epilepsia. HALO también registra/procesa datos que se pueden utilizar para una mejor comprensión del cerebro.
La epilepsia se caracteriza por ataques epilépticos definidos por ataques incontrolados y excesiva actividad eléctrica de las neuronas. Las señales neuronales son procesados para predecir convulsiones. Cuando un aumento en la excitación cerebral ocurre, el cerebro necesita sinapsis inhibidoras para atenuar y regular la actividad de otras células. Luego, los BCI estimulan eléctricamente neuronas para mitigar la gravedad de las convulsiones. sin embargo, el tiempo entre el inicio de la convulsión y la estimulación debe ser en decenas de milisegundos. Además, se necesita hardware de bajo consumo para una implantación segura y crónica.
Si bien dichos estudios han demostrado que es posible la transferencia de información entre máquinas y el cerebro, el desarrollo de interfaces cerebro-computadora se ha visto limitado debido a la incapacidad que tienen estas de recopilar información de un mayor número de neuronas. Por esa razón, el equipo de Neuralink busca desarrollar un dispositivo capaz de aumentar el orden de magnitud de neuronas de las que se pueda extraer información y estimularlas de forma segura y duradera mediante un procedimiento simple y automatizado. Es decir, recopilar información y estimular selectivamente la mayor cantidad de neuronas posibles a lo largo de varias áreas del cerebro.
Como objetivo a largo plazo se espera que las interfaces cerebro-computadora estén disponibles para el público general y se integren como tecnología imprescindible en la vida diaria, similar a la forma en la que, actualmente, tecnologías como los teléfonos móviles u ordenadores portátiles son de uso esencial en el día a día.
Musk ha declarado en múltiples ocasiones su creencia de que la inteligencia artificial representa un riesgo para los seres humanos, debido a la posibilidad de que esta supere en habilidades a la especie humana. Para él, la mejor solución al problema sería, en vez de seguir desarrollando sistemas de AI externos a los seres humanos, lograr una simbiosis total con la inteligencia artificial de modo que pueda ser controlada. Lo que se lograría creando una capa de inteligencia artificial sobre la corteza cerebral, sistema que se está desarrollando con Neuralink.
El interés de Musk por las interfaces cerebro-computadora comenzaría, en parte, debido a la influencia de un concepto de ciencia ficción llamado «Neural Lace» que es parte del universo ficticio descrito en La Cultura, una serie de novelas escritas por Iain Banks.
La gente podría volverse telepática y ser capaz de comunicarse sin palabras por acceder a los pensamientos. Más allá de los pensamientos, las experiencias sensoriales podrían ser comunicadas de humano a humano, como neurales postales, donde escuchar, ver y saborear algo podría ser posible. Alternativamente, las experiencias de la vida como disfrutar de una comida o tomar un salto en paracaídas se puede vivir virtualmente y ofrecer sensaciones como si fueran reales. Más creíble, que dentro los próximos 20 años sea posible ser capaz de crear imágenes de lo que la gente está pensando.
Los IMC quizás también ofrezcan oportunidades para mejorar el cerebro mismo. Invasivo o no invasivo. Los IMC podrían ayudarnos a recordar más y mejor, aprender más rápido, hacer mejores decisiones y resolver problemas sin sesgos, A cambio de tener que pasar por el duro entrenamiento.
Actualmente la inteligencia artificial (IA) «es una importante herramienta tecnológica que permite el funcionamiento de muchas interfaces neuronales». Los BMI usan IA para convertir señales neuronales en datos digitales, por ejemplo, para interpretar instrucciones del cerebro para mover un brazo protésico. En el futuro, podría surgir una relación más compleja entre los IMC y la IA. Las computadoras y los cerebros son diferentes, pero podrían percibirse como complementarios. Los humanos tienen capacidad de decisión e inteligencia emocional, mientras que las computadoras tienen la capacidad para procesar una cantidad considerable de datos rápidamente. Es por lo cual, varios expertos en tecnología creen que podrían surgir impactos de beneficio a las personas al vincular la inteligencia humana y la artificial a través de los BMI.
En 2019, durante una presentación en vivo realizada en la Academia de Ciencias de California, el equipo de Neuralink reveló al público la tecnología del primer prototipo en el que habían estado trabajando. Se trata de un sistema que involucra sondas ultradelgadas que serán insertadas en el cerebro, un robot neuroquirúrgico que realizará las operaciones y un sistema electrónico de alta densidad capaz de procesar la información proveniente de las neuronas.
Según el equipo de Neuralink, el sistema que están desarrollando utilizará sondas biocompatibles que serán insertadas en el cerebro mediante un proceso automatizado realizado por un robot quirúrgico. El objetivo de dichas sondas es localizar señales eléctricas en el cerebro mediante una serie de electrodos conectados a estas. Este experimento ya se ha realizado con un mono, al cual se le dieron habilidades para jugar al pong telepáticamente. Elon Musk desea que este invento sirva de algo en la futura humanidad para comunicarse telepáticamente.
Las sondas están compuestas mayoritariamente de poliamida y recubiertas en un fino filme de oro, ambos materiales biocompatibles, de modo que las probabilidades de que el cerebro las considere como un cuerpo extraño, y por ende las rechace, disminuyen.
Cada sonda está compuesta por un área de hilos que contiene electrodos capaces de localizar señales eléctricas en el cerebro, y un área sensorial donde el hilo interactúa con un sistema electrónico que permite la amplificación y adquisición de la señal cerebral. Cada sonda contiene 48 o 96 hilos, cada uno con 32 electrodos independientes; logrando así un sistema de hasta 3072 electrodos por formación.
La gran cantidad de electrodos que contienen dichas sondas permite la adquisición de señales cerebrales más precisas y en áreas más extensas del cerebro.
Estudios involucrando la inserción de sondas en el cerebro han demostrado que, debido a la rigidez de estas, el cuerpo las reconoce como material desconocido y, en consecuencia, genera tejido para deshacerse de estas, lo que, a largo plazo, las vuelve inservibles Por esa razón, Neuralink anunció que habían desarrollado un robot capaz de insertar, de forma rápida, múltiples sondas flexibles para así minimizar traumatismos que puedan desencadenar una reacción de rechazo.
Dicho robot dispone de una cabeza de inserción con una aguja de 40 μm de diámetro hecha de tungsteno-renio diseñada para engancharse a los lazos de inserción, hechos para transportar e insertar sondas individuales, y para penetrar las meninges y el tejido cerebral.
El robot es capaz de insertar hasta 6 sondas (192 electrodos) por minuto.
Para lograr mayor entendimiento sobre el funcionamiento cerebral, el equipo de Neuralink anunció que había desarrollado un sistema capaz de convertir las señales eléctricas captadas por los electrodos en información representada en código binario.
Dicho sistema, denominado Circuito Integrado de Aplicación Específica (ASIC, por sus siglas en inglés) cuenta con una interfaz de grabación de 1.536 canales, 256 amplificadores capaces de ser programados individualmente («píxeles análogos»), convertidores analógico-digitales dentro del chip («ADCs») y un control de circuito periférico capaz de serializar la información digitalizada obtenida.
Varios científicos expertos en neurología se han pronunciado sobre la intención de Musk y los miembros de Neuralink de construir una interfaz cerebro-computadora. La respuesta de la comunidad científica ha sido mixta. Mary Lou Jepsen, fundadora de Openwater, una compañía que también trabaja en el área de las interfaces cerebro-computadora con el objetivo de crear un sistema de telepatía, ha expresado preocupación por las reacciones de rechazo que puedan ocasionar las sondas. Thomas Oaxley, CEO de Synchron, compañía australiana que también se encuentra desarrollando un sistema para insertar sondas cerebrales que eviten cualquier penetración directa con el tejido cerebral, y por ende, no causen traumatismos, dice que no se deberían esperar resultados efectivos próximamente, ya que la tecnología no es lo suficientemente avanzada como para lograrlo. Sin embargo, considera que debido a que Musk está dispuesto a invertir grandes cantidades de dinero en su compañía, será «emocionante ver lo que vaya a desarrollar».
EL AUGE DE LA INTELIGENCIA ARTIFICIAL. PODRA LA AUTOMATIZACION REDEFINIR EL MERCADO LABORAL SIN DEJAR A NADIE atrás?
Los expertos creen que la IA automatizará parcialmente los empleos afectados, mientras fomentará la aparición de nuevos perfiles profesionales. En paralelo, será necesario abordar desafíos como la recualificación profesional o la cuestión ética.
Casi todas las actividades profesionales tienen procesos que pueden automatizarse para lograr más eficiencia. Si bien la utilización de tecnología no es algo nuevo en ningún sector, sí se está produciendo una generalización cada vez mayor en el uso de la inteligencia artificial (IA) con el objetivo de ahorrar tiempos y costos, a la vez que se aumenta la productividad.
Recientemente, con la irrupción a nivel usuario de la IA generativa — como el ChatGPT —, esta tendencia afecta casi por igual a los empleos intelectuales y a aquellos que requieren mayor esfuerzo físico. Ante esta nueva realidad del entorno laboral, ya afloran voces a favor y en contra de la robotización por su impacto en el mercado profesional. Al mismo tiempo, también ganan espacio en el debate público las reflexiones sobre cómo formar a los trabajadores o qué implicaciones éticas tiene esta convivencia entre humanos y máquinas inteligentes.
La relevancia del momento histórico demanda un continuo intercambio de opiniones acreditadas, razón por la que, con esta premisa por bandera, El Confidencial organizó una mesa redonda que tuvo por título El futuro del trabajo: automatización para más y mejor empleo. El panel de expertos contó con representantes de empresas afectadas por la robotización y el uso de la IA, compañías tecnológicas y académicos expertos en la materia. De esta forma, los participantes en la tertulia fueron Iñaki Ugarte, director general de Operaciones de Primera Milla de Amazon en España; Belén Martín, vicepresidenta Cloud Híbrida de IBM Consulting; Manuel Espiñeira, director de Soluciones Digital Business Technologies en Minsait, compañía de Indra, e Ignacio López Sánchez, catedrático de Organización de Empresas de la Universidad Complutense de Madrid (UCM).
Para contextualizar y entender de dónde viene el boom de la automatización, Iñaki Ugarte enumeró “tres factores» que han acelerado su penetración: «Las nuevas tecnologías de la mano de la era digital y el big data, las generaciones Millenial y Z como trabajadores migrantes o nativos digitales y el contexto internacional que, tras la pandemia y el complejo panorama geoestratégico, está obligando a relocalizar la industria”. Respecto a la cuestión de si la robotización eliminará puestos de trabajo, tuvo clara su respuesta: «Lejos de que haya menos trabajo para las personas, realmente se están creando nuevos puestos».
La duda lógica es qué tipo de empleos se están generando con la irrupción de la IA en los entornos laborales. En este sentido, fue Belén Martín quien aportó ejemplos: “Solo en los últimos tres meses, han aparecido dos perfiles que lo están revolucionando todo. Uno de ellos es el prompt engineer, personas especializadas en preguntar a las inteligencias artificiales — funcionan como una especie de instructor — y cuya traducción al español podría ser ingeniero de peticiones. El otro es el entrenador ético de algoritmos, y su función es evitar los sesgos sociales”. La vicepresidenta Cloud Híbrida de IBM Consulting aclaró que “a pesar de que parecen perfiles relacionados únicamente con las disciplinas CTIM — ciencia, tecnología, ingeniería y matemáticas — igualmente hay perfiles de letras como lingüistas o filósofos, lo que abre un abanico de posibilidades ilimitado”, remarcó.
«En los últimos tres meses han aparecido perfiles como el ‘prompt engineer’ y el entrenador ético de algoritmos», Belén Martín (IBM)
Por su parte, desde Minsait, empresa filial de Indra, consideran que “la automatización será parcial en la mayoría de los puestos de trabajo”, tal y como especificó su portavoz en la tertulia. “Aproximadamente, el 60% de los puestos tiene posibilidades de automatización en parte de sus tareas, pero solo el 7% de ellos es realmente automatizable en más de un 50% de sus procesos”, matizó Manuel Espiñeira para después recordar que “en la década de 1950, existía en EE. UU. un catálogo de puestos de trabajo susceptibles de desaparecer con la automatización de aquel entonces. El listado incluía 270 empleos y, sin embargo, tan solo desapareció la profesión de ascensorista”. Para exponer en mayor detalle su previsión de futuro, concretó que “la clave es la calidad del análisis de la información que puede hacer un profesional con mecanismos de IA, ya que le permite tomar decisiones de alto nivel como puede ser un mejor diagnóstico en el caso de un médico. No obstante, esto evidencia que los médicos continuarán existiendo como profesión”, aseguró.
Con este punto de vista coincidió Ignacio López Sánchez. Para el catedrático de Organización de Empresas de la Universidad Complutense de Madrid “hay determinados puestos de trabajo que tienen un porcentaje relativamente elevado de tareas repetitivas y, por lo tanto, automatizables, pero otros no tanto. Esto obligará a las empresas a reorganizar y definir nuevos perfiles que, en algunos casos, tengan como copilotos a inteligencias artificiales”, destacó. Asimismo, el profesor lanzó un guante recogido por el resto de los participantes en el coloquio: “¿Seremos capaces de dar a los trabajadores la formación adecuada para desempeñar estas nuevas tareas que vienen? Y lo que es más importante: ¿Qué haremos con las personas cuyos puestos desaparecerán? ¿Podrán ser recicladas y formadas para ejercer en los nuevos perfiles?”, preguntó.
Recualificación, flexibilidad educativa y supervisión ética:
Bajo la perspectiva de Iñaki Ugarte, “cada vez que aparece una nueva tecnología disruptiva, se plantean las mismas cuestiones y la respuesta debe ser contundente: no se puede dejar a nadie atrás”, subrayó. “Pero la cuestión del reeskilling tiene un hándicap —continuó—, y es el sistema educativo, ya que le falta agilidad a la hora de adaptarse a las nuevas necesidades”. Belén Martín se mostró coincidente y confirmó que “reentrenar a los trabajadores es, efectivamente, la única forma de mantener esos puestos de trabajo afectados y, además, apostar por ellos mediante la formación es algo que genera sentido de pertenencia, lo que es realmente útil dentro de la empresa”, señaló.
«El 60% de los empleos automatizará parte de sus tareas, pero solo el 7% lo hará en más de un 50% de sus procesos», Manuel Espiñeira (Minsait)
Para evidenciar el cuórum en este tema, también Manuel Espiñeira apuntó que “el currículo académico requiere más flexibilidad, especialmente cuando afecta a nuevas tecnologías”. “Hasta el momento, el sistema universitario enseña a pensar, pero son las empresas las que enseñan a poner en práctica lo aprendido”, precisó. Este razonamiento lo completó su compañero de tertulia López Sánchez cuando reivindicó que “las adaptaciones deberían ser rápidas, así como la identificación de qué puestos se demandan. Esto no lo podemos hacer desde el entorno académico, son las compañías las que deben poner encima de la mesa sus necesidades como generadoras de riqueza y empleo que son y comunicárselo a las universidades. Aun así — insistió el catedrático de la UCM —, continuará existiendo, al menos por el momento, el problema de que las enseñanzas regladas son especialmente difíciles de modificar en España y Europa”.
En el último tramo del debate se coló un tema clásico cuando se habla de automatización e IA: las implicaciones éticas. “Se ha demostrado que cuando se entrenan inteligencias artificiales se trasladan los sesgos sociales que tenemos los seres humanos. Quedan huellas del desarrollador en la propia tecnología. Existen muchos ejemplos en las últimas décadas. Uno de los mayores desafíos es, precisamente, garantizar que esto no suceda”, admitió Belén Martín. Como solución a este problema, Iñaki Ugarte aconsejó “utilizar a las personas como herramientas, es decir, conformar grupos variados y representativos en los que la diversidad social esté garantizada para evitar la traslación de sesgos a la IA”.
Otra solución complementaria, esta vez apuntada por Ignacio López Sánchez, es “crear organismos supervisores, como ya sucede en otros ámbitos donde existen entidades como la Comisión Nacional del Mercado de Valores o el Banco Central Europeo, por ejemplo. Eso sí, se trataría de supervisar, no de regular”. Suscribió sus palabras Manuel Espiñeira y añadió que “la regulación excesiva puede limitar el propio desarrollo de la IA y otras tecnologías asociadas”. Para concluir, el experto de Minsait explicó que “el verdadero desafío es alcanzar un punto de equilibrio en materia de regulación”.
Equipo de análisis del Laboratorio del Futuro. Encuentro – Mesa Redonda del Diario El Confidencial, España – Tema: El auge de la IA: ¿Podrá la automatización redefinir el mercado laboral sin dejar a nadie atrás?
UNA VISION FILOSOFICA DE LA INTELIGENCIA ARTIFICIAL. “DEMOCRACIAS DEBILES, CAPITALISMO E INTELIGENCIA ARTIFICIAL SON UNA COMBINACION PELIGROSA”
Mark Coeckelbergh: “Democracias débiles, capitalismo e inteligencia artificial son una combinación peligrosa”. El filósofo apunta que las instituciones tienen que recurrir a los expertos para regular la tecnología, pero sin olvidar a los ciudadanos.
Mark Coeckelbergh ha centrado la atención de un público poco acostumbrado a debates filosóficos: alumnos de ingeniería han llenado una sala para escuchar a este experto en ética de la tecnología, invitado por el Instituto de Robótica e Informática Industrial de la Universitat Politècnica de Catalunya. Coeckelberg, autor prolífico — dos de sus libros están editados en español por Cátedra, Ética de la inteligencia artificial (2021) y Filosofía política de la inteligencia artificial (2023) — sabe lo importante que es construir puentes entre los que desarrollan tecnologías y los que tienen que pensar cómo usarlas.
Pregunta. ¿Cree que estudiantes, ingenieros y las grandes tecnológicas tienen en cuenta los aspectos éticos de la inteligencia artificial (IA)?
Respuesta. La gente sí es consciente de que esta tecnología afectará a nuestras vidas, porque ya está en todas partes, pero a la vez estamos confundidos porque los cambios son muy rápidos y complejos. Por eso creo que es importante que desde la educación y la investigación se haga lo posible para buscar un camino interdisciplinar, entre la filosofía, la programación y la robótica, para tratar de resolver estos problemas éticos.
Pregunta. ¿Y con la política?
Respuesta. Sí, tenemos que crear más vínculos entre los expertos y los políticos, pero que no solo cuente la opinión técnica. Hay que ver cómo podemos organizar nuestra democracia para tener la visión de los expertos y, aun así, decidir nosotros. Las empresas tecnológicas tienen cada vez más poder, y esto es un problema, porque la soberanía de las naciones y ciudades va menguando. ¿Cuánto de nuestro futuro tecnológico hay que dejarlo en manos de iniciativas privadas, y cuánto tiene que ser público y controlado por las democracias?
Pregunta. ¿La inteligencia artificial es una amenaza para la democracia, o es que las democracias ya están debilitadas?
Respuesta. La democracia ya es vulnerable, porque realmente no tenemos democracias completas. Es como cuando le preguntaron a Gandhi qué pensaba de la civilización occidental y dijo que era una buena idea. Lo mismo con la democracia: es una buena idea, pero no la tenemos completa. Para mí no es suficiente con votar y que salgan mayorías, es demasiado vulnerable para el populismo, no es suficientemente participativa y no toma en serio a los ciudadanos. Falta educación y conocimiento para lograr una democracia real, y es lo mismo que falta en la tecnología. La gente tiene que entender que la tecnología también es política, y que hay que preguntarse si es bueno para la democracia que infraestructuras de la comunicación como Twitter estén en manos privadas.
Usamos la tecnología de forma acrítica, y mientras unos pocos tienen beneficios, al resto nos ordeñan por los datos
Pregunta. ¿En qué sentido amenaza la inteligencia artificial a la democracia?
Respuesta. Lidiamos con la tecnología sin pensar, la usamos acríticamente, pero ella nos da forma y nos usa como instrumentos para el poder, el control y la explotación de nuestros datos. Y mientras unos pocos tienen beneficios, al resto nos ordeñan por los datos. Esto afecta a las democracias, ya que, al no ser muy resilientes, las tendencias políticas aún se polarizan más con la tecnología. Esta combinación de democracias débiles, capitalismo e inteligencia artificial es peligrosa. Pero sí que creo que se puede usar de una forma más constructiva, para mejorar la vida de todos y no solo de unos pocos.
Pregunta. Unos ven la inteligencia artificial para trabajar menos y tener más libertad, y otros como una amenaza a sus trabajos.
Respuesta. Creo que la Inteligencia Artificial ahora mismo empodera a quien ya tiene una posición privilegiada o una buena educación: por ejemplo, pueden usarla para empezar una compañía. Pero habrá cambios en el empleo, habrá cierta transformación de la economía, y hay que prepararse. Por otro lado, el argumento de que la tecnología hace las cosas más fáciles… Hasta ahora, ha dado lugar a trabajos precarios, como los conductores de Uber, y a trabajos que pueden ser buenos, pero son estresantes. Por ejemplo, todos somos esclavos del correo electrónico, y llegó como una solución.
Pregunta. Así que el problema no es tanto la tecnología como el sistema.
Respuesta. Es la combinación de las dos cosas, pero efectivamente, estas nuevas posibilidades tecnológicas nos fuerzan a preguntarnos más que nunca sobre el sistema. Hoy en día es en el ámbito de la tecnología donde se juega el conflicto político.
Pregunta. ¿Qué impacto tiene en los medios de comunicación?
Respuesta. En este entorno, el problema no es que la gente se crea una mentira, sino que no sepa qué es mentira y qué es verdad. El periodismo de calidad es muy importante para dar contexto y para intentar entender el mundo. Creo que puede ayudar a que la gente tenga más conocimiento, incluso si se usa la Inteligencia Artificial para algunas tareas del oficio. Filósofos, periodistas, educadores, tenemos que dar las herramientas para interpretar el mundo, porque cuando falta el conocimiento y reina la confusión, es más fácil que venga un líder con una solución simple y populista, como ya ha ocurrido en algunos países de Europa.
Pregunta. ¿La tecnología puede hacer que los gobiernos se vuelvan más tecnócratas?
Respuesta. Los políticos están confundidos, sienten la presión de los lobbies y crean marcos regulatorios, pero el ciudadano en ningún momento ha tenido nada que decir. Los Estados se vuelven cada vez más burocráticos, porque dan el poder a quien controla la inteligencia artificial. Entonces, ¿quién es el responsable? Este tipo de sistemas, como dijo Hannah Arendt, lleva a los horrores. Debemos luchar contra ello, con regulaciones que permitan ver por qué los algoritmos toman las decisiones que toman, y que permitan saber quién es el responsable.
Equipo de análisis del Laboratorio del Futuro. Artículo/Reportaje de Josep Cata Figuls.
LA VELOZ REGULACION DE LA INTELIGENCIA ARTIFICIAL EN LA REPUBLICA POPULAR CHINA
El borrador de la regulación como una mezcla de restricciones sensatas sobre los riesgos de la IA y una continuación de la fuerte tradición del gobierno chino de intervención agresiva en la industria tecnológica.
En abril (2023), hubo un gran desarrollo en el espacio de la Inteligencia Artificial en China. El regulador chino de Internet publicó un borrador de reglamento sobre Inteligencia Artificial generativa. Denominado “Medidas para la Gestión de Servicios de Inteligencia Artificial Generativa”, el documento no llama a ninguna empresa específica, pero la forma en que está redactado deja en claro que se inspiró en el lanzamiento incesante de chatbots de modelos de lenguaje grande en China y el Estados Unidos
La semana pasada, participé en el podcast de CBC News «Nothing Is Foreign » para hablar sobre el borrador de la regulación y lo que significa para el gobierno chino tomar medidas tan rápidas en una tecnología aún muy nueva.
Como dije en el podcast, veo el borrador de la regulación como una mezcla de restricciones sensatas sobre los riesgos de la IA y una continuación de la fuerte tradición del gobierno chino de intervención agresiva en la industria tecnológica.
Muchas de las cláusulas del borrador del reglamento son principios que los críticos de la IA defienden en Occidente: los datos utilizados para entrenar modelos generativos de IA no deben infringir la propiedad intelectual o la privacidad; los algoritmos no deben discriminar a los usuarios por motivos de raza, etnia, edad, género y otros atributos; Las empresas de IA deben ser transparentes sobre cómo obtuvieron los datos de capacitación y cómo contrataron a humanos para etiquetar los datos.
Al mismo tiempo, hay reglas que otros países probablemente rechazarían. El gobierno pide que las personas que usan estas herramientas generativas de inteligencia artificial se registren con su identidad real, al igual que en cualquier plataforma social en China. El contenido que genera el software de IA también debe “reflejar los valores fundamentales del socialismo”.
Ninguno de estos requisitos es sorprendente. El gobierno chino ha regulado con mano dura a las empresas tecnológicas en los últimos años, castigando a las plataformas por la moderación laxa e incorporando nuevos productos al régimen de censura establecido.
El documento hace que esa tradición regulatoria sea fácil de ver: hay una mención frecuente de otras reglas que se han aprobado en China, sobre datos personales, algoritmos, falsificaciones profundas, ciberseguridad, etc. De alguna manera, se siente como si estos documentos discretos estuvieran formando lentamente una red de reglas que ayudan al gobierno a procesar nuevos desafíos en la era tecnológica.
El hecho de que el gobierno chino pueda reaccionar tan rápidamente a un nuevo fenómeno tecnológico es un arma de doble filo. La fuerza de este enfoque, que analiza cada nueva tendencia tecnológica por separado, “es su precisión, creando remedios específicos para problemas específicos”, escribió Matt Sheehan, miembro de Carnegie Endowment for International Peace. “La debilidad es su naturaleza fragmentaria, con los reguladores obligados a redactar nuevas regulaciones para nuevas aplicaciones o problemas”. Si el gobierno está ocupado jugando al whack-a-mole con nuevas reglas, podría perder la oportunidad de pensar estratégicamente sobre una visión a largo plazo de la IA. Podemos contrastar este enfoque con el de la UE, que ha estado trabajando en una Ley de Inteligencia Artificial “enormemente ambiciosa” durante años, como explicó recientemente mi colega Melissa. (Una revisión reciente del borrador de la Ley de IA incluyó regulaciones sobre IA generativa).
Hay un punto que no llegué a mencionar en el podcast pero que creo que es fascinante. A pesar de la naturaleza restrictiva del documento, también es un estímulo tácito para que las empresas sigan trabajando en IA. La multa máxima propuesta por violar las reglas es de 100 000 RMB, unos 15 000 dólares, una cifra minúscula para cualquier empresa que tenga la capacidad de construir grandes modelos lingüísticos.
Por supuesto, si una empresa es multada cada vez que su modelo de IA viola las reglas, las cantidades pueden acumularse. Pero el tamaño de la multa sugiere que las reglas no están hechas para asustar a las empresas para que no inviertan en IA. Como escribió recientemente Angela Zhang, profesora de derecho en la Universidad de Hong Kong, el gobierno está desempeñando múltiples funciones: “El gobierno chino no solo debe ser visto como un regulador, sino también como un defensor, patrocinador e inversor en IA. Los ministerios que defienden el desarrollo de la IA, junto con los patrocinadores e inversores estatales, están preparados para convertirse en un potente contrapeso contra la estricta regulación de la IA”.
Pueden pasar algunos meses antes de que los reguladores finalicen el borrador, y meses después antes de que entre en vigor. Pero sé que mucha gente, incluyéndome a mí, estará atenta a cualquier cambio.
¿Quién sabe? Para cuando la regulación entre en vigencia, podría haber otro nuevo producto viral de Inteligencia Artificial que obligue al gobierno a elaborar aún más reglas.
Equipo de análisis del Laboratorio del Futuro/publicación del MIT – Massachussets Institute of Technology (Estados Unidos). Artículo de Zeyi Yang.
Traducción del inglés: equipo de traducción e interpretación del Laboratorio del Futuro.
Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo
Yudkowsky es un teórico de la decisión de EE. UU. y dirige la investigación en el Instituto de Investigación de Inteligencia de Máquinas. Ha estado trabajando en la alineación de la Inteligencia General Artificial desde 2001 y es ampliamente considerado como uno de los fundadores del campo.
Una carta abierta publicada a fines de mayo de 2023 pide que «todos los laboratorios de IA pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4».
Esta moratoria de 6 meses sería mejor que ninguna moratoria. Tengo respeto por todos los que dieron un paso al frente y lo firmaron. Es una mejora en el margen.
Me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide muy poco para resolverla.
El tema clave no es la inteligencia “competitiva humana” (como dice la carta abierta); es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana. Los umbrales clave allí pueden no ser obvios, definitivamente no podemos calcular de antemano qué sucede y cuándo, y actualmente parece imaginable que un laboratorio de investigación cruzaría líneas críticas sin darse cuenta.
Muchos investigadores inmersos en estos temas , incluyéndome a mí, esperan que el resultado más probable de construir una IA superhumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las circunstancias actuales, es que, literalmente, todos en la Tierra morirán. No como en «tal vez posiblemente alguna posibilidad remota», sino como en «eso es lo obvio que sucedería». No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas de IA compuestos por conjuntos gigantes e inescrutables de números fraccionarios.
Sin esa precisión y preparación, el resultado más probable es una IA que no hace lo que queremos y no se preocupa por nosotros ni por la vida sensible en general. Ese tipo de cuidado es algo que, en principio, podría imbuirse en una IA, pero no estamos listos y actualmente no sabemos cómo hacerlo.
En ausencia de ese cuidado, obtenemos que «la IA no te ama, ni te odia, y estás hecho de átomos que puede usar para otra cosa».
El resultado probable de que la humanidad se enfrente a una inteligencia sobrehumana opuesta es una pérdida total. Las metáforas válidas incluyen “un niño de 10 años tratando de jugar al ajedrez contra Stockfish de 15”, “el siglo XI tratando de luchar contra el siglo XXI” y “Australopithecus tratando de luchar contra el Homo sapiens”.
Para visualizar una IA sobrehumana hostil, no imagines a un pensador inteligente y sin vida viviendo dentro de Internet y enviando correos electrónicos mal intencionados. Visualiza toda una civilización alienígena, pensando a millones de veces la velocidad humana, inicialmente confinada a las computadoras, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y lentas. Una Inteligencia Artificial lo suficientemente inteligente no permanecerá confinada a las computadoras por mucho tiempo. En el mundo actual, puede enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a pedido, lo que permite que una IA inicialmente confinada a Internet construya formas de vida artificiales o arranque directamente a la fabricación molecular posbiológica.
Si alguien construye una IA demasiado poderosa, en las condiciones actuales, espero que todos los miembros de la especie humana y toda la vida biológica en la Tierra mueran poco después.
No hay un plan propuesto sobre cómo podríamos hacer tal cosa y sobrevivir. La intención abiertamente declarada de OpenAI es hacer que alguna IA futura haga nuestra tarea de alineación de IA. Solo escuchar que este es el plan debería ser suficiente para que cualquier persona sensata entre en pánico. El otro laboratorio de inteligencia artificial líder, DeepMind, no tiene ningún plan.
Un aparte: nada de este peligro depende de si las IA son o pueden ser conscientes; es intrínseco a la noción de sistemas cognitivos poderosos que optimizan y calculan resultados que cumplen con criterios de resultados suficientemente complicados. Dicho esto, sería negligente en mis deberes morales como humano si no mencionara también que no tenemos idea de cómo determinar si los sistemas de IA son conscientes de sí mismos, ya que no tenemos idea de cómo decodificar nada de lo que sucede. en las matrices inescrutables gigantes, y por lo tanto, en algún momento, sin darnos cuenta, podemos crear mentes digitales que son verdaderamente conscientes y deberían tener derechos y no deberían ser propiedad.
La regla que la mayoría de las personas conscientes de estos problemas habría respaldado 50 años antes, era que si un sistema de IA puede hablar con fluidez y dice que es consciente de sí mismo y exige derechos humanos, eso debería ser un obstáculo para las personas que simplemente poseen esa Inteligencia Artificial. y usarlo más allá de ese punto. Ya superamos esa vieja línea en la arena. Y probablemente eso era correcto. Estoy de acuerdo en que las IA actuales probablemente solo estén imitando la conversación sobre la autoconciencia de sus datos de entrenamiento. Pero señalo que, con la poca comprensión que tenemos de las partes internas de estos sistemas, en realidad no lo sabemos.
Si ese es nuestro estado de ignorancia para GPT-4, y GPT-5 es del mismo tamaño de un paso de capacidad gigante que de GPT-3 a GPT-4, creo que ya no podremos decir justificadamente «probablemente no auto- conscientes” si permitimos que la gente fabrique GPT-5. Simplemente será “No lo sé; nadie lo sabe.» Si no puede estar seguro de si está creando una IA autoconsciente, esto es alarmante no solo por las implicaciones morales de la parte «autoconsciente», sino porque no estar seguro significa que no tiene idea de lo que está haciendo. y eso es peligroso y deberías parar.
El 7 de febrero, Satya Nadella, CEO de Microsoft, se regodeó públicamente de que el nuevo Bing haría que Google «salga y demuestre que puede bailar». “Quiero que la gente sepa que los hicimos bailar”, dijo.
No es así como habla el CEO de Microsoft en un mundo cuerdo. Muestra una brecha abrumadora entre la seriedad con la que tomamos el problema y la seriedad con la que necesitábamos tomarlo hace 30 años.
No vamos a cerrar esa brecha en seis meses.
Pasaron más de 60 años desde que se propuso y estudió por primera vez la noción de inteligencia artificial hasta que alcanzamos las capacidades actuales. Resolver la seguridad de la inteligencia sobrehumana, no la seguridad perfecta, la seguridad en el sentido de «no matar literalmente a todos», podría tomar razonablemente al menos la mitad de ese tiempo. Y lo que pasa con intentar esto con inteligencia sobrehumana es que, si te equivocas en el primer intento, no puedes aprender de tus errores, porque estás muerto. La humanidad no aprende del error y se desempolva y vuelve a intentarlo, como en otros desafíos que hemos superado en nuestra historia, porque todos nos hemos ido.
Tratar de hacer algo bien en el primer intento realmente crítico es una tarea extraordinaria, tanto en ciencia como en ingeniería. No estamos llegando con nada parecido al enfoque que se requeriría para hacerlo con éxito. Si mantuviéramos algo en el campo naciente de la Inteligencia General Artificial con los estándares menores de rigor de ingeniería que se aplican a un puente destinado a transportar un par de miles de automóviles, todo el campo se cerraría mañana.
No estamos preparados. No estamos en camino de estar preparados en una ventana de tiempo razonable. No hay plan. El progreso en las capacidades de la IA es enorme, muy por delante del progreso en la alineación de la IA o incluso del progreso en la comprensión de qué diablos está pasando dentro de esos sistemas. Si realmente hacemos esto, todos vamos a morir.
Muchos investigadores que trabajan en estos sistemas piensan que nos estamos precipitando hacia una catástrofe, y más de ellos se atreven a decirlo en privado que en público; pero piensan que no pueden detener unilateralmente la caída hacia adelante, que otros continuarán incluso si ellos personalmente renuncian a sus trabajos. Y entonces todos piensan que también podrían seguir adelante. Este es un estado de cosas estúpido y una forma indigna de que la Tierra muera, y el resto de la humanidad debería intervenir en este punto y ayudar a la industria a resolver su problema de acción colectiva.
Algunos de mis amigos me han informado recientemente que cuando las personas ajenas a la industria de la IA se enteran por primera vez del riesgo de extinción de la Inteligencia General Artificial, su reacción es «quizás no deberíamos construir AGI, entonces».
Escuchar esto me dio un pequeño destello de esperanza, porque es una reacción más simple, más sensata y francamente más sensata que la que he escuchado en los últimos 20 años de intentar que alguien en la industria se tome las cosas en serio. Cualquiera que hable así merece escuchar lo grave que es la situación en realidad, y no que le digan que una moratoria de seis meses la solucionará.
El 16 de marzo, mi pareja me envió este correo electrónico. (Más tarde me dio permiso para extraerlo aquí).
“¡Nina perdió un diente! De la manera habitual que hacen los niños, ¡no por descuido! Ver GPT4 superar esas pruebas estandarizadas el mismo día en que Nina alcanzó un hito de la infancia provocó una oleada emocional que me hizo perder la cabeza por un minuto. Todo va demasiado rápido. Me preocupa que compartir esto aumente tu propio dolor, pero prefiero que me conozcas a que cada uno de nosotros sufra solo”.
Cuando la conversación interna es sobre el dolor de ver a su hija perder su primer diente y pensar que no tendrá la oportunidad de crecer, creo que estamos más allá del punto de jugar al ajedrez político sobre una moratoria de seis meses.
Si hubiera un plan para que la Tierra sobreviviera, si solo aprobáramos una moratoria de seis meses, respaldaría ese plan. No hay tal plan.
Esto es lo que realmente tendría que hacerse:
La moratoria sobre nuevos grandes entrenamientos debe ser indefinida y mundial. No puede haber excepciones, incluso para gobiernos o militares. Si la política comienza con los EE. UU., entonces China debe ver que los EE. UU. no buscan una ventaja, sino que intentan evitar una tecnología terriblemente peligrosa que no puede tener un verdadero dueño y que matará a todos en los EE. UU., en China y en la Tierra. Si tuviera una libertad infinita para escribir leyes, podría hacer una sola excepción para que las Inteligencias Artificiales se entrenen únicamente para resolver problemas en biología y biotecnología, no entrenadas en texto de Internet, y no al nivel en el que comienzan a hablar o planificar; pero si eso estuviera complicando remotamente el problema, descartaría inmediatamente esa propuesta y diría que simplemente cerrara todo.
Apague todos los clústeres de GPU grandes (las grandes granjas de computadoras donde se refinan las IA más poderosas). Cierra todas las carreras de entrenamiento grandes. Ponga un límite a la cantidad de poder de cómputo que cualquiera puede usar para entrenar un sistema de IA y muévalo hacia abajo en los próximos años para compensar los algoritmos de entrenamiento más eficientes. Sin excepciones para gobiernos y militares. Hacer acuerdos multinacionales inmediatos para evitar que las actividades prohibidas se trasladen a otros lugares. Seguimiento de todas las GPU vendidas. Si la inteligencia dice que un país fuera del acuerdo está construyendo un clúster de GPU, tenga menos miedo de un conflicto a tiros entre naciones que de que se viole la moratoria; estar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo.
No enmarque nada como un conflicto entre intereses nacionales, tenga claro que cualquiera que hable de carreras armamentistas es un tonto. Que todos vivamos o muramos como uno, en esto, no es una política sino un hecho de la naturaleza. Hacer explícito en la diplomacia internacional que la prevención de escenarios de extinción de la IA se considera una prioridad por encima de la prevención de un intercambio nuclear total, y que los países nucleares aliados están dispuestos a correr algún riesgo de intercambio nuclear si eso es lo que se necesita para reducir el riesgo de grandes carreras de entrenamiento de IA.
Ese es el tipo de cambio de política que haría que mi pareja y yo nos abrazáramos y nos decimos que sucedió un milagro, y ahora existe la posibilidad de que Nina viva. Las personas cuerdas que escuchan sobre esto por primera vez y dicen con sensatez «tal vez no deberíamos» merecen escuchar, honestamente, lo que se necesitaría para que eso suceda. Y cuando su solicitud de política es tan grande, la única manera de que se apruebe es si los legisladores se dan cuenta de que si hacen negocios como de costumbre y hacen lo que es políticamente fácil, eso significa que sus propios hijos también van a morir.
No estamos listos No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo.
Equipo de análisis del Laboratorio del Futuro/Revista Time (Inglaterra). Artículo de Eliezer Yudkowsky.
Traducción del inglés: equipo de traducción e interpretación del Laboratorio del Futuro.