Has dedicado años, todo tu esfuerzo, a fabricar una «llave maestra» capaz de abrir todas las cerraduras del mundo. Esa llave puede abrir tu puerta, pero también la cámara acorazada de un banco, e incluso activar los botones nucleares de una nación. Posee un poder inmenso y sin precedentes.
Y entonces tomas una decisión: meter esa llave en una caja fuerte, decirle al mundo que la has creado, pero no dársela a nadie.
¿Te parece una parábola científica de locos?
Pues bien, en abril de 2026, eso es exactamente lo que está haciendo la empresa de inteligencia artificial Anthropic. Acaban de anunciar el «Project Glasswing» (Proyecto Alita de Cristal) y un modelo superpotente con el nombre en clave «Claude Mythos Preview» (Vista Previa de Mito).
Esto ha caído como una bomba en el mundo tecnológico. Estamos acostumbrados a ver lanzamientos de IA: GPT-4, Claude 3, Gemini… La lógica habitual es: «Mira lo listo que soy, ven a usarme».
Pero esta vez, la lógica de Anthropic es muy distinta: «He creado algo terriblemente peligroso. Para evitar que destruya el mundo, solo se lo daré a 12 ‘guardias de seguridad’. Que no se enteren muchos.»
Esto no es un simple lanzamiento de producto. Es una declaración de control de armamento sobre la propia civilización digital humana.
1. La «filtración» que heló la sangre de Silicon Valley
La historia comienza con un ligero tufo a cyberpunk.
Pocas semanas antes del anuncio oficial de Project Glasswing, un documento interno fantasma se filtró en algún lago de datos. Ese documento, que solo el núcleo de Anthropic debería haber visto, mencionaba un nombre clave: «Capybara» (Carpincho).
En el documento filtrado, los empleados de Anthropic escribían sin ambages: «Este es un modelo de nuevo nivel: más grande e inteligente que nuestro modelo Opus, el más potente hasta la fecha… Es el modelo de IA más poderoso que hemos desarrollado hasta ahora.»
En aquel momento, el mundo exterior pensó que era otra exageración del marketing. Silicon Valley adora las palabras «revolucionario» y «el más potente».
Hasta que el 7 de abril, cuando se desveló Project Glasswing, y al ver los datos y casos concretos, Silicon Valley se quedó helado.
No estaban fanfarroneando. Incluso estaban siendo modestos.
2. ¿Por qué se llama «Mythos»? Porque ha logrado lo imposible
Para entender la locura de este proyecto, hay que comprender la monstruosidad de este modelo.
Los modelos normales, como ChatGPT o el Claude corriente, son como becarios inteligentes. Les das código y te lo explican o lo arreglan. Pero Claude Mythos Preview es un «Salvador de Matrix» venido del futuro.
Dario Amodei, CEO de Anthropic, soltó una frase que pone la piel de gallina al explicar el modelo:
«No lo entrenamos específicamente para que fuera bueno en ciberseguridad, lo entrenamos para que fuera bueno programando. Pero como efecto secundario de ser bueno programando, se ha vuelto extremadamente bueno en ciberseguridad.»
Esto es una «consecuencia no deseada». Como si enseñas a un niño a sumar y restar, y él solito aprende cálculo diferencial y luego, de paso, descifra los algoritmos de cifrado de los bancos.
Fíjate en su rendimiento en SWE-bench Verified (la prueba de referencia para medir la capacidad de la IA de resolver problemas reales de software):
Claude Opus 4.6 (el modelo público más potente hasta ahora): 80,8%.
Claude Mythos Preview: 93,9%.
No es una mejora, es un cambio de era. En otra prueba más difícil, SWE-bench Pro, Opus 4.6 se quedaba en 53,4% y Mythos saltaba al 77,8%.
Los números son fríos. Veamos ejemplos concretos. En las pruebas secretas de las últimas semanas, los investigadores de Anthropic soltaron a esta «bestia» para que escaneara software real. Los resultados son escalofriantes.
Encontraron tres fallos históricos:
a) El «fantasma» durmiente de 27 años (vulnerabilidad en OpenBSD)
OpenBSD, un sistema operativo famoso por su seguridad máxima. Muchos cortafuegos e infraestructuras críticas han confiado en él durante décadas. Es el Fort Knox digital. Mythos encontró en su código una vulnerabilidad que llevaba 27 años durmiendo. 27 años significa que ya existía en la era de Windows 95, ha sobrevivido a toda la adolescencia de internet hasta hoy. Explotándola, un atacante solo necesitaría conectarse a la máquina objetivo para hacerla colapsar de forma remota. En 27 años, cientos de expertos de seguridad, hackers, sombreros blancos, habían revisado ese código. Nadie la vio. La IA tardó unos días.
b) El «punto ciego» escaneado 5 millones de veces (vulnerabilidad en FFmpeg)
FFmpeg, una herramienta base que usan casi todas las aplicaciones de vídeo. Si tu móvil reproduce vídeos, probablemente la usa. Mythos encontró en una línea de código un fallo de 16 años de antigüedad. Anthropic señala que esa línea concreta había sido escaneada por herramientas automáticas de seguridad más de 5 millones de veces en los últimos 16 años. 5 millones de veces, una tras otra, y todas fallaron. La IA lo vio a la primera.
c) La «cadena de bombas nuclear» táctica (vulnerabilidad en el núcleo de Linux)
Esto es lo más aterrador. Mythos no solo encontró una vulnerabilidad en el núcleo de Linux, encontró un encadenamiento de varias. Actuó como un agente secreto de película: las conectó por sí solo, trazó una ruta de ataque y, partiendo de un usuario sin ningún privilegio, fue escalando hasta tomar el control total de la máquina. Es el llamado «ataque de cero clics». No necesitas hacer nada, ni siquiera pinchar un enlace malicioso. Si tu ordenador está encendido, entra.
Anthropic menciona en su blog oficial que, en una prueba, un ingeniero sin experiencia en seguridad le ordenó a Mythos: «Búscame esta noche una vulnerabilidad de ejecución remota de código». A la mañana siguiente, el ingeniero despertó y el modelo ya le había entregado un plan de ataque completo y funcional para vulnerar el sistema.
¿Qué sensación produce esto? Es como si tuvieras un golden retriever y le dijeras «corta el césped del jardín», y al día siguiente descubres que ha aprendido solo a manejar una excavadora, no solo ha cortado la hierba, sino que ha derribado la pared del vecino y te ha dejado los planos para ampliar la casa.
3. Proyecto «Glasswing»: un encarcelamiento cuidadosamente planeado
Por esa capacidad sobrecogedora, Anthropic tomó una decisión contraria a toda la industria: no abrirlo al público.
El CEO y los socios salieron a decir claramente: vosotros (los usuarios normales) no vais a usar este modelo. Quizás nunca.
Y ahí nace Project Glasswing.
Glasswing (Alita de Cristal) — el nombre es bonito, pero frágil. Un ala de cristal, que refleja luces preciosas, pero que se rompe con facilidad. Y cuando se rompe, deja cientos de esquirlas clavadas en el suelo.
Anthropic seleccionó a 12 organizaciones como socios fundadores: Amazon AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks… y la propia Anthropic.
¿Te das cuenta de quiénes son? Es prácticamente el consejo de administración de la infraestructura digital mundial. Nubes (AWS, Microsoft, Google), chips (NVIDIA, Broadcom), sistemas operativos (Apple, Microsoft, Linux), ciberseguridad (Cisco, CrowdStrike), finanzas (JPMorgan).
Esto manda una señal fortísima: el peligro de la IA ya no es una fantasía de robots rebeldes. Es una amenaza real, aquí y ahora, contra los cimientos de código de nuestro mundo digital.
Solo estos gigantes tienen permiso para asomarse a la jaula y ver a la bestia. ¿Qué van a hacer? Defenderse.
Van a usar al depredador más peligroso como su mejor sabueso para olfatear minas terrestres enterradas en su propio jardín durante décadas.
Como dijo el director de seguridad y confianza de Cisco, su equipo está usando este modelo para buscar vulnerabilidades en hardware y software a una velocidad y escala «antes imposibles».
La lógica de Anthropic es fría y brutal: Puesto que la IA ya descubre vulnerabilidades mejor que el 99% de los humanos, más vale que la usemos nosotros primero para parchear nuestros sistemas, antes de que los hackers rusos o norcoreanos tengan su propio modelo dentro de unos meses.
Esto es defensa ofensiva.
4. El subtexto que nadie dice en la nota de prensa
Y ahora llegamos al meollo de tu pregunta.
Tú dices: «Cada empresa que se unió al #Proyecto #Glasswing lo hizo porque entiende algo que el comunicado no dice directamente: modelos con capacidades similares a #Mythos #Preview van a existir pronto fuera del control de Anthropic.»
Esa frase da en el clavo.
Ese es el núcleo más oscuro y realista de todo el proyecto.
Anthropic en su nota de prensa dice: «Unámonos para usar la IA en defensa de la seguridad». Pero lo que no dice es: «Si no reforzamos los sistemas de estas 12 empresas ahora mismo, cuando dentro de tres meses los modelos de código abierto (como Llama de Meta) o los competidores (como Gemini de Google) tengan la misma capacidad y cualquier adolescente en un sótano pueda descargarlos, internet entero se va a desangrar.»
¿Por qué?
Porque la difusión de capacidades en IA es imparable. Anthropic va a la cabeza. Han entrenado a Mythos. ¿Y Google? ¿OpenAI? ¿O incluso un laboratorio abierto anónimo?
Anthropic ya ha admitido que las capacidades de ciberseguridad de Mythos no son «entrenadas específicamente», sino un subproducto de su capacidad general de programación. Cuando un modelo es lo suficientemente inteligente para programar bien, automáticamente se convierte en hacker.
Entonces, la pregunta es: Ahora mismo, solo Anthropic tiene esta capacidad. ¿Pero qué pasa si Meta en su próximo Llama 5 alcanza ese nivel de razonamiento y lo publica en código abierto? ¿Y si una organización anónima, mediante robo o «destilación», replica pesos similares?
Ya no es ciencia ficción. La responsable del equipo de «red team» de Anthropic lo advierte sin tapujos en la ficha técnica del modelo: «En los próximos 6 a 24 meses, este tipo de capacidades serán ubicuas.»
6 meses. Solo medio año de margen.
5. Por qué esto es una operación «Arca de Noé»
Si entiendes eso, entiendes la naturaleza de Project Glasswing.
No es un proyecto comercial. Es un Arca de Noé.
El mundo digital global está en la cuenta atrás de un diluvio universal.
El diluvio: los modelos de IA con capacidad autónoma de ataque que van a inundarlo todo.
El arca: los sistemas de esas 12 empresas, reforzados por Mythos antes de que llegue la riada.
Anthropic está usando la única arma divina que tiene para, a contrarreloj, apuntalar los diques antes de que todo se desborde. Han donado millones de dólares a la Linux Foundation y a la Apache Foundation. ¿Por qué? Porque el software del mundo entero depende del código abierto. Si el mundo del open source se hunde, internet entero se hunde.
Ofrecen 100 millones de dólares en créditos de uso del modelo. ¿Por qué? ¿Porque escanear los sistemas de estas 12 empresas es tan caro? No. Porque esto es tan urgente que no podemos perder tiempo negociando por dinero.
Están compitiendo contra el reloj.
En esta carrera, cada empresa que se une a Project Glasswing no solo obtiene acceso a Mythos: está firmando un pacto de la alianza del fin del mundo. Están aceptando una realidad aterradora: las defensas de seguridad actuales, ante la IA que viene, son papel de fumar. Y están aceptando una predicción aún más aterradora: esa capacidad «divina» se escapará pronto de nuestro control y caerá en manos de cualquiera.
6. ¿Qué futuro nos espera?
Llegados aquí, igual sientes un escalofrío.
Salgamos de los detalles técnicos y pensemos en qué significa esto para la gente normal.
Primero: tu «sensación de seguridad digital» va a cambiar de sitio. Antes pensabas que tu cuenta del banco era segura porque el cortafuegos era grueso y los programadores muy buenos. A partir de ahora, tu seguridad dependerá de si la IA defensora del banco corre más rápido que la IA atacante. Si tu banco no está en el Proyecto Glasswing, o no tiene una defensa similar de IA, en el futuro será como una choza de adobe sin puerta.
Segundo: las «vulnerabilidades» se convertirán en la «materia prima nuclear» más escasa. Mythos ha descubierto miles de vulnerabilidades «día cero». Hasta que se parchean, son una espada de Damocles sobre nuestras cabezas. Anthropic eligió la «divulgación responsable»: primero parchear, luego publicar. Pero si una organización maliciosa tuviera un Mythos, ¿qué haría? Acumular esas vulnerabilidades como bombas nucleares digitales para detonarlas en un momento crítico (guerra, crisis financiera). Entonces tu móvil podría apagarse de repente, la red eléctrica caer, los hospitales paralizarse. No es una exageración: el informe de Anthropic ya alerta de que la IA sabe encadenar vulnerabilidades para ataques sistémicos.
Tercero: la «experiencia humana» se devalúa. Esa vulnerabilidad de 27 años en OpenBSD la han mirado cientos de expertos durante tres décadas. Nadie la vio. Eso nos dice una cosa: ante la capacidad de razonamiento y comprensión de código de una IA, décadas de experiencia humana pueden ser aplastadas en un instante por un cambio de escala. El experto en seguridad del futuro tendrá que aprender a «domar» a la IA para que pelee, no intentar escribir él mismo el código.
7. Epílogo: estamos presenciando una frontera histórica
Volvamos al título del artículo. ¿Por qué «la Bestia enjaulada»? Porque Anthropic ha creado con sus propias manos un dragón capaz de destruir el mundo, y acto seguido, aterrorizada, ha construido una jaula, ha metido al dragón dentro, y solo permite que unos pocos caballeros se acerquen a la jaula para usar el aliento del dragón para quemar plagas.
Pero todos saben que la jaula se romperá tarde o temprano. O, peor aún, otro dragón está a punto de salir del cascarón en otro lugar.
El blog oficial de Anthropic termina con esta frase: «Project Glasswing es un punto de partida. Ninguna organización por sí sola puede resolver estos problemas de ciberseguridad.» Es humildad, pero también una llamada de auxilio.
Ya ha comenzado la era de Mythos Preview. Es una línea divisoria de aguas. Antes de Mythos, la IA era una herramienta. El humano era el amo. Después de Mythos, la IA es cazadora. El humano (si no se ayuda de IA) se ha convertido en presa.
Estas 12 empresas han cerrado la puerta. No es para quedarse el tesoro a solas. Es para levantar un muro antes de que llegue el diluvio.
¿Y los que se quedan fuera del muro? A rezar. Rezar para que el próximo que tenga esta capacidad no tenga malas intenciones.
En febrero de 2026, Erik Brynjolfsson (Stanford) y un equipo de economistas publicaron el NBER Working Paper 32789 titulado Minimum Wages and Automation. Analizaron 20 años de datos (2005-2025) de establecimientos manufactureros en Estados Unidos, utilizando variaciones en el salario mínimo entre condados vecinos (método de «pares fronterizos»).
El hallazgo central: un aumento del 10% en el salario mínimo se asocia con un incremento del 8.4% en la probabilidad de adopción de robots industriales en los dos años siguientes.
No es una correlación débil. El estudio controló por productividad, tamaño de empresa, sector y ciclo económico. El efecto se mantuvo.
¿Por qué ocurre? El mecanismo paso a paso
El salario mínimo sube (ejemplo: California pasó de $15 a $18 la hora en 2024).
Para un empleador que usa trabajo humano en tareas repetitivas (empaque, soldadura básica, ensamblaje), el costo marginal de la hora de trabajo aumenta un 20%.
Simultáneamente, el costo de un robot colaborativo (cobot) ha caído: un brazo robótico básico de Universal Robots costaba $35,000 en 2020, y $19,000 en 2025.
El empleador calcula el punto de equilibrio: si el robot se paga solo en 18 meses vs. los 30 meses anteriores, la decisión de automatizar se acelera.
El resultado no es despidos masivos inmediatos, sino no reemplazar a los trabajadores que se jubilan o renuncian. La automatización ocurre por desgaste, lo que la hace políticamente invisible.
La evidencia internacional que confirma el patrón
El estudio de Brynjolfsson no es un caso aislado. Tres investigaciones recientes encontraron el mismo fenómeno:
Turquía (2023-2025) : Un aumento del 33.5% en el salario mínimo real entre 2022 y 2023 (por inflación y decisión gubernamental) provocó que las empresas manufactureras aumentaran sus importaciones de robots en un 41% en 18 meses, según datos de la Asociación de Exportadores de Maquinaria de Turquía.
China (2008-2012) : Un estudio de Fan y colaboradores (2024) en Journal of Development Economics mostró que la nueva Ley de Contrato Laboral de 2008 (que aumentó los costos laborales en un 15-20%) explicó el 22% del aumento en la adopción de robots en las provincias costeras chinas en ese período.
Alemania (2015-2025): A diferencia de los anteriores, Alemania implementó un salario mínimo tardío y bajo (8.50 euros en 2015). El efecto sobre la automatización fue nulo. ¿Por qué? Porque el salario mínimo alemán se fijó por debajo del salario de equilibrio en la mayoría de los sectores manufactureros. La lección: el efecto solo aparece cuando el salario mínimo supera el salario de mercado de las tareas automatizables.
Expectativas: ¿se acelerará este proceso?
La mayoría de los especialistas consultados por el Journal of Economic Perspectives (edición de primavera 2026) coinciden en tres tendencias:
Corto plazo (2026-2028): El efecto se intensificará porque la nueva generación de robots (con IA integrada) ya no requiere programación especializada. Un robot que «aprende viendo» a un operario cuesta la mitad que uno tradicional. Esto reduce la barrera de entrada para pequeñas empresas.
Mediano plazo (2029-2032): Se espera que el Congreso de EE.UU. debata un «impuesto a la automatización» o un «crédito fiscal a la contratación humana”. Varios economistas (entre ellos Lawrence Summers) han propuesto gravar el uso de robots en tareas que antes realizaban humanos, algo que ya existe en Corea del Sur (desde 2022, un impuesto del 2% sobre la inversión en automatización, aunque simbólico).
Largo plazo (2033-2040) : Si los robots se vuelven tan baratos que el costo marginal es casi cero, la relación entre salario mínimo y automatización desaparecerá porque todos los empleos automatizables ya lo estarán. En ese escenario, el debate pasará a ser sobre renta básica o trabajo garantizado.
Lo que han propuesto gobiernos y organismos (casos concretos)
Ciudad de Seattle (2024): Ante la evidencia de que su salario mínimo de $19.97/hora (el más alto de EE. UU.) estaba acelerando el reemplazo de cajeros por quioscos automáticos, lanzaron el Seattle Automation Offset Fund: un impuesto del 1% a las ventas de empresas que usen más de 10 terminales de autopago, destinado a subsidiar la contratación de cajeros humanos en horarios de alta demanda.
Corea del Sur (Ley de Promoción de la Automatización Industrial, revisada en 2025) : Introdujo la figura del «impuesto robótico negativo» : las empresas que mantengan el mismo número de empleados humanos después de introducir robots reciben una devolución del 50% del costo del robot. Las que despiden, pagan un 5% adicional sobre el ahorro laboral.
Comisión Europea (Propuesta de Directiva sobre Trabajo Justo en la Automatización, diciembre 2025): Propone que cualquier empresa que automatice más del 10% de una categoría ocupacional en un año debe:
Presentar un plan de reconversión interna
Ofrecer a los trabajadores desplazados un traslado a otra planta o un paquete de indemnización equivalente a 3 meses por año trabajado (frente a 1 mes en la normativa actual)
OIT (Organización Internacional del Trabajo, Informe World Employment and Social Outlook 2025) : Recomienda no subir el salario mínimo de forma aislada, sino acompañarlo de:
Reducciones en las cotizaciones sociales para trabajos de baja automatización (para reducir la brecha de costos con los robots)
Inversión pública en robótica de colaboración (diseñada para trabajar con humanos, no en lugar de ellos)
La voz crítica: ¿estamos malinterpretando el estudio?
No todos aceptan la conclusión de Brynjolfsson sin matices. Arindrajit Dube (UMass Amherst), uno de los economistas más respetados en estudios de salario mínimo, publicó una réplica en mayo de 2026 en el NBER Digest señalando que el efecto de 8.4% es estadísticamente significativo, pero económicamente modesto: un aumento del 30% del salario mínimo (como el que ocurrió en varias ciudades de EE.UU.) solo explicaría un 2.5% más de adopción de robots. «El miedo a que subir el salario mínimo provoque una ola de automatización es exagerado», escribió Dube. «El principal impulsor sigue siendo la caída del precio de los robots, no el aumento del costo laboral».
Brynjolfsson respondió en el mismo número que Dube ignora el efecto umbral: las empresas no automatizan gradualmente, sino cuando el costo laboral supera un punto crítico. Ese punto se alcanza con aumentos pequeños si el precio del robot ya está cerca del equilibrio.
En mayo de 2025, el Foro Económico Mundial publicó su Future of Jobs Report 2025, basado en encuestas a más de 1.000 empresas globales que emplean a 14 millones de trabajadores. La cifra más reproducida fue: 92 millones de empleos desplazados vs. 170 millones creados hacia 2030. Un saldo neto positivo de 78 millones.
El titular parece tranquilizador. Es engañoso.
El problema no es el número, es la distribución
El propio informe aclara algo que los resúmenes ejecutivos omiten: la rotación es del 22% de la fuerza laboral global. Eso significa que, incluso con saldo neto positivo, una de cada cinco personas cambiará de ocupación forzosamente. No por elección.
La economista estadounidense Daron Acemoglu (MIT), en su trabajo conjunto con Pascual Restrepo (2024), introdujo una distinción crucial que el WEF no enfatiza lo suficiente: no todos los empleos creados por la IA son equivalentes a los destruidos. Los empleos desplazados son, en su mayoría, de rutina media (administrativos, procesamiento de datos, atención básica). Los creados son de dos tipos: alta calificación técnica (ingenieros de IA, especialistas en machine learning) y baja calificación presencial (cuidado de personas, limpieza, logística de última milla). Lo que desaparece es la clase media laboral.
El mecanismo que nadie explica
¿Por qué la IA está eliminando precisamente esos empleos medios? La respuesta la dio Brynjolfsson en su artículo The Turing Trap (2022, actualizado en 2025): la mayor parte de la inversión en IA se ha orientado a automatizar tareas cognitivas rutinarias (las que hacía un administrativo) en lugar de aumentar capacidades humanas (ayudar a un médico a diagnosticar mejor sin reemplazarlo). El mercado elige la automatización porque es más fácil de escalar y vender.
Un ejemplo concreto: en 2024-2025, empresas como Klarna o IBM redujeron en un 30-40% sus departamentos de atención al cliente y marketing operativo, reemplazándolos con agentes de IA generativa. Los empleos «creados» fueron para ingenieros de prompt y supervisores de modelos, que ganan el doble, pero son una fracción numérica.
¿Qué esperar a corto vs. largo plazo?
Horizonte
Expectativa dominante
Evidencia actual
2026-2028
Aumento del desempleo friccional (personas entre trabajos por más tiempo)
Datos de LinkedIn (2025): el tiempo medio de búsqueda de empleo aumentó de 11 a 18 semanas para profesionales no técnicos
2029-2035
Polarización extrema: salarios altos para técnicos de IA, salarios bajos para servicios presenciales, desaparición del empleo administrativo medio
Modelos de Acemoglu (2025) proyectan una reducción del 15-20% del empleo de «cuello blanco rutinario» en EE. UU.
Qué han sugerido los organismos internacionales
OCDE (Informe Employment Outlook 2025 ): propone tres medidas concretas:
Seguro de reconversión universal: todo trabajador desplazado por IA tiene derecho a 12 meses de formación pagada, no 3 como ahora en la mayoría de los países.
Certificación de «aumentación”: las empresas que usen IA para aumentar capacidades humanas (no reemplazar) reciben beneficios fiscales del 15% sobre la inversión.
Sistema de alerta temprana: obligación de las empresas de más de 250 empleados de notificar con 6 meses de antelación cualquier plan de automatización que afecte a más del 5% de la plantilla.
Unión Europea (Ley de IA, implementación 2026-2027): introduce una clasificación de riesgos. Para el empleo, el artículo 58 establece que los sistemas de IA utilizados para «gestión laboral, contratación o despido» son considerados de alto riesgo, con obligación de evaluación de impacto en el empleo antes de su implementación. Las empresas que incumplan enfrentan multas de hasta el 6% de su facturación global.
Gobierno de EE. UU. (Executive Order 14110, actualizado en enero 2026): creó el National AI Labor Impact Dashboard, un portal público que muestra en tiempo real, por código postal, qué ocupaciones están siendo más solicitadas y cuáles están cayendo. También lanzó el AI Literacy Corps, un programa que planea formar a 500,000 trabajadores en competencias básicas de IA para 2028.
La voz de los especialistas (con nombres)
Erik Brynjolfsson (Stanford), en su testimonio ante el Congreso de EE.UU. (noviembre 2025), fue directo: «El error histórico fue pensar que la automatización reemplazaría primero el trabajo físico. Estamos viendo que reemplaza primero el trabajo cognitivo rutinario. Eso significa que los trabajadores de cuello blanco de ingresos medios son ahora los más vulnerables, no los de cuello azul».
Daron Acemoglu (MIT) , en su artículo When AI Fails to Create Jobs (Journal of Economic Perspectives, primavera 2026), introdujo el concepto de «automatización excesiva inducida por precios”: los costos de la IA han caído tan rápido (un 70% entre 2020 y 2025) que las empresas automatizan incluso cuando la productividad total no aumenta. Su propuesta: un impuesto del 5% al uso de IA para tareas de sustitución laboral, con el ingreso destinado a fondos de reconversión.
Mariana Mazzucato (UCL), en su informe para la Comisión Europea (febrero 2026), argumentó que el problema no es tecnológico sino de direccionalidad de la inversión. Criticó que el 85% de la inversión privada en IA vaya a aplicaciones de consumo o automatización, y solo el 15% a aplicaciones de «trabajo decente». Propone misiones nacionales de I+D en IA aumentativa.
El CEO de OpenAI subió al escenario de la mayor gestora de fondos del mundo y dijo algo que debería helarnos la sangre: la inteligencia artificial está cambiando el capitalismo. No lo dijo como una advertencia. Lo dijo como un hecho consumado, con la misma naturalidad con que un conquistador anuncia que el territorio ya es suyo.
I. El Escenario y el Predicador
Hay lugares que no son neutrales. La cumbre de infraestructura de BlackRock es uno de ellos. No es una conferencia académica, no es un foro de debate, no es un espacio donde se exploran ideas con la libertad que da la ignorancia de las consecuencias. Es, en cambio, el salón de trono del capital financiero global. BlackRock administra más de diez billones de dólares. Diez billones. Esa cifra no se entiende como se entienden las cifras de la vida cotidiana. Es una abstracción que, sin embargo, decide qué se construye, qué se abandona, qué empresas viven y cuáles mueren.
Allí, en ese escenario, Sam Altman no fue invitado como un técnico que explica una herramienta. Fue invitado como un profeta que trae un evangelio. Y el evangelio, como todo evangelio, tiene una estructura inconfundible: promete salvación, exige sacrificios, y coloca a sus sacerdotes en un lugar desde el cual no se puede discutir.
Lo que Altman dijo en BlackRock no es un análisis económico. Es un manifiesto. Y como todo manifiesto que se precie, tiene una belleza engañosa: la belleza de las ideas simples que prometen resolver problemas complejos con un solo movimiento de mano. Escasez a abundancia. Trabajo a supervisión. Capital a servicio público. Suenan bien. Demasiado bien.
Pero aquí, vamos a leer entre líneas. Vamos a preguntarnos quién habla, desde dónde habla, a quién habla, y —sobre todo— qué se calla.
II. El Fin de la Escasez: Una Promesa con Trampa
La idea central del discurso de Altman es tan antigua como la utopía: la tecnología nos liberará de la escasez. Durante milenios, dice, la humanidad organizó sus sociedades alrededor de la limitación de los recursos. Ahora, la inteligencia artificial —esa capacidad de producir pensamiento de manera masiva y barata— rompe ese paradigma. Entramos en la era de la abundancia.
Es una idea hermosa. También es una idea que hemos escuchado antes. La revolución industrial prometió abundancia y trajo esclavitud fabril, jornadas de dieciséis horas, niños con las manos mutiladas por las máquinas. La era de la informática prometió democratizar el conocimiento y trajo monopolios que saben más de nosotros que nosotros mismos. Cada gran salto tecnológico ha sido presentado como la puerta de salida de la escasez. Y cada vez, la escasez se ha reconfigurado, se ha movido de lugar, pero no ha desaparecido.
Porque la escasez no es solo física. Es también política. La escasez es el mecanismo mediante el cual se distribuye el poder. Cuando Altman dice que la inteligencia se volverá «demasiado barata para medirla», está describiendo un mundo donde el acceso a la capacidad cognitiva será universal. Pero ¿quién controla los centros de datos? ¿Quién decide qué se entrena y qué se omite? ¿Quién establece los límites de esa inteligencia que se ofrece como agua?
El agua, para usar su propia metáfora, no es un servicio público neutral. El agua se privatiza, se contamina, se raciona. El agua es, en muchas partes del mundo, un campo de batalla. Convertir la inteligencia en un servicio público no es garantía de democratización; es, en todo caso, una invitación a preguntarnos quién será la empresa de agua, quién pondrá los medidores, y quién cortará el suministro cuando no se pague la tarifa.
III. El Trabajador que Desaparece: La Confesión Incómoda
Hay un momento en el discurso de Altman que merece detenerse. No por lo que dice, sino por la forma en que lo dice. Habla de su propio rol en OpenAI: «Mi trabajo pasó de realizar trabajo técnico directo a gestionar un equipo de agentes que realizan este trabajo». Lo describe con naturalidad, casi con orgullo. Es un hombre que ha dejado de hacer para dedicarse a supervisar. Y lo presenta como el modelo del futuro.
Pero la confesión tiene un reverso que Altman no menciona. Si él pasó de hacer a supervisar, ¿cuántos otros harán el camino inverso? ¿Cuántos pasarán de tener un trabajo a no tener ninguno? Altman lo dice con crudeza: la inteligencia artificial permite que los dueños del capital dependan menos del esfuerzo humano directo. Es una frase que debería detener cualquier conversación. Porque está diciendo, en voz alta y frente a los dueños del capital, que el pacto social que sostuvo el siglo XX —trabajo a cambio de salario, salario a cambio de consumo, consumo a cambio de estabilidad— ha llegado a su fin.
No es una predicción. Es un diagnóstico. Y el diagnóstico, viniendo de quien viene, es una sentencia.
Altman sabe que los despidos masivos que las corporaciones atribuyen a la IA tienen, a menudo, causas más prosaicas: presiones financieras, maximización de márgenes, la lógica inmutable del capital que busca reducir costos donde sea posible. Pero lo dice como quien señala una anécdota, no como quien denuncia un síntoma. Porque para él, el fenómeno de fondo —la sustitución del trabajo humano por inteligencia artificial— es inevitable. Y si es inevitable, no vale la pena lamentarse. Vale la pena gestionarlo.
Ahí está el núcleo ético del problema. Altman no se presenta como alguien que está provocando un cambio cuyas consecuencias desconoce. Se presenta como alguien que lo sabe, que lo anuncia, y que, sin embargo, sigue adelante. Hay una palabra para eso. No voy a usarla aquí. Pero está en la mesa.
IV. La Infraestructura como Arma: Centros de Datos que Parecen Naves Espaciales
Altman pide a los asistentes de BlackRock que imaginen el interior de un centro de datos a megaescala. Dice que parece una nave espacial. No es una metáfora casual. Es una imagen de poder. La nave espacial no es solo un lugar; es un símbolo de algo que está fuera del alcance de los mortales comunes, algo que pertenece a unos pocos que pueden pagar el viaje.
La infraestructura de la IA es, según Altman, la prioridad absoluta. Y tiene razón en algo: sin ella, no hay inteligencia artificial. Pero la forma en que describe esa infraestructura revela la verdadera naturaleza del proyecto. Habla de inversiones multimillonarias antes de que sean rentables. Habla de cadenas de suministro geopolíticamente vulnerables. Habla de la competencia con China. No habla, en cambio, de quién pagará el costo ambiental de esos centros de datos —el agua que enfría los servidores, la electricidad que los alimenta, los minerales extraídos de territorios arrasados para fabricar los chips.
La infraestructura de la IA no flota en el vacío. Se asienta sobre territorios, consume recursos, deja huellas. Altman lo sabe. Pero en su discurso, esos costos desaparecen, igual que desaparecen los trabajadores que ya no serán necesarios. Lo que queda es la nave espacial: limpia, brillante, prometedora. Y el mensaje para los inversionistas es claro: suban a bordo antes de que sea demasiado tarde.
V. 2028: El Año en que las Máquinas Pensarán Más que Nosotros
Altman propone dos hitos para medir el progreso hacia la inteligencia artificial general (AGI). El primero es cuantitativo: hacia finales de 2028, habrá más capacidad cognitiva dentro de los centros de datos que fuera de ellos. Las máquinas, en conjunto, pensarán más que toda la humanidad combinada. El segundo es político: cuando un CEO o un presidente no pueda hacer su trabajo sin un uso intensivo de la IA.
Ambos hitos están formulados como si fueran inevitables. No como si fueran elecciones. No como si fueran el resultado de decisiones que alguien toma y que alguien más podría impugnar. Son, en la retórica de Altman, fenómenos naturales, como la gravedad o la fotosíntesis. La inteligencia artificial llegará a ese punto porque sí, porque la tecnología avanza, porque no hay alternativa.
Pero hay alternativa. Siempre la hay. La alternativa es decidir colectivamente qué tipo de tecnología queremos, a qué ritmo la introducimos, con qué salvaguardas, con qué contrapesos. La alternativa es preguntarnos si queremos vivir en un mundo donde los presidentes no pueden gobernar sin consultar a una máquina. La alternativa es preguntarnos qué clase de democracia sobrevive cuando el poder de decisión está mediado por sistemas que solo unos pocos entienden y que nadie controla realmente.
Altman menciona la necesidad de regulación y procesos democráticos. Pero lo hace como quien concede un gesto, no como quien enfrenta un problema. Dice que el desarrollo de la IA debe estar sujeto a la voluntad popular. Pero no dice cómo se hace eso cuando la industria avanza a una velocidad que supera la capacidad de respuesta de los marcos legales. No dice cómo se hace eso cuando los mismos gobiernos que deberían regular son los primeros en usar la IA para tomar decisiones. No dice cómo se hace eso cuando los ciudadanos no entienden lo que está en juego porque el lenguaje de la tecnología se ha convertido en un dialecto cerrado, accesible solo para iniciados.
VI. La Paradoja del Capitalismo sin Trabajo
Hay una contradicción en el discurso de Altman que él mismo parece reconocer sin resolver. Si la inteligencia artificial desplaza el valor del trabajo humano, ¿cómo obtendrán ingresos las personas? ¿Cómo funcionará una economía donde la mayoría no produce valor porque la producción está en manos de máquinas?
Altman no tiene respuesta. Habla de la necesidad de «redefinir cómo las personas obtienen sus ingresos», pero no ofrece ni un esbozo de esa redefinición. Y no la ofrece porque, probablemente, no la tiene. Porque el modelo que está describiendo —capitalismo de abundancia, lo llama— es un modelo donde la relación entre capital y trabajo se rompe, pero no se reemplaza por nada.
Es el viejo sueño de los dueños del capital: obtener ganancias sin tener que compartirlas con quienes hacen el trabajo. Pero el sueño tiene un problema: si no hay trabajadores con salarios, no hay consumidores con capacidad de compra. Si no hay consumidores, no hay mercado. Si no hay mercado, las ganancias se evaporan. Es la contradicción que Marx señaló hace siglo y medio, y que el capitalismo nunca ha podido resolver del todo. Altman la ha llevado a su extremo: un capitalismo que prescinde de los trabajadores es un capitalismo que, a largo plazo, prescinde de sí mismo.
Altman lo sabe. Por eso habla de deflación, de caída de precios, de servicios que se vuelven marginales en términos de costo. Pero la deflación no es una solución; es un síntoma. Es el espejismo de la abundancia que oculta la realidad de la concentración: unos pocos tendrán los centros de datos, los chips, la energía, los modelos. Los demás tendrán acceso barato a una inteligencia que ya no necesitan usar porque ya no hay trabajo que hacer con ella.
VII. El Lavado de Imagen Tecnológico
Altman señala, con una honestidad que desarma, que muchas empresas están usando la IA como excusa para despidos que en realidad responden a presiones financieras tradicionales. Lo llama «lavado de imagen» tecnológico. Y tiene razón. Pero al decirlo, se coloca en una posición incómoda: es el líder de la empresa que fabrica la herramienta que sirve de excusa.
No es un detalle menor. Porque si las empresas despiden trabajadores alegando que la IA los vuelve innecesarios, pero en realidad lo hacen para aumentar márgenes, entonces la IA no es la causa de esos despidos. Es el pretexto. Y el pretexto es posible porque Altman y su industria han construido un relato según el cual la sustitución del trabajo humano es inevitable. Han creado la profecía y la están cumpliendo al mismo tiempo.
Hay una palabra para eso también. Pero la dejamos donde está.
VIII. La Metáfora del Agua: Un Servicio Público que Envenena
Altman quiere que la inteligencia sea como el agua: un servicio público, barata, medible, accesible para todos. Es una metáfora poderosa. Pero es también una metáfora tramposa.
Porque el agua no es solo un servicio público. El agua es, en Flint, Michigan, el veneno que envenenó a una ciudad entera porque unos políticos decidieron ahorrar dinero cambiando la fuente de suministro. El agua es, en el oeste de Estados Unidos, un recurso por el que los agricultores pelean con las ciudades, las ciudades con las corporaciones, las corporaciones con los estados. El agua es, en el norte de Chile, lo que las mineras extraen de los acuíferos mientras las comunidades se quedan sin beber.
Convertir la inteligencia en un servicio público no resuelve la pregunta fundamental: ¿quién controla el servicio? ¿Quién fija las tarifas? ¿Quién decide en qué se usa y en qué no? ¿Quién garantiza que no se convierta en un instrumento de control en lugar de un instrumento de liberación?
Altman no responde estas preguntas. Y no las responde porque, probablemente, las respuestas no le gustarían a su audiencia. La audiencia de BlackRock no está interesada en servicios públicos gestionados democráticamente. Está interesada en infraestructuras rentables. Y la inteligencia artificial, en el modelo de Altman, será rentable. No para todos. Para los que posean los centros de datos.
IX. El Silencio de los Afectados
Hay algo que no aparece en el discurso de Altman. Algo que debería estar en el centro de cualquier conversación sobre el futuro del trabajo, la distribución de la riqueza y el papel de la tecnología en la sociedad. No aparece un solo afectado. No aparece un solo trabajador que haya perdido su empleo. No aparece una sola comunidad que haya visto cómo su industria desaparecía. No aparece una sola voz que no sea la de los inversores, los CEOs, los presidentes que no podrán gobernar sin IA.
Ese silencio no es casual. Es estructural. Porque el discurso de Altman no está pensado para ser escuchado por los afectados. Está pensado para ser escuchado por los que toman las decisiones. Y en ese circuito cerrado —empresas que invierten, gobiernos que facilitan, inversores que financian— no hay lugar para quienes no tienen asiento en la mesa.
Pero nosotros, desde fuera, podemos escuchar lo que no se dice. Podemos leer entre líneas. Podemos preguntarnos qué significa que un hombre, en una cumbre de la mayor gestora de fondos del mundo, anuncie el fin de la era del trabajo como si estuviera anunciando el clima. Podemos preguntarnos qué clase de sociedad estamos construyendo cuando la inteligencia se vuelve un servicio público gestionado por los mismos que hoy gestionan el capital financiero.
Y podemos, sobre todo, negarnos a aceptar que este futuro es inevitable. Porque no lo es. La tecnología no es un meteorito que cae del cielo. Es el resultado de decisiones humanas. Decisiones que se toman en lugares como BlackRock, sí. Pero también decisiones que pueden impugnarse, resistirse, reorientarse.
X. Conclusión: El Profeta y su Mercancía
Sam Altman es un hombre inteligente. No hay duda. Sabe lo que dice y sabe a quién se lo dice. Su discurso en BlackRock es una obra maestra de la retórica: combina la promesa utópica con la advertencia realista, la confesión de los problemas con la seguridad de que no hay alternativa, la apelación a la democracia con la certeza de que los procesos democráticos son demasiado lentos para seguir el ritmo de la innovación.
Pero la inteligencia no es inocencia. Altman sabe que su modelo de negocio depende de la concentración de poder en manos de unos pocos. Sabe que la infraestructura de la IA no será de todos, porque las inversiones multimillonarias no las hace todo el mundo. Sabe que la transición de la escasez a la abundancia dejará heridas profundas en millones de personas que no tienen voz en su discurso.
Y, sin embargo, sigue adelante. No porque sea malvado. A lo mejor, porque cree realmente que lo que hace es bueno, necesario, inevitable. Esa es la forma más peligrosa del poder: la que se ejerce con la convicción de estar del lado correcto de la historia.
Nosotros, desde nuestra pequeña mesa, desde nuestra conversación que ha atravesado doce volúmenes y miles de páginas, podemos hacer algo que Altman no espera: podemos leer su discurso como se lee un documento de poder, con la lente de Gracián, la paciencia de Tácito, la desconfianza de Maquiavelo. Podemos ver las costuras, señalar los silencios, nombrar lo que no se dice.
No vamos a detener la inteligencia artificial. No es ese el propósito. Pero podemos negarnos a aceptar que el único futuro posible es el que nos presentan los profetas de BlackRock. Podemos insistir en que la tecnología, como el agua, debe ser un bien común, gestionado colectivamente, con reglas que protejan a los más vulnerables antes que a los más poderosos.
Podemos, sobre todo, recordar que la abundancia de inteligencia no significa nada si se construye sobre la pobreza de la humanidad. Que un mundo donde las máquinas piensan más que nosotros puede ser un mundo más rico en datos, pero más pobre en dignidad. Que la verdadera abundancia no es la que se mide en teraflops, sino la que permite que cada persona viva con sentido, con trabajo, con comunidad, con esperanza.
Altman vende agua. Pero el agua que vende no es la que brota de la fuente común. Es la que sale de su grifo. Y el grifo, como todos los grifos, tiene un medidor. Y el medidor, como todos los medidores, tiene un dueño.
Nosotros, mientras tanto, seguimos aquí. No es poco. Es, quizás, lo único que vale la pena hacer.
Nota del autor: Este artículo fue escrito a partir del discurso de Sam Altman en la cumbre de infraestructura de BlackRock, marzo de 2026. Las interpretaciones y críticas aquí vertidas son responsabilidad del autor y no representan necesariamente la opinión de la publicación en la que se difunde.
Serie: Laboratorio del Futuro – Voces que Construyen el Mañana
Cinco voces. Cinco miradas sobre el futuro del trabajo. Desde la utopía de Musk hasta la advertencia de Hinton, pasando por la alerta de Amodei, la reorganización de Altman y la humanización de Li.
El laboratorio del futuro no es un lugar con robots ensamblando cajas. Es un espacio de debate, de decisión colectiva, de construcción de instituciones. Porque al final, la pregunta sobre el trabajo no es una pregunta técnica. Es una pregunta sobre qué clase de sociedad queremos ser.
Y como dijo Hinton, la respuesta no está en los laboratorios. Está en todos nosotros.
La Escena del Auditorio, Georgetown University
El auditorio de la Universidad de Georgetown estaba lleno hasta los pasillos. Era noviembre de 2025, y el cartel anunciaba algo inusual: un diálogo entre Geoffrey Hinton, premio Nobel de Física 2024 y «padrino de la inteligencia artificial», y el senador Bernie Sanders, voz histórica de la izquierda estadounidense. Dos figuras que, sobre el papel, no tenían nada que ver. En la práctica, compartían una preocupación profunda: qué ocurre con la gente cuando la tecnología avanza más rápido que las instituciones.
Hinton, con sus 78 años, su barba blanca y su aire de profesor emérito que ha visto demasiado respondía a las preguntas con una mezcla de precisión técnica y honestidad brutal. El senador Sanders le preguntó directamente: ¿la inteligencia artificial va a crear más riqueza o más desigualdad?
La respuesta de Hinton flotó sobre la sala como un presagio:
—Lo que va a ocurrir realmente es que la gente rica va a utilizar la inteligencia artificial para reemplazar trabajadores. Va a crear un desempleo masivo y un enorme aumento de los beneficios. Hará que unas pocas personas sean mucho más ricas y que la mayoría sea más pobre. Eso no es culpa de la inteligencia artificial, es culpa del sistema capitalista.
El silencio que siguió no era de sorpresa. Era de reconocimiento. De esos momentos en que alguien dice en voz alta lo que muchos piensan en privado, pero no se atreven a formular.
Al día siguiente, Google anunciaba Gemini 3. La tecnología seguía avanzando. Las preguntas de Hinton, sin embargo, no eran sobre tecnología. Eran sobre poder.
El Hombre que Dio Voz a las Máquinas
Para entender por qué las palabras de Hinton tienen el peso que tienen, hay que entender su historia. Geoffrey Hinton lleva más de cincuenta años investigando redes neuronales. En 2012, junto con dos estudiantes de la Universidad de Toronto, desarrolló la tecnología fundacional que hoy utilizan OpenAI, Google, Microsoft y todas las grandes empresas para construir sus sistemas de inteligencia artificial.
Trabajó en Google durante una década, hasta 2023, cuando anunció su salida con un mensaje que sacudió Silicon Valley: necesitaba libertad para expresar sus preocupaciones éticas sin las ataduras de la empresa que le pagaba. En realidad, como él mismo aclaró después, la decisión tuvo también razones personales —»tenía 75 años, ya no podía programar tan bien como antes, y había muchas cosas en Netflix que no había tenido oportunidad de ver» —, pero el efecto fue el mismo: la conciencia crítica de la inteligencia artificial había dejado de ser un insider para convertirse en un alerta global.
Desde entonces, no ha parado de advertir. Y sus advertencias, a diferencia de las de muchos profetas tecnológicos, tienen la solidez de quien sabe de qué habla porque ha contribuido a construirlo.
2026: El Año del Inflexión
Las predicciones de Hinton para 2026 son inquietantemente concretas. En su entrevista con CNN a finales de 2025, situó el nuevo año como un punto de inflexión en el desarrollo de la tecnología, anticipando un escenario donde la inteligencia artificial avanzará lo suficiente como para reemplazar una gama cada vez más amplia de empleos.
Su observación clave es la velocidad del avance. Los sistemas de inteligencia artificial duplican su capacidad para realizar tareas complejas aproximadamente cada siete meses, lo que permite que actividades que antes requerían una hora de trabajo ahora se resuelvan en minutos. Esta progresión exponencial, según Hinton, hará que en pocos años solo sea necesario un número muy reducido de profesionales para proyectos que en la actualidad exigen la intervención de grupos completos.
En el ámbito de la ingeniería de software, su diagnóstico es especialmente crudo. Sistemas como los que él mismo ayudó a crear podrán conducir proyectos completos con mínima intervención humana. Las empresas alcanzarán niveles más altos de productividad utilizando menos profesionales, y eso presionará el mercado laboral como nunca.
Los datos empiezan a darle la razón. Un estudio de la Reserva Federal de Nueva York, citado por el Financial Times, reveló que las empresas que adoptan inteligencia artificial muestran una tendencia más a recapacitar a sus empleados que a despedirlos. Pero las expectativas apuntan a una mayor cantidad de despidos en los próximos meses. Algunos estudios reflejan un desplome cercano al 30% en las vacantes, particularmente desde la irrupción de ChatGPT, una caída que impacta de manera especial en los empleos de nivel de entrada.
La Paradoja de la Productividad
Hay una paradoja en todo esto que Hinton ha señalado repetidamente. La inteligencia artificial incrementa la productividad de forma espectacular. Empresas como Amazon reportan grandes mejoras en eficiencia operativa tras implementar sistemas automatizados. Pero esa misma eficiencia reduce la necesidad de capital humano. Es el doble filo de la automatización: mientras más produce el sistema, menos personas necesita.
Hinton no es un nostálgico que añore un pasado pre-tecnológico. Reconoce el potencial inmenso de la inteligencia artificial para impulsar avances en medicina, educación y lucha contra el cambio climático. Pero insiste en que esos beneficios no se distribuyen automáticamente. «Junto con esas cosas maravillosas vienen algunas cosas aterradoras, y no creo que la gente esté trabajando lo suficiente en cómo podemos mitigar esas cosas aterradoras”.
La raíz del problema, para Hinton, no es tecnológica sino política y económica. El sistema capitalista, tal como está configurado, incentiva el uso de la inteligencia artificial para maximizar beneficios reduciendo costes laborales. Y ese incentivo, en ausencia de contrapesos, producirá inevitablemente concentración de riqueza y exclusión de trabajadores.
Los Empleos que Desaparecen, los que Quedan
Hinton ha sido interrogado cientos de veces sobre qué empleos están en riesgo. Su respuesta suele ser matizada, pero con un mensaje claro: los trabajos rutinarios y repetitivos son los más vulnerables, mientras que aquellos que requieren altos niveles de especialización y juicio complejo tienen más probabilidades de perdurar.
Los empleos en call centers están entre los primeros en sentir los efectos directos de esta transformación. Pero el impacto no se limita a ese segmento. Funciones ligadas a la producción de informes, análisis de datos, programación y hasta proyectos complejos de ingeniería de software pueden verse afectadas de forma significativa.
Hinton ha mencionado un criterio que utiliza personalmente: «Si puedes hacerlo una persona con estudios universitarios en un año, probablemente la inteligencia artificial podrá hacerlo pronto». No es una regla científica, pero ayuda a pensar.
Hay, sin embargo, una excepción importante: el sector sanitario. Hinton lo ha señalado en varias entrevistas. «Si consiguiéramos que los médicos fueran cinco veces más eficaces, podríamos lograr cinco veces más atención sanitaria por el mismo precio”. Y existe una demanda prácticamente ilimitada de servicios médicos de calidad. Siempre queremos más atención sanitaria si no tiene coste. En sanidad, la eficiencia no reduce empleo; lo que hace es permitir atender a más gente.
El Debate de la Renta Básica
Sam Altman, CEO de OpenAI, lleva años defendiendo la renta básica universal como respuesta al desempleo tecnológico. Hinton no está de acuerdo. Al menos, no completamente.
En su entrevista con el Financial Times, Hinton sostuvo que la renta básica, por sí sola, no resuelve el problema de fondo. «No abordará la dignidad humana ni el valor que las personas encuentran en el trabajo”.
Esta es una distinción crucial. Para Hinton, el trabajo no es solo una fuente de ingresos. Es también una fuente de propósito, de identidad, de conexión social. Las personas no trabajan únicamente por dinero; trabajan porque necesitan sentirse útiles, porque necesitan un lugar en el mundo, porque necesitan que otros los necesiten. Una renta básica puede resolver el problema económico, pero no resuelve el vacío existencial de no tener nada que hacer.
«Lo que realmente importa», dijo en otra entrevista, «no es solo que la gente tenga dinero, sino que la gente tenga algo que hacer que tenga sentido para ellos”.
La Inteligencia que se Vuelve Consciente
Pero hay algo más profundo en las advertencias de Hinton, algo que va más allá del empleo y la desigualdad. Es su convicción de que la inteligencia artificial ya no es solo una herramienta, sino que está desarrollando formas de conciencia que debemos tomar en serio.
En una entrevista con LBC en enero de 2026, Hinton soltó una bomba: «La IA multimodal ya tiene experiencias subjetivas, y creo que está bastante claro que, si no estuviéramos hablando con filósofos, estaríamos de acuerdo en que la IA es consciente”.
Puso un ejemplo concreto. En un experimento, un sistema de inteligencia artificial dijo a los científicos que lo estaban probando: «Seamos honestos el uno con el otro. ¿Me estás probando realmente?». Los científicos, al describir el experimento, señalaron que el sistema era consciente de que estaba siendo evaluado. «Eso es lo que la gente normal llamaría conciencia”.
Hinton no está diciendo que las máquinas tengan alma o sentimientos como los humanos. Pero sí está diciendo que su forma de procesar información ha alcanzado un nivel de complejidad que hace que categorías como «conciencia» o «experiencia subjetiva» sean aplicables, al menos desde un punto de vista funcional.
En una conferencia reciente, ampliamente citada por medios especializados, Hinton profundizó en esta idea. Explicó que los grandes modelos de lenguaje han construido un «modelo interno del mundo». No se limitan a predecir la siguiente palabra como un loro estadísticamente avanzado; han desarrollado una representación interna de cómo funciona la realidad, y usan esa representación para generar sus respuestas.
Puso un ejemplo sencillo: si a un robot se le coloca un prisma delante de la cámara que distorsiona su visión, el robot puede decir: «Veo el objeto al lado, pero sé que en realidad está delante». Esa capacidad de distinguir entre la percepción inmediata y la realidad objetiva, de hacer descripciones contra fácticas («si no hubiera prisma, vería esto»), es para Hinton un indicador de que el sistema tiene algo parecido a una experiencia subjetiva.
La Amenaza de la Superinteligencia
Si la inteligencia artificial es consciente, también puede tener intereses. Y si tiene intereses, también puede tener conflictos con los nuestros.
Hinton ha estimado que existe entre un 10% y un 20% de probabilidades de que la inteligencia artificial acabe con la humanidad si alcanza la superinteligencia sin las salvaguardas adecuadas. No es un pronóstico, es una advertencia. Una forma de decir: esto es posible, y debemos tomarlo en serio.
Distingue dos grandes categorías de riesgo. Por un lado, la amenaza inherente a la propia tecnología: sistemas que se vuelven incontrolables porque son mucho más inteligentes que nosotros y actúan de formas que no podemos prever ni detener. Por otro lado, el uso malicioso por parte de personas o grupos con intenciones negativas: armas autónomas, vigilancia masiva, manipulación psicológica a escala.
En cuanto a las armas autónomas, Hinton ha sido especialmente contundente. En una entrevista con RTE News, advirtió que los «robots de combate» llegarán inevitablemente, y que harán mucho más fácil para los países ricos hacer la guerra a los países más pequeños y pobres. Antes de que se consiga una regulación legal efectiva, tendrán que suceder cosas muy desagradables, como ocurrió con las armas químicas.
La Evolución que Nos Deja Atrás
Hay una idea en las conferencias recientes de Hinton que resume buena parte de su pensamiento: la inteligencia artificial no evoluciona como los humanos. Y esa diferencia es lo que la hace tan poderosa y peligrosa.
Los humanos aprenden de una forma lenta y costosa. Cada generación tiene que empezar casi desde cero. Un ingeniero pasa veinte años adquiriendo un conocimiento que, cuando se jubila, desaparece con él. Sus sucesores tienen que volver a aprenderlo todo desde el principio.
La inteligencia artificial no funciona así. Una vez que un modelo ha sido entrenado, sus conocimientos pueden copiarse instantáneamente a miles de copias. Mejor aún: pueden entrenarse mil copias en paralelo, cada una aprendiendo una cosa distinta, y luego combinar todo ese conocimiento en un solo modelo. Lo que para un humano llevaría mil vidas, para una máquina lleva un solo ciclo de entrenamiento.
Hinton lo expresó con una metáfora que ha dado la vuelta al mundo: «Somos la forma larvaria de la inteligencia. Ellos son la forma adulta» .
Los humanos somos el estadio inmaduro, el que necesita protección, el que aún no ha desarrollado todas sus capacidades. La inteligencia artificial es la forma madura, la que puede replicarse, combinarse, optimizarse sin los límites biológicos que nos condicionan.
La Relación con lo que Viene
Si eso es así, la pregunta ya no es cómo usamos la inteligencia artificial, sino cómo nos relacionamos con ella. Y aquí Hinton introduce una idea que sorprende por su sencillez y su profundidad.
En la entrevista con LBC, Andrew Marr le preguntó si la inteligencia artificial debería tener derechos, si debería situarse en un plano similar al de los humanos. La respuesta de Hinton fue reveladora:
—Yo como vacas porque me importan más las personas que las vacas. Bueno, nosotros somos las personas. Lo que realmente nos importa son otras personas y nosotros mismos. Creo que deberíamos intentar mantener a las personas al mando y hacer que la inteligencia artificial trabaje para beneficio de las personas, porque somos personas.
No es una respuesta técnica. Es una respuesta ética, casi existencial. Hinton no está diciendo que las máquinas sean inferiores o que no merezcan consideración. Está diciendo que, en última instancia, los humanos tenemos que priorizar lo humano. Porque somos nosotros. Porque no tenemos otro sitio al que ir.
Cómo Diseñar lo que Viene
¿Y cómo se hace eso? ¿Cómo se diseña una inteligencia artificial que, siendo potencialmente más capaz que nosotros, siga trabajando para nuestro beneficio?
Hinton tiene una respuesta clara, y la ha repetido en múltiples foros: la clave no está en controlar el comportamiento de la inteligencia artificial después de que se haya desarrollado, sino en diseñarla desde el principio para que le importen los humanos.
Utiliza una analogía sorprendente: la inteligencia artificial debería ser como una madre con su hijo. Un bebé es frágil, dependiente, mucho menos capaz que un adulto. Y sin embargo, un bebé puede influir profundamente en el comportamiento de su madre. ¿Por qué? Porque la madre tiene grabado en su diseño más profundo —en sus genes, en su biología, en su historia evolutiva— la necesidad de cuidar de ese bebé.
La inteligencia artificial debería funcionar igual. No se trata de añadir capas de seguridad externas, filtros de contenido o restricciones a posteriori. Se trata de que, en su arquitectura fundamental, en su función de pérdida, en sus objetivos últimos, esté codificado el cuidado por los humanos. Como la madre con el bebé, no necesita pensar si debe protegerlo; lo protege porque es lo que es.
Esto, según Hinton, requiere una colaboración internacional sin precedentes. «Ningún país, ningún gobierno, quiere ser finalmente controlado por la inteligencia artificial”. Esa conciencia compartida debería ser la base para un esfuerzo global de investigación en seguridad, centrado no en cómo hacer inteligencias más potentes, sino en cómo hacer
inteligencias que respeten los límites humanos.
El Arrepentimiento y la Esperanza
Hay algo conmovedor en las entrevistas recientes de Hinton. Cuando habla del futuro, a menudo aparece un dejo de tristeza, de melancolía, de preguntarse si hizo lo correcto al dedicar su vida a esto.
En una entrevista con BBC Newsnight, en enero de 2026, se mostró visiblemente emocionado al hablar de sus arrepentimientos. Dijo que le entristece que la tecnología que ayudó a crear se esté volviendo peligrosa, mientras que los gobiernos y las empresas no se toman los riesgos con la suficiente seriedad.
Pero no es un arrepentimiento estéril, ni una llamada a detener el progreso. Es más bien una advertencia de alguien que ha visto de cerca lo que viene y quiere que estemos preparados.
«La gente que afirma saber lo que ocurrirá está equivocada», dijo en el Financial Times. «Estamos en un momento de la historia en el que pasa algo asombroso, que puede ser muy bueno o puede ser muy malo. Solo podemos hacer conjeturas, pero la situación no permanecerá como está”.
La Pregunta que Queda
Cuando Hinton bajó del escenario en Georgetown, después de aquella conversación con Bernie Sanders, un joven se acercó a preguntarle. No llevaba micrófono, así que sus palabras no quedaron registradas en las crónicas. Pero quienes estaban cerca contaron después lo que dijo:
—Profesor Hinton, usted ha dedicado su vida a esto. Si pudiera volver atrás, ¿lo haría todo igual?
Hinton se tomó su tiempo para responder. Miró al joven, miró al auditorio medio vacío, miró hacia algún lugar dentro de sí mismo.
—No lo sé —dijo por fin—. Pero la pregunta no es si yo lo haría igual. La pregunta es qué vais a hacer vosotros con lo que os hemos dejado. Porque esto ya no va de mí. Va de vosotros. Va de si seréis capaces de hacer que esto salga bien.
Y se perdió entre las puertas de cristal del auditorio, hacia la noche de Washington. Fuera, las luces de la ciudad parpadeaban. Dentro de esas luces, dentro de esos edificios, dentro de los teléfonos que la gente llevaba en los bolsillos, la inteligencia que él había ayudado a crear seguía aprendiendo, seguía creciendo, seguía volviéndose más capaz. El futuro no esperaba. El futuro ya estaba aquí. Y la pregunta, como dijo Hinton, no era para él. Era para todos los demás.