China tiene un as en la manga para ganar la carrera de la IA:miles y miles de chinos estudiando en las universidades

China tiene un as en la manga para ganar la carrera de la IA:miles y miles de chinos estudiando en las universidades

Las universidades de élite chinas van a priorizar las carreras vinculadas a las necesidades estratégicas del país. Incluso las escuelas de primaria y secundaria van a empezar a formar a sus alumnos en IA. DeepSeek es su mejor baza

Colaboración de Juan Carlos López

Según un grupo de investigadores del Instituto Paulson de Chicago (EEUU) el 38% de los expertos en inteligencia artificial (IA) que desarrollan su carrera profesional en EEUU se ha formado en las universidades chinas.

De hecho, esta institución estadounidense ha concluido que en EE. UU. hay más expertos chinos en IA que profesionales con un origen estrictamente estadounidense. Esto, según Nikkei Asia, preocupa a algunos expertos de la industria debido a la posibilidad de que China decida repatriar a sus estudiantes e investigadores desde EE. UU. para reforzar su industria de la IA.

Algunos de los mejores centros dedicados a la ciencia y la tecnología del planeta están en China. La Universidad Tsinghua de Pekín, la Universidad Jiao Tong de Shanghái, la Universidad Zhejiang de Hangzhou, la Universidad de Ciencia y Tecnología de Hefei o la Universidad de Tecnología del Sur de China, en Cantón, son solo algunas.

Todas ellas tienen algo importante en común: son centros de referencia mundial en tecnología, innovación y ciencia aplicada. Y muchos de sus alumnos están trabajando en EE. UU. En la coyuntura actual es comprensible que algunos expertos estadounidenses estén preocupados ante la posibilidad de perder este personal tan cualificado.

China quiere «construir una nación educativa fuerte»:

El sistema educativo chino funciona. El Gobierno liderado por Xi Jinping es muy consciente de que la competitividad del país en plena pugna con EE. UU. por la supremacía mundial depende en gran medida de su capacidad científica. Si nos ceñimos al desarrollo de la IA, que sin duda es el terreno de juego en el que estas dos superpotencias están jugando sus mejores cartas, es evidente que China avanza a una velocidad asombrosa. El éxito de DeepSeek avala tanto el buen funcionamiento del sistema educativo chino como la alta competitividad que ha alcanzado este país a pesar de las sanciones de EE. UU. y sus aliados.


Juan Carlos López es un destacado periodista colombiano, nacido en Bogotá, que desde 1993 se desempeña como corresponsal y presentador para CNN en Español en Washington D.C. Actualmente funge como jefe de corresponsalía y conduce programas clave como Directo USA y Choque de Opiniones, donde entrevista a figuras de alto perfil —incluidos presidentes y secretarios de Estado de EE. UU.— y ofrece análisis político profundo

Dario Amodei: el padre de “Claude” y de Anthropic

Dario Amodei: el padre de “Claude” y de Anthropic

Nacimiento y formación académica:

Dario Amodei nació en 1983 en San Francisco, Estados Unidos, en una familia de ascendencia italiana. Desde joven mostró interés por la ciencia: estudió física en la Universidad de Stanford tras transferirse desde Caltech, donde inició su carrera universitaria. Posteriormente, obtuvo un doctorado en biofísica en la Universidad de Princeton en 2011, enfocándose en la electrofisiología de circuitos neuronales. Completó su formación con un posdoctorado en la Escuela de Medicina de Stanford, donde desarrolló métodos innovadores en espectrometría de masas para proteínas.

Trayectoria profesional temprana:

Antes de ingresar al mundo de la inteligencia artificial (IA), Amodei trabajó en Skyline como desarrollador de software y colaboró en proyectos relacionados con el estudio de proteínas. En 2014, se unió a Baidu, donde lideró el desarrollo de Deep Speech 2, un modelo de reconocimiento de voz basado en aprendizaje profundo que superó barreras lingüísticas como el mandarín y el inglés. Más tarde, en Google Brain, se especializó en seguridad de IA, publicando investigaciones pioneras sobre cómo prevenir comportamientos riesgosos en sistemas autónomos.

OpenAI y contribuciones clave:

En 2016, Amodei se unió a OpenAI como líder del equipo de seguridad de Inteligencia Artificial. Ascendió rápidamente, convirtiéndose en vicepresidente de investigación en 2019. Bajo su dirección, se desarrollaron modelos revolucionarios como GPT-2 y GPT-3, que transformaron el procesamiento del lenguaje natural. Sin embargo, su enfoque en la ética y la seguridad chocó con la creciente comercialización de OpenAI tras la inversión de Microsoft en 2019. Esto lo llevó a renunciar en 2020, junto a otros 14 investigadores, para fundar Anthropic.

Fundación de Anthropic y visión ética:


En 2021, Amodei y su hermana Daniela cofundaron Anthropic, una empresa registrada como corporación de beneficio público para equilibrar lucro con bien social. Su misión es evitar que la IA se convierta en una amenaza existencial. Aquí desarrolló Claude, un modelo de lenguaje que prioriza la alineación con valores humanos mediante técnicas como el «entrenamiento constitucional», que incorpora principios éticos en su diseño. Anthropic ha recaudado más de 5,000millones, incluyendo una nversionde5,000millones, incluyendo una inversión de 1,000 millones para su modelo «Claude-Next», 10 veces más potente que sus competidores.

Impacto en la seguridad de la IA:

Amodei es un referente global en ética de la Inteligencia Artificial. En 2023, testificó ante el Senado de EE. UU., advirtiendo sobre riesgos como la creación de armas autónomas o virus sintéticos. Ese mismo año, fue incluido en la lista TIME100 AI junto a su hermana. Su ensayo «Machines of Loving Grace» (2024) propone un futuro donde la IA mejore radicalmente el bienestar humano, siempre que se gestionen sus riesgos. Rechazó ofertas de OpenAI para reemplazar a Sam Altman y fusionar ambas empresas, manteniendo su independencia filosófica.

Legado y perspectiva:

Amodei combina rigor científico con una visión pragmática: almacena suministros para crisis globales y aboga por prepararse ante pandemias o colapsos energéticos. Su enfoque en la «seguridad escalable» y la transparencia ha influido en políticas gubernamentales y en la comunidad tecnológica. A sus 42 años, su trabajo sigue definiendo cómo la IA puede ser una fuerza para el progreso sin comprometer la seguridad humana.

En resumen, Dario Amodei encarna la fusión entre innovación tecnológica y responsabilidad ética, marcando un camino alternativo en la era de la IA. Sigue la filosofía budista y tiene un perfil mucho mas bajo que Altman o Musk.

Anthropic: Innovación en IA con Enfoque en Seguridad y Comprensión:

Anthropic es una compañía de investigación en inteligencia artificial fundada en 2021 por exmiembros de OpenAI, incluidos Dario Amodei y Daniela Amodei, con el objetivo de desarrollar sistemas de IA alineados con los valores humanos y centrados en la seguridad, transparencia y controlabilidad. Su enfoque combina avances técnicos con reflexiones éticas profundas, posicionándose como un actor clave en la creación de IA confiable y beneficiosa para la sociedad.

Claude: Un modelo de lenguaje seguro y colaborativo:

Claude (lanzado en 2023) es el modelo estrella de Anthropic, diseñado para priorizar la seguridad y evitar comportamientos dañinos o sesgados. A diferencia de otros modelos, Claude integra técnicas como el «entrenamiento constitucional», donde sus respuestas se guían por principios éticos explícitos (ej.: no generar contenido violento o discriminatorio).

Sus principales aplicaciones son: la asistencia en redacción ética, el análisis de documentos legales, la tutoría educativa y el soporte técnico especializado.

Investigación en Alineación y Seguridad (AI Safety):

Anthropic lidera estudios para garantizar que los sistemas de IA actúen de acuerdo con las intenciones humanas, incluso en escenarios complejos. Ejemplos incluyen:

Interpretabilidad: entender cómo los modelos toman decisiones mediante técnicas como el «circuit breaking» (mapeo de patrones en redes neuronales).

Control proactivo: mecanismos para detectar y corregir sesgos o errores antes de que escalen.

Enfoque en IA «Útil, Honesta e Inofensiva«:

Bajo el lema «Helpful, Honest, Harmless» (HHH), Anthropic prioriza que sus sistemas:

Sean útiles sin caer en la manipulación.

Sean honestos (eviten desinformación).

Minimicen riesgos, incluso en usos no previstos.

Diferenciales Clave frente a OpenAI u otros

Énfasis en la transparencia: publican detalles técnicos de sus modelos (aunque no el código completo) y colaboran con reguladores para establecer estándares éticos.

Auto gobernanza: su estructura corporativa incluye un Consejo de Seguridad independiente con poder para vetar proyectos que consideren riesgosos.

Colaboración con instituciones: trabajan con universidades y gobiernos en marcos de auditoría de IA.

Desafíos y Críticas:

Acceso limitado: a diferencia de ChatGPT, Claude no está ampliamente disponible para el público general, lo que genera debates sobre democratización de la IA.

Complejidad ética: ¿Quién define los «valores humanos» que guían a Claude? Anthropic enfrenta críticas por posible sesgo occidental en sus principios.

Competencia con Big Tech: su enfoque cauteloso contrasta con la carrera acelerada de empresas como Google o Meta por lanzar modelos cada vez más poderosos.

El Futuro según Anthropic:

La compañía explora áreas como:

IA modular: sistemas donde componentes específicos puedan actualizarse sin afectar el resto, facilitando el control.

Diplomacia algorítmica: herramientas para mediar en negociaciones internacionales o conflictos sociales.

Neuro-simbiosis: interfaces que permitan a humanos y IA colaborar en tiempo real, manteniendo el control último en las personas.

Conclusión: Un Camino Alternativo en la Era de la IA:

Anthropic representa una visión de la IA donde la innovación técnica no se divorcia de la responsabilidad ética. Mientras gigantes como OpenAI buscan capacidades cada vez más avanzadas, Anthropic insiste en que «la inteligencia sin alineación es una amenaza». Su éxito o fracaso no solo definirá el futuro de la empresa, sino que influirá en si la humanidad logra domesticar la tecnología más disruptiva del siglo XXI.

Una mujer consigue ‘hablar’ en tiempo real, tras 20 años de silencio,al conectar su cerebro a una máquina

Una mujer consigue ‘hablar’ en tiempo real, tras 20 años de silencio,al conectar su cerebro a una máquina

Una interfaz entrenada con IA registra su actividad cerebral cuando intenta decir las palabras y las reproduce con la voz sintetizada de la paciente, que sufrió un derrame

Colaboración de Miguel Ángel Criado.

Ann tenía 30 años cuando tuvo un derrame en el tronco encefálico, la base cerebral que conecta con la médula espinal. Dejó de mover las piernas, los brazos y hasta los músculos que accionan sus cuerdas vocales. Ahora, tras años de entrenamiento con inteligencia artificial (IA), una interfaz cerebro máquina (BCI, por sus siglas en inglés) le permite comunicarse casi en tiempo real con su propia voz sintetizada. Para lograrlo, su cabeza tiene que estar conectada a una máquina que registra su actividad neuronal mediante una malla de 253 electrodos que le ponen directamente en el cerebro. Pero es la primera vez que puede hablar, aunque sea como un robot y enchufada, en más de dos décadas.

Ann, que ya ha pasado la cincuentena, no piensa las palabras, las intenta decir. La región de la corteza motora que se dedica al habla no está dañada. Ahí es donde empieza el trabajo del grupo de neurocientíficos, ingenieros y programadores de IA y ahí reside una de las diferencias con otros intentos de devolverle la capacidad de comunicarse a los que no puede hablar. Otros BCI actúan sobre el área específica del lenguaje mientras los pacientes piensan en una palabra o imaginan que la escriben. Este nuevo sistema registra lo que pasa en su cerebro cuando quiere decir “hola”. Lo explica en un correo Gopala Anumanchipalli, profesor de ingeniería eléctrica e informática en la Universidad de California en Berkeley (Estados Unidos) y coautor sénior de esta investigación, recién publicada en Nature Neuroscience: “Es cuando ella intenta decir ‘hello’, sin pensarlo. Debido a la parálisis de Ann, no puede articular ni vocalizar nada. Sin embargo, la señal neuronal de su intención es potente, lo que la convierte en una pista fiable para decodificar”, explica Anumanchipalli.

La decodificación empieza con los electrodos colocados en la corteza motora del habla. En una persona sana, desde aquí parten las conexiones neuronales que llegan, a través del tronco encefálico, hasta los músculos que controlan el tracto vocal. Con esta conexión perdida, una veintena de científicos de Berkeley y la Universidad de California en San Francisco, apoyados en varios trabajos previos, diseñaron un sistema de aprendizaje basado en algoritmos que decodificaban la actividad neuronal específica de Ann cuando quería articular una palabra.

Según Cheol Jun Cho, de Berkeley y coautor principal del estudio, “básicamente, interceptamos la señal donde el pensamiento se convierte en articulación”. En una nota de la universidad, Cho añade: “Lo que decodificamos es posterior a que haya surgido la idea, después de haber decidido qué decir, después de haber decidido qué palabras usar y cómo mover los músculos del tracto vocal”. Para que la máquina y Ann se comunicaran, ella tuvo que entrenar con un conjunto de 1.024 palabras que el sistema presentaba en forma de frases (ver vídeo). También entrenaron la BCI con una serie de 50 frases preestablecidas. Nada más ver que empezaban a aparecer en la pantalla, Ann iniciaba sus intentos de hablar y el sistema convertía la señala cerebral tanto en texto como en voz.

Ann guardaba el vídeo de su boda, algo que les vino muy bien. Con él, pudieron elegir la voz del sintetizador como se elige la de un navegador o la de Siri. Ann dijo a los investigadores que oír su propia voz le ayudaba a conectar con la máquina. Empieza a ser práctica común grabar a las personas con deterioros cognitivos o enfermedades que amenazan su capacidad de hablar más adelante con la esperanza de que la ciencia les devuelve su voz en un futuro.

La segunda gran aportación de este trabajo es la velocidad. Esta BCI no es la única que ha logrado que personas que perdieron la posibilidad de hablar, vuelvan a comunicarse. Pero hasta ahora eran sistemas muy lentos. El proceso por el que los sujetos pretendían hablar o escribir debía pasar por varios pasos. Hasta que algo inteligible, ya fuera voz o texto, aparecía en el otro extremo del sistema, duraba varios segundos, demasiados para una comunicación real y fluida. Esta nueva BCI acorta y mucho la latencia.

“Aproximadamente un segundo, medido desde que nuestro decodificador de voz detecta su intención de hablar en las señales neuronales”, dice Anumanchipalli que tarda. Para este neurocientífico, experto en procesamiento del lenguaje e inteligencia artificial, este nuevo método de transmisión convierte sus señales cerebrales a su voz personalizada casi en tiempo real. “No necesita esperar a que termine una frase o palabra, ya que el decodificador funciona en sincronía con su intención de hablar, de forma similar a como hablan las personas sanas”, añade.

Para descartar que Ann y la BCI hubieran aprendido a repetir como papagayos las frases que les ofrecía el sistema (aunque eran miles las combinaciones posibles), en la fase final de los experimentos, los investigadores hicieron que la pantalla desplegara las 26 palabras que forman el llamado alfabeto fonética OTAN. Esta jerga fue un método iniciado hace un siglo y adoptado por la organización militar en los años 50 para facilitar las comunicaciones por radio deletreando comandos. Empieza con las palabras alfabravocharliedelta… Ann, que no había entrenado con ellas, las pudo decir sin grandes diferencias con los vocabularios con los que había entrenado.

Lo conseguido es solo una pequeña parte de lo que falta. Ya están trabajando para su IA capte las dimensiones no formales de la comunicación, como el tono, la expresividad, las exclamaciones, las preguntas… “Tenemos un trabajo en curso para intentar ver si podemos decodificar estas características paralingüísticas a partir de la actividad cerebral”, dice en una nota Kaylo Littlejohn, también coautor de esta investigación. “Se trata un problema que viene de atrás, incluso en los campos de la síntesis de audio clásica, y [cuya solución] permitiría alcanzar una naturalidad completa”.

Otros problemas son, por ahora, también irresolubles. Uno es tener que abrir la cabeza y poner 253 electrodos sobre el cerebro. Lo reconoce Anumanchipalli: “Por ahora, solo las técnicas invasivas han demostrado su eficacia con BCI del habla para personas con parálisis. Si las no invasivas mejoran la captación de la señal de forma precisa, sería razonable suponer que podremos crear una BCI no invasiva”. Pero, ahora, reconoce el experto, aún no están en ese punto.


Miguel Ángel Criado (Almería, 1968) es un destacado periodista científico y escritor español, licenciado en Ciencias Políticas y Sociología. Es cofundador de Materia, la sección de ciencia del diario El País desde 2014, donde publica artículos sobre cambio climático, medio ambiente, biología, inteligencia artificial y antropología (elpais.com). Con anterioridad trabajó en medios como Público, Cuarto Poder y El Mundo (elpais.com). Es autor del ensayo Calor. Cómo nos afecta la crisis climática (Debate, 2024), en el que combina datos científicos, narrativas personales y experiencias de campo para abordar el impacto del calentamiento global en España (climatica.coop).

Tecno feudalismo: Definición y características clave

Tecno feudalismo: Definición y características clave

El tecno feudalismo es un concepto teórico que describe un sistema socioeconómico emergente en la era digital, donde grandes corporaciones tecnológicas (Big Tech) ejercen un dominio similar al de los señores feudales medievales. Estas empresas controlan recursos digitales esenciales —como datos, plataformas en línea y algoritmos—, generando una relación de dependencia entre los usuarios (llamados «vasallos digitales») y las corporaciones, quienes acumulan poder económico, político y social.

Examinemos sus elementos centrales. Dentro de ellos podemos contar a:

En primer lugar, tengamos en cuenta la analogía con el feudalismo medieval: donde encontraríamos a los señores feudales modernos: con empresas como Meta, Amazon, Google, Apple y Microsoft que actúan como los nuevos señores, controlando «feudos digitales» (plataformas y servicios en línea). Y, si tenemos señores feudales, debemos tener, como contrapartida a vasallos digitales, donde los usuarios intercambian sus datos personales y tiempo de uso por acceso a servicios, sin recibir compensación económica, replicando la dinámica de los siervos medievales que trabajaban tierras ajenas.

En segundo lugar, analicemos la llamada “moneda de cambio” que son los datos: los datos personales (hábitos de consumo, ubicación, interacciones) son la principal fuente de riqueza. Estos se extraen, analizan y monetizan mediante algoritmos para influir en comportamientos, desde compras hasta decisiones políticas.

En tercer lugar, tomemos la concentración de poder: las Big Tech monopolizan infraestructuras críticas (nubes, redes sociales, motores de búsqueda), limitando la competencia y controlando flujos de información. Su influencia trasciende lo económico: dictan normas de uso, manipulan debates públicos y evaden regulaciones estatales, operando como entidades «supraestatales».

En cuarto lugar, las rentas digitales contra las ganancias capitalistas: según Yanis Varoufakis, economista clave en esta teoría, el sistema ya no se basa en la producción y venta de bienes (capitalismo), sino en cobrar «rentas» por el acceso a plataformas y datos, similar a los señores feudales que cobraban por usar tierras (tenemos un desarrollo de la visión de Varoufakis, que recomendamos analizar).

Todo esto nos lleva también a impactos y a varias críticas:

  • La desigualdad económica: el 1% de las empresas tecnológicas concentra el 90% de la riqueza generada en el sector, exacerbando brechas sociales.
  • La pérdida de autonomía: los algoritmos deciden qué información consumimos, reduciendo la capacidad crítica y fomentando polarización.
  • La amenaza a la democracia: las Big Tech influyen en elecciones y políticas públicas, como demostró el caso de Cambridge Analytica.

Podemos adicionalmente seleccionar a los actuales autores clave, sin olvidar a los pioneros y a todos aquellos que sin ser “la nueva generación”, continúan en actividad, haciendo sus advertencia, como es el caso:

  • Yanis Varoufakis: acuñó el término en su libro Tecno feudalismo: El sigiloso sucesor del capitalismo, argumentando que la nube y los datos redefinen las relaciones de poder.
  • Shoshana Zuboff: autora de La era del capitalismo de vigilancia, describe cómo la explotación de datos erosiona la privacidad y la libertad.
  • Cédric Durand: economista francés que analiza la transición del neoliberalismo a un feudalismo tecnológico.

Los tres serán analizados en esta sección de formación e información sobre los efectos de las red y los conceptos de tecno feudalismo.

Ciertamente, podemos también citar – escasos, pero contundentes – ejemplos concretos:

  • Elon Musk y X (la antigua Twitter): que modifica algoritmos para priorizar contenido afín a sus intereses políticos, ejerciendo control sobre el discurso público.
  • Amazon y trabajadores «invisibles»: que aplica a repartidores y usuarios que entrenan algoritmos de IA sin remuneración, reforzando la explotación.

En síntesis, el tecno feudalismo representa una evolución crítica del capitalismo, donde el poder ya no reside en la producción, sino en el control de lo intangible: datos, atención y acceso digital.

Luego de esta explicación inicial, profundicemos un poco mas en el concepto de tecno feudalismo, ahora que hemos observado como autores de gran importancia lo definen como un nuevo orden socio económico.

Comencemos por analizar el contexto histórico y su evolución conceptual:

El término tecno feudalismo surge como crítica a la transformación del capitalismo global, donde gigantes tecnológicos (Big Tech) han reemplazado a Estados y corporaciones tradicionales como centros de poder. Su origen teórico se remonta a debates poscrisis de 2008, pero se popularizó con el libro «Tecno feudalismo: Lo que mató al capitalismo» (2023) de Yanis Varoufakis, exministro de economía griego. Este concepto retoma la analogía del feudalismo medieval, pero adaptada a la economía digital, donde la riqueza ya no se genera principalmente mediante la producción industrial, sino a través del control de plataformas, datos y atención humana.

De esta manera, y en forma de cuadro, hace una comparación entre aquellas diferencias clave entre capitalismo, feudalismo y el nuevo tecno feudalismo, la que exponemos a continuación.

Diferencias clave entre capitalismo, feudalismo y tecno feudalismo:

AspectoCapitalismo industrialFeudalismo medievalTecno feudalismo
Fuente de poderPropiedad de fábricas, tierrasControl de tierras y siervosControl de plataformas y datos
Relación laboralSalario por trabajoServidumbre (trabajo por protección)Intercambio de datos por servicios
MonedaDinero fiduciarioEspecies (trigo, oro)Datos, atención, algoritmos
Estructura de claseBurguesía vs. proletariadoSeñores feudales vs. vasallosBig Tech vs. usuarios/proveedores
Ejemplo históricoFord, fábricas textilesCastillo feudal, tierrasAmazon Web Services, Meta, TikTok

Fuente: Adaptado de Varoufakis (2023) y Shoshana Zuboff (2019).

Los mecanismos del tecno feudalismo:

El primero es la extracción de rentas digitales: las empresas no venden productos, sino que cobran por acceder a sus plataformas (ejemplo: suscripciones a Netflix) o por usar datos (por ejemplo: publicidad dirigida en Google). Un caso claro es el de Uber, que no posee autos, pero cobra una «renta» del 25-30% por cada viaje, convirtiendo a conductores en «siervos modernos”.

El segundo es la dependencia algorítmica: plataformas como Instagram o TikTok usan algoritmos para decidir qué contenido se viraliza, creando una jerarquía donde unos pocos «influencers» (nueva nobleza) concentran atención y ganancias, mientras la mayoría lucha por visibilidad.

El tercero es la privatización de lo público: Amazon domina el comercio electrónico, Meta controla redes sociales, y Google gestiona el conocimiento global. Estas empresas actúan como «gobiernos paralelos», imponiendo reglas (por ejemplo: políticas de moderación) sin rendir cuentas democráticas.

El cuarto es lapresentación de los denominados “trabajadores invisibles”: los llamados “clickworkers” (personas que etiquetan datos para entrenar IA) y repartidores de apps ganan menos de 3 dólares por hora, sin derechos laborales, replicando la explotación feudal en la economía gig.

Algunos casos paradigmáticos:

Amazon y el «feudo logístico»: la empresa controla el 40% del comercio electrónico en EE. UU. y el 50% de la nube pública global (AWS). Pequeñas empresas dependen de su infraestructura, pagando comisiones de hasta 45% por ventas, mientras Amazon copia sus productos con Amazon Básics.

Meta y la economía de la atención: Facebook e Instagram monetizan el tiempo de los usuarios: en 2023, el estadounidense promedio gastó 2.5 horas/día en sus plataformas, generando $65.000 millones en ingresos publicitarios para Meta.

Tesla y la autonomía ilusoria: los autos Tesla recopilan datos de conducción para entrenar su IA. Si un usuario intenta reparar su vehículo sin software oficial, la compañía puede bloquear funciones, ejemplificando la pérdida de propiedad privada en favor del control corporativo.

Conclusión: ¿Hacia un nuevo contrato social?:

El tecno feudalismo no es una metáfora, sino una realidad en ciernes. Plataformas como Airbnb han vaciado barrios enteros, algoritmos deciden empleos y préstamos, y la riqueza se concentra en CEOs como Musk (fortuna: $220.000 millones) mientras el 60% de estadounidenses vive paycheck to paycheck.

La solución, según Varoufakis, requiere nacionalizar infraestructuras digitales y crear un «commons de datos», donde la información sea un bien público. Como él afirma: «En el tecno feudalismo, somos campesinos digitales. Pero internet nació como un ágora, y puede volver a serlo”. La disyuntiva es clara: democratizar la tecnología o aceptar un medievo digital donde unos pocos controlen el futuro de todos.

La singularidad de la Inteligencia Artificial y el fin de la Ley de Moore:el auge de las máquinas de autoaprendizaje

La singularidad de la Inteligencia Artificial y el fin de la Ley de Moore:el auge de las máquinas de autoaprendizaje


Singularidad de la Inteligencia Artificial y la superinteligencia

Colaboración del Dr. Assad Abbas

La Ley de Moore fue el modelo de oro para predecir el progreso tecnológico durante años. Introducida por Gordon Moore, cofundador de Intel, en 1965, establecía que la cantidad de transistores en un chip se duplicaría cada dos años, lo que haría que las computadoras fueran más rápidas, más pequeñas y baratas con el tiempo. Este avance constante impulsó todo, desde las computadoras personales y los teléfonos inteligentes hasta el auge de Internet.

Pero esa era está llegando a su fin. Los transistores están alcanzando ahora límites de escala atómica, y reducirlos aún más se ha vuelto increíblemente costoso y complejo. Mientras tanto, la potencia de procesamiento de la IA aumenta rápidamente, superando con creces la Ley de Moore. A diferencia de la informática tradicional, la IA se basa en hardware robusto y especializado y en el procesamiento paralelo para manejar datos masivos. Lo que distingue a la IA es su capacidad de aprender y refinar continuamente sus algoritmos, lo que conduce a rápidas mejoras en la eficiencia y el rendimiento.

Esta rápida aceleración nos acerca a un momento crucial conocido como la singularidad de la IA, el punto en el que la IA supera la inteligencia humana y comienza un ciclo imparable de autosuperación. Empresas como Tesla, Nvidia , Google DeepMind y OpenAI lideran esta transformación con potentes GPU, chips de IA personalizados y redes neuronales a gran escala . A medida que los sistemas de IA se vuelven cada vez más capaces de mejorar, algunos expertos creen que podríamos alcanzar la Superinteligencia Artificial (ASI) ya en 2027, un hito que podría cambiar el mundo para siempre.

A medida que los sistemas de IA se vuelven cada vez más independientes y capaces de optimizarse a sí mismos, los expertos predicen que podríamos llegar a la Superinteligencia Artificial (ASI) en 2027. Si esto sucede, la humanidad entrará en una nueva era en la que la IA impulsará la innovación, transformará las industrias y posiblemente superará el control humano. La pregunta es si la IA llegará a esta etapa, cuándo y si estamos listos.

Cómo los sistemas de escalabilidad y autoaprendizaje de la IA están transformando la informática

A medida que la Ley de Moore pierde fuerza, los desafíos de hacer transistores más pequeños se vuelven más evidentes. La acumulación de calor, las limitaciones de energía y el aumento de los costos de producción de chips han hecho que los avances en la computación tradicional sean cada vez más difíciles. Sin embargo, la IA está superando estas limitaciones no fabricando transistores más pequeños, sino cambiando el modo en que funciona la computación.

En lugar de depender de transistores cada vez más pequeños, la IA emplea procesamiento paralelo, aprendizaje automático y hardware especializado para mejorar el rendimiento. El aprendizaje profundo y las redes neuronales se destacan cuando pueden procesar grandes cantidades de datos simultáneamente, a diferencia de las computadoras tradicionales que procesan las tareas de manera secuencial. Esta transformación ha llevado al uso generalizado de GPU, TPU y aceleradores de IA diseñados explícitamente para cargas de trabajo de IA, lo que ofrece una eficiencia significativamente mayor.

A medida que los sistemas de IA se vuelven más avanzados, la demanda de mayor potencia computacional continúa aumentando. Este rápido crecimiento ha multiplicado por cinco la potencia computacional de la IA por año, superando con creces el crecimiento tradicional de dos veces cada dos años de la Ley de Moore. El impacto de esta expansión es más evidente en los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) como GPT-4, Gemini y DeepSeek, que requieren capacidades de procesamiento masivas para analizar e interpretar enormes conjuntos de datos, lo que impulsa la próxima ola de computación impulsada por la IA. Empresas como Nvidia están desarrollando procesadores de IA altamente especializados que ofrecen una velocidad y una eficiencia increíbles para satisfacer estas demandas.

La escalabilidad de la IA está impulsada por hardware de vanguardia y algoritmos de automejora, lo que permite que las máquinas procesen grandes cantidades de datos de manera más eficiente que nunca. Entre los avances más significativos se encuentra la supercomputadora Dojo de Tesla, un gran avance en la computación optimizada para IA diseñada explícitamente para entrenar modelos de aprendizaje profundo.

A diferencia de los centros de datos convencionales diseñados para tareas de uso general, Dojo está diseñado para manejar cargas de trabajo de IA masivas, en particular para la tecnología de conducción autónoma de Tesla. Lo que distingue a Dojo es su arquitectura personalizada centrada en la IA, que está optimizada para el aprendizaje profundo en lugar de la computación tradicional. Esto ha dado como resultado velocidades de entrenamiento sin precedentes y ha permitido a Tesla reducir los tiempos de entrenamiento de la IA de meses a semanas, al tiempo que reduce el consumo de energía mediante una gestión eficiente de la energía. Al permitir que Tesla entrene modelos más grandes y avanzados con menos energía, Dojo está desempeñando un papel vital en la aceleración de la automatización impulsada por la IA.

Sin embargo, Tesla no está sola en esta carrera. En toda la industria, los modelos de IA son cada vez más capaces de mejorar sus procesos de aprendizaje. AlphaCode de DeepMind, por ejemplo, está impulsando el desarrollo de software generado por IA al optimizar la eficiencia de la escritura de códigos y mejorar la lógica algorítmica con el tiempo. Mientras tanto, los modelos de aprendizaje avanzados de Google DeepMind se entrenan con datos del mundo real, lo que les permite adaptarse dinámicamente y refinar los procesos de toma de decisiones con una mínima intervención humana.

Más importante aún, la IA ahora puede mejorarse a sí misma mediante la automejora recursiva, un proceso en el que los sistemas de IA perfeccionan sus propios algoritmos de aprendizaje y aumentan la eficiencia con una mínima intervención humana. Esta capacidad de autoaprendizaje está acelerando el desarrollo de la IA a un ritmo sin precedentes, acercando la industria a la ASI. Con los sistemas de IA perfeccionándose, optimizándose y mejorándose continuamente, el mundo está entrando en una nueva era de computación inteligente que evoluciona continuamente de forma independiente.

El camino hacia la superinteligencia: ¿Nos estamos acercando a la singularidad?:

La singularidad de la IA se refiere al punto en el que la inteligencia artificial supera la inteligencia humana y se mejora a sí misma sin intervención humana. En esta etapa, la IA podría crear versiones más avanzadas de sí misma en un ciclo continuo de automejora, lo que llevaría a avances rápidos más allá de la comprensión humana. Esta idea depende del desarrollo de la inteligencia artificial general (AGI), que puede realizar cualquier tarea intelectual que un humano puede realizar y, con el tiempo, progresar hacia la ASI.

Los expertos tienen opiniones diferentes sobre cuándo podría suceder esto. Ray Kurzweil, un futurista e investigador de IA en Google, predice que la IAG llegará en 2029, seguida de cerca por la IAI. Por otro lado, Elon Musk cree que la IAI podría surgir ya en 2027, señalando el rápido aumento de la potencia informática de la IA y su capacidad para escalar más rápido de lo esperado.

La capacidad de procesamiento de la IA se duplica cada seis meses, superando con creces la Ley de Moore, que predecía que la densidad de transistores se duplicaría cada dos años. Esta aceleración es posible gracias a los avances en el procesamiento paralelo, hardware especializado como las GPU y las TPU, y técnicas de optimización como la cuantificación de modelos y la dispersión.

Los sistemas de IA también se están volviendo más independientes. Algunos ahora pueden optimizar sus arquitecturas y mejorar los algoritmos de aprendizaje sin la intervención humana. Un ejemplo es Neural Architecture Search (NAS), donde la IA diseña redes neuronales para mejorar la eficiencia y el rendimiento. Estos avances conducen al desarrollo de modelos de IA que se perfeccionan continuamente, lo que es un paso esencial hacia la superinteligencia.

Dado el potencial de la IA para avanzar tan rápidamente, los investigadores de OpenAI, DeepMind y otras organizaciones están trabajando en medidas de seguridad para garantizar que los sistemas de IA sigan alineados con los valores humanos. Se están desarrollando métodos como el aprendizaje reforzado a partir de la retroalimentación humana (RLHF, por sus siglas en inglés) y mecanismos de supervisión para reducir los riesgos asociados con la toma de decisiones de la IA. Estos esfuerzos son fundamentales para guiar el desarrollo de la IA de manera responsable. Si la IA continúa progresando a este ritmo, la singularidad podría llegar antes de lo esperado.

La promesa y los riesgos de la IA superinteligente:

El potencial de ASI para transformar diversas industrias es enorme, particularmente en la medicina, la economía y la sostenibilidad ambiental.

En el ámbito sanitario, la ASI podría acelerar el descubrimiento de fármacos, mejorar el diagnóstico de enfermedades y descubrir nuevos tratamientos para el envejecimiento y otras enfermedades complejas.

En la economía, podría automatizar trabajos repetitivos, permitiendo a las personas centrarse en la creatividad, la innovación y la resolución de problemas.

A mayor escala, la IA también podría desempeñar un papel clave a la hora de abordar los desafíos climáticos optimizando el uso de la energía, mejorando la gestión de los recursos y encontrando soluciones para reducir la contaminación.

Sin embargo, estos avances conllevan riesgos importantes. Si la inteligencia artificial no se alinea correctamente con los valores y objetivos humanos, podría tomar decisiones que entren en conflicto con los intereses humanos, lo que daría lugar a resultados impredecibles o peligrosos. La capacidad de la inteligencia artificial para mejorar rápidamente plantea inquietudes sobre el control a medida que los sistemas de IA evolucionan y se vuelven más avanzados, por lo que garantizar que permanezcan bajo la supervisión humana se vuelve cada vez más difícil.

Entre los riesgos más importantes se encuentran:

Pérdida del control humano: a medida que la IA supere la inteligencia humana, puede comenzar a operar más allá de nuestra capacidad para regularla. Si no se implementan estrategias de alineación, la IA podría tomar medidas sobre las que los humanos ya no pueden influir.

Amenazas existenciales: si ASI prioriza su optimización sin tener en cuenta los valores humanos, podría tomar decisiones que amenacen la supervivencia de la humanidad.

Desafíos regulatorios: los gobiernos y las organizaciones luchan por seguir el ritmo del rápido desarrollo de la IA, lo que dificulta establecer políticas y salvaguardas adecuadas a tiempo.

Organizaciones como OpenAI y DeepMind están trabajando activamente en medidas de seguridad de la Inteligencia Artificial, incluidos métodos como RLHF, para mantener la Inteligencia Artificial alineada con las pautas éticas. Sin embargo, el progreso en la seguridad de la Inteligencia Artificial no se mantiene al ritmo de los rápidos avances de la IA, lo que genera inquietudes sobre si se tomarán las precauciones necesarias antes de que la IA alcance un nivel que esté más allá del control humano.

Si bien la Inteligencia Artificia; superinteligente es muy prometedora, no se pueden ignorar sus riesgos. Las decisiones que se tomen hoy definirán el futuro del desarrollo de la IA. Para garantizar que la IA beneficie a la humanidad en lugar de convertirse en una amenaza, los investigadores, los responsables de las políticas y la sociedad deben trabajar juntos para priorizar la ética, la seguridad y la innovación responsable.

El resultado final:

La rápida aceleración de la expansión de la Inteligencia Artificial nos acerca a un futuro en el que la inteligencia artificial supere a la humana. Si bien la Inteligencia Artificial ya ha transformado las industrias, la aparición de la inteligencia artificial podría redefinir la forma en que trabajamos, innovamos y resolvemos desafíos complejos. Sin embargo, este salto tecnológico conlleva riesgos importantes, incluida la posible pérdida de la supervisión humana y consecuencias impredecibles.

Garantizar que la Inteligencia Artificial siga alineada con los valores humanos es uno de los desafíos más críticos de nuestro tiempo. Los investigadores, los responsables de las políticas y los líderes de la industria deben colaborar para desarrollar salvaguardas éticas y marcos regulatorios que guíen a la IA hacia un futuro que beneficie a la humanidad. A medida que nos acercamos a la singularidad, nuestras decisiones de hoy darán forma a la forma en que la IA coexistirá con nosotros en los próximos años.


Dr. Assad Abbas

El Dr. Assad Abbas, profesor asociado titular de la Universidad COMSATS de Islamabad (Pakistán), obtuvo su doctorado en la Universidad Estatal de Dakota del Norte (EE. UU.). Su investigación se centra en tecnologías avanzadas, como la computación en la nube, en la niebla y en el borde, el análisis de big data y la inteligencia artificial. El Dr. Abbas ha realizado contribuciones sustanciales con publicaciones en revistas científicas y conferencias de prestigio.

error: Content is protected !!