Una interfaz entrenada con IA registra su actividad cerebral cuando intenta decir las palabras y las reproduce con la voz sintetizada de la paciente, que sufrió un derrame
Colaboración de Miguel Ángel Criado.
Ann tenía 30 años cuando tuvo un derrame en el tronco encefálico, la base cerebral que conecta con la médula espinal. Dejó de mover las piernas, los brazos y hasta los músculos que accionan sus cuerdas vocales. Ahora, tras años de entrenamiento con inteligencia artificial (IA), una interfaz cerebro máquina (BCI, por sus siglas en inglés) le permite comunicarse casi en tiempo real con su propia voz sintetizada. Para lograrlo, su cabeza tiene que estar conectada a una máquina que registra su actividad neuronal mediante una malla de 253 electrodos que le ponen directamente en el cerebro. Pero es la primera vez que puede hablar, aunque sea como un robot y enchufada, en más de dos décadas.
Ann, que ya ha pasado la cincuentena, no piensa las palabras, las intenta decir. La región de la corteza motora que se dedica al habla no está dañada. Ahí es donde empieza el trabajo del grupo de neurocientíficos, ingenieros y programadores de IA y ahí reside una de las diferencias con otros intentos de devolverle la capacidad de comunicarse a los que no puede hablar. Otros BCI actúan sobre el área específica del lenguaje mientras los pacientes piensan en una palabra o imaginan que la escriben. Este nuevo sistema registra lo que pasa en su cerebro cuando quiere decir “hola”. Lo explica en un correo Gopala Anumanchipalli, profesor de ingeniería eléctrica e informática en la Universidad de California en Berkeley (Estados Unidos) y coautor sénior de esta investigación, recién publicada en Nature Neuroscience: “Es cuando ella intenta decir ‘hello’, sin pensarlo. Debido a la parálisis de Ann, no puede articular ni vocalizar nada. Sin embargo, la señal neuronal de su intención es potente, lo que la convierte en una pista fiable para decodificar”, explica Anumanchipalli.
La decodificación empieza con los electrodos colocados en la corteza motora del habla. En una persona sana, desde aquí parten las conexiones neuronales que llegan, a través del tronco encefálico, hasta los músculos que controlan el tracto vocal. Con esta conexión perdida, una veintena de científicos de Berkeley y la Universidad de California en San Francisco, apoyados en varios trabajos previos, diseñaron un sistema de aprendizaje basado en algoritmos que decodificaban la actividad neuronal específica de Ann cuando quería articular una palabra.
Según Cheol Jun Cho, de Berkeley y coautor principal del estudio, “básicamente, interceptamos la señal donde el pensamiento se convierte en articulación”. En una nota de la universidad, Cho añade: “Lo que decodificamos es posterior a que haya surgido la idea, después de haber decidido qué decir, después de haber decidido qué palabras usar y cómo mover los músculos del tracto vocal”. Para que la máquina y Ann se comunicaran, ella tuvo que entrenar con un conjunto de 1.024 palabras que el sistema presentaba en forma de frases (ver vídeo). También entrenaron la BCI con una serie de 50 frases preestablecidas. Nada más ver que empezaban a aparecer en la pantalla, Ann iniciaba sus intentos de hablar y el sistema convertía la señala cerebral tanto en texto como en voz.
Ann guardaba el vídeo de su boda, algo que les vino muy bien. Con él, pudieron elegir la voz del sintetizador como se elige la de un navegador o la de Siri. Ann dijo a los investigadores que oír su propia voz le ayudaba a conectar con la máquina. Empieza a ser práctica común grabar a las personas con deterioros cognitivos o enfermedades que amenazan su capacidad de hablar más adelante con la esperanza de que la ciencia les devuelve su voz en un futuro.
La segunda gran aportación de este trabajo es la velocidad. Esta BCI no es la única que ha logrado que personas que perdieron la posibilidad de hablar, vuelvan a comunicarse. Pero hasta ahora eran sistemas muy lentos. El proceso por el que los sujetos pretendían hablar o escribir debía pasar por varios pasos. Hasta que algo inteligible, ya fuera voz o texto, aparecía en el otro extremo del sistema, duraba varios segundos, demasiados para una comunicación real y fluida. Esta nueva BCI acorta y mucho la latencia.
“Aproximadamente un segundo, medido desde que nuestro decodificador de voz detecta su intención de hablar en las señales neuronales”, dice Anumanchipalli que tarda. Para este neurocientífico, experto en procesamiento del lenguaje e inteligencia artificial, este nuevo método de transmisión convierte sus señales cerebrales a su voz personalizada casi en tiempo real. “No necesita esperar a que termine una frase o palabra, ya que el decodificador funciona en sincronía con su intención de hablar, de forma similar a como hablan las personas sanas”, añade.
Para descartar que Ann y la BCI hubieran aprendido a repetir como papagayos las frases que les ofrecía el sistema (aunque eran miles las combinaciones posibles), en la fase final de los experimentos, los investigadores hicieron que la pantalla desplegara las 26 palabras que forman el llamado alfabeto fonética OTAN. Esta jerga fue un método iniciado hace un siglo y adoptado por la organización militar en los años 50 para facilitar las comunicaciones por radio deletreando comandos. Empieza con las palabras alfa, bravo, charlie, delta… Ann, que no había entrenado con ellas, las pudo decir sin grandes diferencias con los vocabularios con los que había entrenado.
Lo conseguido es solo una pequeña parte de lo que falta. Ya están trabajando para su IA capte las dimensiones no formales de la comunicación, como el tono, la expresividad, las exclamaciones, las preguntas… “Tenemos un trabajo en curso para intentar ver si podemos decodificar estas características paralingüísticas a partir de la actividad cerebral”, dice en una nota Kaylo Littlejohn, también coautor de esta investigación. “Se trata un problema que viene de atrás, incluso en los campos de la síntesis de audio clásica, y [cuya solución] permitiría alcanzar una naturalidad completa”.
Otros problemas son, por ahora, también irresolubles. Uno es tener que abrir la cabeza y poner 253 electrodos sobre el cerebro. Lo reconoce Anumanchipalli: “Por ahora, solo las técnicas invasivas han demostrado su eficacia con BCI del habla para personas con parálisis. Si las no invasivas mejoran la captación de la señal de forma precisa, sería razonable suponer que podremos crear una BCI no invasiva”. Pero, ahora, reconoce el experto, aún no están en ese punto.
Miguel Ángel Criado (Almería, 1968) es un destacado periodista científico y escritor español, licenciado en Ciencias Políticas y Sociología. Es cofundador de Materia, la sección de ciencia del diario El País desde 2014, donde publica artículos sobre cambio climático, medio ambiente, biología, inteligencia artificial y antropología (elpais.com). Con anterioridad trabajó en medios como Público, Cuarto Poder y El Mundo (elpais.com). Es autor del ensayo Calor. Cómo nos afecta la crisis climática (Debate, 2024), en el que combina datos científicos, narrativas personales y experiencias de campo para abordar el impacto del calentamiento global en España (climatica.coop).
El tecno feudalismo es un concepto teórico que describe un sistema socioeconómico emergente en la era digital, donde grandes corporaciones tecnológicas (Big Tech) ejercen un dominio similar al de los señores feudales medievales. Estas empresas controlan recursos digitales esenciales —como datos, plataformas en línea y algoritmos—, generando una relación de dependencia entre los usuarios (llamados «vasallos digitales») y las corporaciones, quienes acumulan poder económico, político y social.
Examinemos sus elementos centrales. Dentro de ellos podemos contar a:
En primer lugar, tengamos en cuenta la analogía con el feudalismo medieval: donde encontraríamos a los señores feudales modernos: con empresas como Meta, Amazon, Google, Apple y Microsoft que actúan como los nuevos señores, controlando «feudos digitales» (plataformas y servicios en línea). Y, si tenemos señores feudales, debemos tener, como contrapartida a vasallos digitales, donde los usuarios intercambian sus datos personales y tiempo de uso por acceso a servicios, sin recibir compensación económica, replicando la dinámica de los siervos medievales que trabajaban tierras ajenas.
En segundo lugar, analicemos la llamada “moneda de cambio” que son los datos: los datos personales (hábitos de consumo, ubicación, interacciones) son la principal fuente de riqueza. Estos se extraen, analizan y monetizan mediante algoritmos para influir en comportamientos, desde compras hasta decisiones políticas.
En tercer lugar, tomemos la concentración de poder: las Big Tech monopolizan infraestructuras críticas (nubes, redes sociales, motores de búsqueda), limitando la competencia y controlando flujos de información. Su influencia trasciende lo económico: dictan normas de uso, manipulan debates públicos y evaden regulaciones estatales, operando como entidades «supraestatales».
En cuarto lugar, las rentas digitales contra las ganancias capitalistas: según Yanis Varoufakis, economista clave en esta teoría, el sistema ya no se basa en la producción y venta de bienes (capitalismo), sino en cobrar «rentas» por el acceso a plataformas y datos, similar a los señores feudales que cobraban por usar tierras (tenemos un desarrollo de la visión de Varoufakis, que recomendamos analizar).
Todo esto nos lleva también a impactos y a varias críticas:
La desigualdad económica: el 1% de las empresas tecnológicas concentra el 90% de la riqueza generada en el sector, exacerbando brechas sociales.
La pérdida de autonomía: los algoritmos deciden qué información consumimos, reduciendo la capacidad crítica y fomentando polarización.
La amenaza a la democracia: las Big Tech influyen en elecciones y políticas públicas, como demostró el caso de Cambridge Analytica.
Podemos adicionalmente seleccionar a los actuales autores clave, sin olvidar a los pioneros y a todos aquellos que sin ser “la nueva generación”, continúan en actividad, haciendo sus advertencia, como es el caso:
Yanis Varoufakis: acuñó el término en su libro Tecno feudalismo: El sigiloso sucesor del capitalismo, argumentando que la nube y los datos redefinen las relaciones de poder.
Shoshana Zuboff: autora de La era del capitalismo de vigilancia, describe cómo la explotación de datos erosiona la privacidad y la libertad.
Cédric Durand: economista francés que analiza la transición del neoliberalismo a un feudalismo tecnológico.
Los tres serán analizados en esta sección de formación e información sobre los efectos de las red y los conceptos de tecno feudalismo.
Ciertamente, podemos también citar – escasos, pero contundentes – ejemplos concretos:
Elon Musk y X (la antigua Twitter): que modifica algoritmos para priorizar contenido afín a sus intereses políticos, ejerciendo control sobre el discurso público.
Amazon y trabajadores «invisibles»: que aplica a repartidores y usuarios que entrenan algoritmos de IA sin remuneración, reforzando la explotación.
En síntesis, el tecno feudalismo representa una evolución crítica del capitalismo, donde el poder ya no reside en la producción, sino en el control de lo intangible: datos, atención y acceso digital.
Luego de esta explicación inicial, profundicemos un poco mas en el concepto de tecno feudalismo, ahora que hemos observado como autores de gran importancia lo definen como un nuevo orden socio económico.
Comencemos por analizar el contexto histórico y su evolución conceptual:
El término tecno feudalismo surge como crítica a la transformación del capitalismo global, donde gigantes tecnológicos (Big Tech) han reemplazado a Estados y corporaciones tradicionales como centros de poder. Su origen teórico se remonta a debates poscrisis de 2008, pero se popularizó con el libro «Tecno feudalismo: Lo que mató al capitalismo» (2023) de Yanis Varoufakis, exministro de economía griego. Este concepto retoma la analogía del feudalismo medieval, pero adaptada a la economía digital, donde la riqueza ya no se genera principalmente mediante la producción industrial, sino a través del control de plataformas, datos y atención humana.
De esta manera, y en forma de cuadro, hace una comparación entre aquellas diferencias clave entre capitalismo, feudalismo y el nuevo tecno feudalismo, la que exponemos a continuación.
Diferencias clave entre capitalismo, feudalismo y tecno feudalismo:
Aspecto
Capitalismo industrial
Feudalismo medieval
Tecno feudalismo
Fuente de poder
Propiedad de fábricas, tierras
Control de tierras y siervos
Control de plataformas y datos
Relación laboral
Salario por trabajo
Servidumbre (trabajo por protección)
Intercambio de datos por servicios
Moneda
Dinero fiduciario
Especies (trigo, oro)
Datos, atención, algoritmos
Estructura de clase
Burguesía vs. proletariado
Señores feudales vs. vasallos
Big Tech vs. usuarios/proveedores
Ejemplo histórico
Ford, fábricas textiles
Castillo feudal, tierras
Amazon Web Services, Meta, TikTok
Fuente: Adaptado de Varoufakis (2023) y Shoshana Zuboff (2019).
Los mecanismos del tecno feudalismo:
El primero es la extracción de rentas digitales: las empresas no venden productos, sino que cobran por acceder a sus plataformas (ejemplo: suscripciones a Netflix) o por usar datos (por ejemplo: publicidad dirigida en Google). Un caso claro es el de Uber, que no posee autos, pero cobra una «renta» del 25-30% por cada viaje, convirtiendo a conductores en «siervos modernos”.
El segundo es la dependencia algorítmica: plataformas como Instagram o TikTok usan algoritmos para decidir qué contenido se viraliza, creando una jerarquía donde unos pocos «influencers» (nueva nobleza) concentran atención y ganancias, mientras la mayoría lucha por visibilidad.
El tercero es la privatización de lo público: Amazon domina el comercio electrónico, Meta controla redes sociales, y Google gestiona el conocimiento global. Estas empresas actúan como «gobiernos paralelos», imponiendo reglas (por ejemplo: políticas de moderación) sin rendir cuentas democráticas.
El cuarto es lapresentación de los denominados “trabajadores invisibles”: los llamados “clickworkers” (personas que etiquetan datos para entrenar IA) y repartidores de apps ganan menos de 3 dólares por hora, sin derechos laborales, replicando la explotación feudal en la economía gig.
Algunos casos paradigmáticos:
Amazon y el «feudo logístico»: la empresa controla el 40% del comercio electrónico en EE. UU. y el 50% de la nube pública global (AWS). Pequeñas empresas dependen de su infraestructura, pagando comisiones de hasta 45% por ventas, mientras Amazon copia sus productos con Amazon Básics.
Meta y la economía de la atención: Facebook e Instagram monetizan el tiempo de los usuarios: en 2023, el estadounidense promedio gastó 2.5 horas/día en sus plataformas, generando $65.000 millones en ingresos publicitarios para Meta.
Tesla y la autonomía ilusoria: los autos Tesla recopilan datos de conducción para entrenar su IA. Si un usuario intenta reparar su vehículo sin software oficial, la compañía puede bloquear funciones, ejemplificando la pérdida de propiedad privada en favor del control corporativo.
Conclusión: ¿Hacia un nuevo contrato social?:
El tecno feudalismo no es una metáfora, sino una realidad en ciernes. Plataformas como Airbnb han vaciado barrios enteros, algoritmos deciden empleos y préstamos, y la riqueza se concentra en CEOs como Musk (fortuna: $220.000 millones) mientras el 60% de estadounidenses vive paycheck to paycheck.
La solución, según Varoufakis, requiere nacionalizar infraestructuras digitales y crear un «commons de datos», donde la información sea un bien público. Como él afirma: «En el tecno feudalismo, somos campesinos digitales. Pero internet nació como un ágora, y puede volver a serlo”. La disyuntiva es clara: democratizar la tecnología o aceptar un medievo digital donde unos pocos controlen el futuro de todos.
Singularidad de la Inteligencia Artificial y la superinteligencia
Colaboración del Dr. Assad Abbas
La Ley de Moore fue el modelo de oro para predecir el progreso tecnológico durante años. Introducida por Gordon Moore, cofundador de Intel, en 1965, establecía que la cantidad de transistores en un chip se duplicaría cada dos años, lo que haría que las computadoras fueran más rápidas, más pequeñas y baratas con el tiempo. Este avance constante impulsó todo, desde las computadoras personales y los teléfonos inteligentes hasta el auge de Internet.
Pero esa era está llegando a su fin. Los transistores están alcanzando ahora límites de escala atómica, y reducirlos aún más se ha vuelto increíblemente costoso y complejo. Mientras tanto, la potencia de procesamiento de la IA aumenta rápidamente, superando con creces la Ley de Moore. A diferencia de la informática tradicional, la IA se basa en hardware robusto y especializado y en el procesamiento paralelo para manejar datos masivos. Lo que distingue a la IA es su capacidad de aprender y refinar continuamente sus algoritmos, lo que conduce a rápidas mejoras en la eficiencia y el rendimiento.
Esta rápida aceleración nos acerca a un momento crucial conocido como la singularidad de la IA, el punto en el que la IA supera la inteligencia humana y comienza un ciclo imparable de autosuperación. Empresas como Tesla, Nvidia , Google DeepMind y OpenAI lideran esta transformación con potentes GPU, chips de IA personalizados y redes neuronales a gran escala . A medida que los sistemas de IA se vuelven cada vez más capaces de mejorar, algunos expertos creen que podríamos alcanzar la Superinteligencia Artificial (ASI) ya en 2027, un hito que podría cambiar el mundo para siempre.
A medida que los sistemas de IA se vuelven cada vez más independientes y capaces de optimizarse a sí mismos, los expertos predicen que podríamos llegar a la Superinteligencia Artificial (ASI) en 2027. Si esto sucede, la humanidad entrará en una nueva era en la que la IA impulsará la innovación, transformará las industrias y posiblemente superará el control humano. La pregunta es si la IA llegará a esta etapa, cuándo y si estamos listos.
Cómo los sistemas de escalabilidad y autoaprendizaje de la IA están transformando la informática
A medida que la Ley de Moore pierde fuerza, los desafíos de hacer transistores más pequeños se vuelven más evidentes. La acumulación de calor, las limitaciones de energía y el aumento de los costos de producción de chips han hecho que los avances en la computación tradicional sean cada vez más difíciles. Sin embargo, la IA está superando estas limitaciones no fabricando transistores más pequeños, sino cambiando el modo en que funciona la computación.
En lugar de depender de transistores cada vez más pequeños, la IA emplea procesamiento paralelo, aprendizaje automático y hardware especializado para mejorar el rendimiento. El aprendizaje profundo y las redes neuronales se destacan cuando pueden procesar grandes cantidades de datos simultáneamente, a diferencia de las computadoras tradicionales que procesan las tareas de manera secuencial. Esta transformación ha llevado al uso generalizado de GPU, TPU y aceleradores de IA diseñados explícitamente para cargas de trabajo de IA, lo que ofrece una eficiencia significativamente mayor.
A medida que los sistemas de IA se vuelven más avanzados, la demanda de mayor potencia computacional continúa aumentando. Este rápido crecimiento ha multiplicado por cinco la potencia computacional de la IA por año, superando con creces el crecimiento tradicional de dos veces cada dos años de la Ley de Moore. El impacto de esta expansión es más evidente en los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) como GPT-4, Gemini y DeepSeek, que requieren capacidades de procesamiento masivas para analizar e interpretar enormes conjuntos de datos, lo que impulsa la próxima ola de computación impulsada por la IA. Empresas como Nvidia están desarrollando procesadores de IA altamente especializados que ofrecen una velocidad y una eficiencia increíbles para satisfacer estas demandas.
La escalabilidad de la IA está impulsada por hardware de vanguardia y algoritmos de automejora, lo que permite que las máquinas procesen grandes cantidades de datos de manera más eficiente que nunca. Entre los avances más significativos se encuentra la supercomputadora Dojo de Tesla, un gran avance en la computación optimizada para IA diseñada explícitamente para entrenar modelos de aprendizaje profundo.
A diferencia de los centros de datos convencionales diseñados para tareas de uso general, Dojo está diseñado para manejar cargas de trabajo de IA masivas, en particular para la tecnología de conducción autónoma de Tesla. Lo que distingue a Dojo es su arquitectura personalizada centrada en la IA, que está optimizada para el aprendizaje profundo en lugar de la computación tradicional. Esto ha dado como resultado velocidades de entrenamiento sin precedentes y ha permitido a Tesla reducir los tiempos de entrenamiento de la IA de meses a semanas, al tiempo que reduce el consumo de energía mediante una gestión eficiente de la energía. Al permitir que Tesla entrene modelos más grandes y avanzados con menos energía, Dojo está desempeñando un papel vital en la aceleración de la automatización impulsada por la IA.
Sin embargo, Tesla no está sola en esta carrera. En toda la industria, los modelos de IA son cada vez más capaces de mejorar sus procesos de aprendizaje. AlphaCode de DeepMind, por ejemplo, está impulsando el desarrollo de software generado por IA al optimizar la eficiencia de la escritura de códigos y mejorar la lógica algorítmica con el tiempo. Mientras tanto, los modelos de aprendizaje avanzados de Google DeepMind se entrenan con datos del mundo real, lo que les permite adaptarse dinámicamente y refinar los procesos de toma de decisiones con una mínima intervención humana.
Más importante aún, la IA ahora puede mejorarse a sí misma mediante la automejora recursiva, un proceso en el que los sistemas de IA perfeccionan sus propios algoritmos de aprendizaje y aumentan la eficiencia con una mínima intervención humana. Esta capacidad de autoaprendizaje está acelerando el desarrollo de la IA a un ritmo sin precedentes, acercando la industria a la ASI. Con los sistemas de IA perfeccionándose, optimizándose y mejorándose continuamente, el mundo está entrando en una nueva era de computación inteligente que evoluciona continuamente de forma independiente.
El camino hacia la superinteligencia: ¿Nos estamos acercando a la singularidad?:
La singularidad de la IA se refiere al punto en el que la inteligencia artificial supera la inteligencia humana y se mejora a sí misma sin intervención humana. En esta etapa, la IA podría crear versiones más avanzadas de sí misma en un ciclo continuo de automejora, lo que llevaría a avances rápidos más allá de la comprensión humana. Esta idea depende del desarrollo de la inteligencia artificial general (AGI), que puede realizar cualquier tarea intelectual que un humano puede realizar y, con el tiempo, progresar hacia la ASI.
Los expertos tienen opiniones diferentes sobre cuándo podría suceder esto. Ray Kurzweil, un futurista e investigador de IA en Google, predice que la IAG llegará en 2029, seguida de cerca por la IAI. Por otro lado, Elon Musk cree que la IAI podría surgir ya en 2027, señalando el rápido aumento de la potencia informática de la IA y su capacidad para escalar más rápido de lo esperado.
La capacidad de procesamiento de la IA se duplica cada seis meses, superando con creces la Ley de Moore, que predecía que la densidad de transistores se duplicaría cada dos años. Esta aceleración es posible gracias a los avances en el procesamiento paralelo, hardware especializado como las GPU y las TPU, y técnicas de optimización como la cuantificación de modelos y la dispersión.
Los sistemas de IA también se están volviendo más independientes. Algunos ahora pueden optimizar sus arquitecturas y mejorar los algoritmos de aprendizaje sin la intervención humana. Un ejemplo es Neural Architecture Search (NAS), donde la IA diseña redes neuronales para mejorar la eficiencia y el rendimiento. Estos avances conducen al desarrollo de modelos de IA que se perfeccionan continuamente, lo que es un paso esencial hacia la superinteligencia.
Dado el potencial de la IA para avanzar tan rápidamente, los investigadores de OpenAI, DeepMind y otras organizaciones están trabajando en medidas de seguridad para garantizar que los sistemas de IA sigan alineados con los valores humanos. Se están desarrollando métodos como el aprendizaje reforzado a partir de la retroalimentación humana (RLHF, por sus siglas en inglés) y mecanismos de supervisión para reducir los riesgos asociados con la toma de decisiones de la IA. Estos esfuerzos son fundamentales para guiar el desarrollo de la IA de manera responsable. Si la IA continúa progresando a este ritmo, la singularidad podría llegar antes de lo esperado.
La promesa y los riesgos de la IA superinteligente:
El potencial de ASI para transformar diversas industrias es enorme, particularmente en la medicina, la economía y la sostenibilidad ambiental.
En el ámbito sanitario, la ASI podría acelerar el descubrimiento de fármacos, mejorar el diagnóstico de enfermedades y descubrir nuevos tratamientos para el envejecimiento y otras enfermedades complejas.
En la economía, podría automatizar trabajos repetitivos, permitiendo a las personas centrarse en la creatividad, la innovación y la resolución de problemas.
A mayor escala, la IA también podría desempeñar un papel clave a la hora de abordar los desafíos climáticos optimizando el uso de la energía, mejorando la gestión de los recursos y encontrando soluciones para reducir la contaminación.
Sin embargo, estos avances conllevan riesgos importantes. Si la inteligencia artificial no se alinea correctamente con los valores y objetivos humanos, podría tomar decisiones que entren en conflicto con los intereses humanos, lo que daría lugar a resultados impredecibles o peligrosos. La capacidad de la inteligencia artificial para mejorar rápidamente plantea inquietudes sobre el control a medida que los sistemas de IA evolucionan y se vuelven más avanzados, por lo que garantizar que permanezcan bajo la supervisión humana se vuelve cada vez más difícil.
Entre los riesgos más importantes se encuentran:
Pérdida del control humano: a medida que la IA supere la inteligencia humana, puede comenzar a operar más allá de nuestra capacidad para regularla. Si no se implementan estrategias de alineación, la IA podría tomar medidas sobre las que los humanos ya no pueden influir.
Amenazas existenciales: si ASI prioriza su optimización sin tener en cuenta los valores humanos, podría tomar decisiones que amenacen la supervivencia de la humanidad.
Desafíos regulatorios: los gobiernos y las organizaciones luchan por seguir el ritmo del rápido desarrollo de la IA, lo que dificulta establecer políticas y salvaguardas adecuadas a tiempo.
Organizaciones como OpenAI y DeepMind están trabajando activamente en medidas de seguridad de la Inteligencia Artificial, incluidos métodos como RLHF, para mantener la Inteligencia Artificial alineada con las pautas éticas. Sin embargo, el progreso en la seguridad de la Inteligencia Artificial no se mantiene al ritmo de los rápidos avances de la IA, lo que genera inquietudes sobre si se tomarán las precauciones necesarias antes de que la IA alcance un nivel que esté más allá del control humano.
Si bien la Inteligencia Artificia; superinteligente es muy prometedora, no se pueden ignorar sus riesgos. Las decisiones que se tomen hoy definirán el futuro del desarrollo de la IA. Para garantizar que la IA beneficie a la humanidad en lugar de convertirse en una amenaza, los investigadores, los responsables de las políticas y la sociedad deben trabajar juntos para priorizar la ética, la seguridad y la innovación responsable.
El resultado final:
La rápida aceleración de la expansión de la Inteligencia Artificial nos acerca a un futuro en el que la inteligencia artificial supere a la humana. Si bien la Inteligencia Artificial ya ha transformado las industrias, la aparición de la inteligencia artificial podría redefinir la forma en que trabajamos, innovamos y resolvemos desafíos complejos. Sin embargo, este salto tecnológico conlleva riesgos importantes, incluida la posible pérdida de la supervisión humana y consecuencias impredecibles.
Garantizar que la Inteligencia Artificial siga alineada con los valores humanos es uno de los desafíos más críticos de nuestro tiempo. Los investigadores, los responsables de las políticas y los líderes de la industria deben colaborar para desarrollar salvaguardas éticas y marcos regulatorios que guíen a la IA hacia un futuro que beneficie a la humanidad. A medida que nos acercamos a la singularidad, nuestras decisiones de hoy darán forma a la forma en que la IA coexistirá con nosotros en los próximos años.
Dr. Assad Abbas
El Dr. Assad Abbas, profesor asociado titular de la Universidad COMSATS de Islamabad (Pakistán), obtuvo su doctorado en la Universidad Estatal de Dakota del Norte (EE. UU.). Su investigación se centra en tecnologías avanzadas, como la computación en la nube, en la niebla y en el borde, el análisis de big data y la inteligencia artificial. El Dr. Abbas ha realizado contribuciones sustanciales con publicaciones en revistas científicas y conferencias de prestigio.
Desde la empresa afirman que sus nuevos modelos experimentales superan a los de la china DeepSeek
El gigante tecnológico Google anunció este martes que la empresa prevé invertir 75.000 millones de dólares en gastos de capital en 2025, que irán dirigidos a desarrollar infraestructuras técnicas relacionadas con la inteligencia artificial (IA), como servidores y centros de datos, ya que necesita más “capacidad” para hacer frente a la demanda.
“Hemos tenido una demanda muy fuerte de nuestros productos de IA en el cuarto trimestre y cerramos el año con más demanda que capacidad disponible, así que estamos en una situación de oferta y demanda muy ajustada, trabajando duro para activar más capacidad”, dijo este martes el consejero delegado de Alphabet, Sundar Pichai.
El ejecutivo afirmó que sus nuevos modelos de inteligencia artificial (IA) experimentales superan a los de la empresa china DeepSeek y que va a incrementar sus gastos de capital para poder absorber la “fuerte demanda”.
En la conferencia para analizar los resultados con analistas, el ejecutivo explicó que el modelo de IA de Alphabet, llamado Gemini, despunta en “costo, rendimiento y tiempos de espera” y “lidera la frontera de Pareto”, un concepto económico que se refiere al punto de equilibrio de la eficiencia.
“Diría que nuestros modelos (de Gemini) 2.0 Flash y 2.0 Flash Thinking son algunos de los modelos más eficientes que hay, incluyendo al compararlos con los de DeepSeek, V3 y R1”, declaró Pichai, que pese a todo felicitó al «equipo tremendo» de DeepSeek, que ha hecho un «muy buen trabajo».
En el último trimestre de 2024, Google Cloud, el servicio de la nube, que incorpora la IA, tuvo ingresos de 11.955 millones, un 30 % más interanual, cifra que, no obstante, supone un crecimiento más lento respecto a otros trimestres y que los ejecutivos atribuyeron a las limitaciones frente a la demanda.
Pichai, además, vaticinó que las tecnológicas están aumentando el gasto en la inferencia de sus modelos de IA y dijo esperar que los “modelos de razonamiento”, que pueden usar la lógica para alcanzar conclusiones, aceleren más el desarrollo.
“Esa es parte de la razón por la que estamos tan emocionados por la oportunidad de la IA. Sabemos que podemos impulsar ejemplos de uso extraordinarios porque el costo real de usar la IA va a seguir bajando, haciendo factibles más ejemplos. El espacio de oportunidad es enorme”.
Max Tegmark y Yoshua Bengio advierten que las IA más inteligentes que los humanos con capacidad de actuar de forma autónoma podría ser peligrosas debido a la falta de controles claros
La inteligencia artificial general podría convertirse en un problema serio si no se establece un control adecuado sobre su desarrollo. Así lo advierten dos de los mayores expertos en IA, Max Tegmark, del Instituto Tecnológico de Massachusetts (MIT), y Yoshua Bengio, de la Universidad de Montreal, quienes han alertado sobre el peligro de construir sistemas demasiado avanzados.
El crecimiento acelerado de la inteligencia artificial ha llevado a la creación de sistemas denominados «agentes de IA», diseñados para actuar con mayor autonomía y tomar decisiones sin intervención humana directa.
Empresas líderes en el sector tecnológico promueven esta evolución con la promesa de mejorar la productividad y facilitar la vida cotidiana. Sin embargo, Bengio advierte, en el podcast Beyond The Valley de CNBC, que este enfoque implica un riesgo importante, el otorgar a la IA la capacidad de actuar por su cuenta sin una supervisión efectiva.
Según el investigador, la clave del problema radica en la agencia de la IA, es decir, su capacidad para establecer y perseguir objetivos propios. «Estamos creando una nueva forma de inteligencia en nuestro planeta sin saber si sus decisiones serán compatibles con nuestras necesidades», señala Bengio.
Esta incertidumbre es lo que lleva a los expertos a pedir una regulación estricta antes de que la tecnología avance demasiado.
El mayor temor de los especialistas no es solo la autonomía de estos sistemas, sino el potencial desarrollo de mecanismos de autopreservación dentro de la IA. Bengio se pregunta: «¿Queremos competir con entidades que son más inteligentes que nosotros? No es una apuesta muy tranquilizadora, ¿verdad? Por eso tenemos que entender cómo la autopreservación puede surgir como un objetivo en la IA».
Este escenario podría derivar en una falta de control sobre los sistemas avanzados, lo que haría que su evolución sea impredecible.
La posibilidad de que una IA busque su propia supervivencia o tome decisiones que no coincidan con las necesidades humanas plantea dilemas éticos y técnicos. Aunque por el momento no existe una inteligencia artificial que posea verdadera conciencia o intenciones, la tendencia actual hacia sistemas cada vez más autónomos genera preocupación entre los investigadores.
Herramientas de IA en lugar de una inteligencia artificial autónoma:
Max Tegmark propone una solución diferente al desarrollo de agentes autónomos, como centrarse en la creación de «IA herramienta». Este concepto se basa en diseñar sistemas inteligentes con propósitos específicos y bajo un marco de control estricto, en lugar de permitirles operar con plena autonomía.
Ejemplos de este enfoque incluyen herramientas avanzadas para la medicina, como sistemas capaces de sugerir tratamientos contra el cáncer, o vehículos autónomos diseñados con protocolos de seguridad que garanticen el control humano en todo momento. Tegmark cree que, con normas de seguridad adecuadas, la IA puede evolucionar sin convertirse en un riesgo.
«Creo que, siendo optimista, podemos tener casi todo lo que nos entusiasma de la IA… si simplemente insistimos en tener algunos estándares básicos de seguridad antes de que la gente pueda vender sistemas de IA potentes», sostiene Tegmark.
El problema es que actualmente no existen estándares globales que regulen el desarrollo de estos sistemas, lo que deja la puerta abierta a usos potencialmente peligrosos.
En 2023, el Future of Life Institute, liderado por Tegmark, instó a las empresas a pausar el desarrollo de sistemas de IA que puedan igualar o superar la inteligencia humana, hasta establecer medidas de control adecuadas. Aunque esta petición no se ha materializado, la discusión sobre los riesgos de la IA ha ganado relevancia en los últimos meses.
Silvia Cabrero Díez is a Spanish journalist specializing in technology and cybersecurity. She currently works as an editor at Computer Hoy, where she has published numerous articles on artificial intelligence, electronic devices, and technological trends. Computer Hoy +3
In addition to her work at Computer Hoy, Cabrero Díez has collaborated with other digital media outlets such as Xataka and Hobby Consolas, focusing on topics related to technology and science. Computer Hoy +2
In her free time, she loves reading and watching series and movies. Her journalistic approach is characterized by a clear and accessible style, aimed at a general audience interested in technology. Xataka Android