La singularidad de la Inteligencia Artificial y el fin de la Ley de Moore:el auge de las máquinas de autoaprendizaje

La singularidad de la Inteligencia Artificial y el fin de la Ley de Moore:el auge de las máquinas de autoaprendizaje


Singularidad de la Inteligencia Artificial y la superinteligencia

Colaboración del Dr. Assad Abbas

La Ley de Moore fue el modelo de oro para predecir el progreso tecnológico durante años. Introducida por Gordon Moore, cofundador de Intel, en 1965, establecía que la cantidad de transistores en un chip se duplicaría cada dos años, lo que haría que las computadoras fueran más rápidas, más pequeñas y baratas con el tiempo. Este avance constante impulsó todo, desde las computadoras personales y los teléfonos inteligentes hasta el auge de Internet.

Pero esa era está llegando a su fin. Los transistores están alcanzando ahora límites de escala atómica, y reducirlos aún más se ha vuelto increíblemente costoso y complejo. Mientras tanto, la potencia de procesamiento de la IA aumenta rápidamente, superando con creces la Ley de Moore. A diferencia de la informática tradicional, la IA se basa en hardware robusto y especializado y en el procesamiento paralelo para manejar datos masivos. Lo que distingue a la IA es su capacidad de aprender y refinar continuamente sus algoritmos, lo que conduce a rápidas mejoras en la eficiencia y el rendimiento.

Esta rápida aceleración nos acerca a un momento crucial conocido como la singularidad de la IA, el punto en el que la IA supera la inteligencia humana y comienza un ciclo imparable de autosuperación. Empresas como Tesla, Nvidia , Google DeepMind y OpenAI lideran esta transformación con potentes GPU, chips de IA personalizados y redes neuronales a gran escala . A medida que los sistemas de IA se vuelven cada vez más capaces de mejorar, algunos expertos creen que podríamos alcanzar la Superinteligencia Artificial (ASI) ya en 2027, un hito que podría cambiar el mundo para siempre.

A medida que los sistemas de IA se vuelven cada vez más independientes y capaces de optimizarse a sí mismos, los expertos predicen que podríamos llegar a la Superinteligencia Artificial (ASI) en 2027. Si esto sucede, la humanidad entrará en una nueva era en la que la IA impulsará la innovación, transformará las industrias y posiblemente superará el control humano. La pregunta es si la IA llegará a esta etapa, cuándo y si estamos listos.

Cómo los sistemas de escalabilidad y autoaprendizaje de la IA están transformando la informática

A medida que la Ley de Moore pierde fuerza, los desafíos de hacer transistores más pequeños se vuelven más evidentes. La acumulación de calor, las limitaciones de energía y el aumento de los costos de producción de chips han hecho que los avances en la computación tradicional sean cada vez más difíciles. Sin embargo, la IA está superando estas limitaciones no fabricando transistores más pequeños, sino cambiando el modo en que funciona la computación.

En lugar de depender de transistores cada vez más pequeños, la IA emplea procesamiento paralelo, aprendizaje automático y hardware especializado para mejorar el rendimiento. El aprendizaje profundo y las redes neuronales se destacan cuando pueden procesar grandes cantidades de datos simultáneamente, a diferencia de las computadoras tradicionales que procesan las tareas de manera secuencial. Esta transformación ha llevado al uso generalizado de GPU, TPU y aceleradores de IA diseñados explícitamente para cargas de trabajo de IA, lo que ofrece una eficiencia significativamente mayor.

A medida que los sistemas de IA se vuelven más avanzados, la demanda de mayor potencia computacional continúa aumentando. Este rápido crecimiento ha multiplicado por cinco la potencia computacional de la IA por año, superando con creces el crecimiento tradicional de dos veces cada dos años de la Ley de Moore. El impacto de esta expansión es más evidente en los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) como GPT-4, Gemini y DeepSeek, que requieren capacidades de procesamiento masivas para analizar e interpretar enormes conjuntos de datos, lo que impulsa la próxima ola de computación impulsada por la IA. Empresas como Nvidia están desarrollando procesadores de IA altamente especializados que ofrecen una velocidad y una eficiencia increíbles para satisfacer estas demandas.

La escalabilidad de la IA está impulsada por hardware de vanguardia y algoritmos de automejora, lo que permite que las máquinas procesen grandes cantidades de datos de manera más eficiente que nunca. Entre los avances más significativos se encuentra la supercomputadora Dojo de Tesla, un gran avance en la computación optimizada para IA diseñada explícitamente para entrenar modelos de aprendizaje profundo.

A diferencia de los centros de datos convencionales diseñados para tareas de uso general, Dojo está diseñado para manejar cargas de trabajo de IA masivas, en particular para la tecnología de conducción autónoma de Tesla. Lo que distingue a Dojo es su arquitectura personalizada centrada en la IA, que está optimizada para el aprendizaje profundo en lugar de la computación tradicional. Esto ha dado como resultado velocidades de entrenamiento sin precedentes y ha permitido a Tesla reducir los tiempos de entrenamiento de la IA de meses a semanas, al tiempo que reduce el consumo de energía mediante una gestión eficiente de la energía. Al permitir que Tesla entrene modelos más grandes y avanzados con menos energía, Dojo está desempeñando un papel vital en la aceleración de la automatización impulsada por la IA.

Sin embargo, Tesla no está sola en esta carrera. En toda la industria, los modelos de IA son cada vez más capaces de mejorar sus procesos de aprendizaje. AlphaCode de DeepMind, por ejemplo, está impulsando el desarrollo de software generado por IA al optimizar la eficiencia de la escritura de códigos y mejorar la lógica algorítmica con el tiempo. Mientras tanto, los modelos de aprendizaje avanzados de Google DeepMind se entrenan con datos del mundo real, lo que les permite adaptarse dinámicamente y refinar los procesos de toma de decisiones con una mínima intervención humana.

Más importante aún, la IA ahora puede mejorarse a sí misma mediante la automejora recursiva, un proceso en el que los sistemas de IA perfeccionan sus propios algoritmos de aprendizaje y aumentan la eficiencia con una mínima intervención humana. Esta capacidad de autoaprendizaje está acelerando el desarrollo de la IA a un ritmo sin precedentes, acercando la industria a la ASI. Con los sistemas de IA perfeccionándose, optimizándose y mejorándose continuamente, el mundo está entrando en una nueva era de computación inteligente que evoluciona continuamente de forma independiente.

El camino hacia la superinteligencia: ¿Nos estamos acercando a la singularidad?:

La singularidad de la IA se refiere al punto en el que la inteligencia artificial supera la inteligencia humana y se mejora a sí misma sin intervención humana. En esta etapa, la IA podría crear versiones más avanzadas de sí misma en un ciclo continuo de automejora, lo que llevaría a avances rápidos más allá de la comprensión humana. Esta idea depende del desarrollo de la inteligencia artificial general (AGI), que puede realizar cualquier tarea intelectual que un humano puede realizar y, con el tiempo, progresar hacia la ASI.

Los expertos tienen opiniones diferentes sobre cuándo podría suceder esto. Ray Kurzweil, un futurista e investigador de IA en Google, predice que la IAG llegará en 2029, seguida de cerca por la IAI. Por otro lado, Elon Musk cree que la IAI podría surgir ya en 2027, señalando el rápido aumento de la potencia informática de la IA y su capacidad para escalar más rápido de lo esperado.

La capacidad de procesamiento de la IA se duplica cada seis meses, superando con creces la Ley de Moore, que predecía que la densidad de transistores se duplicaría cada dos años. Esta aceleración es posible gracias a los avances en el procesamiento paralelo, hardware especializado como las GPU y las TPU, y técnicas de optimización como la cuantificación de modelos y la dispersión.

Los sistemas de IA también se están volviendo más independientes. Algunos ahora pueden optimizar sus arquitecturas y mejorar los algoritmos de aprendizaje sin la intervención humana. Un ejemplo es Neural Architecture Search (NAS), donde la IA diseña redes neuronales para mejorar la eficiencia y el rendimiento. Estos avances conducen al desarrollo de modelos de IA que se perfeccionan continuamente, lo que es un paso esencial hacia la superinteligencia.

Dado el potencial de la IA para avanzar tan rápidamente, los investigadores de OpenAI, DeepMind y otras organizaciones están trabajando en medidas de seguridad para garantizar que los sistemas de IA sigan alineados con los valores humanos. Se están desarrollando métodos como el aprendizaje reforzado a partir de la retroalimentación humana (RLHF, por sus siglas en inglés) y mecanismos de supervisión para reducir los riesgos asociados con la toma de decisiones de la IA. Estos esfuerzos son fundamentales para guiar el desarrollo de la IA de manera responsable. Si la IA continúa progresando a este ritmo, la singularidad podría llegar antes de lo esperado.

La promesa y los riesgos de la IA superinteligente:

El potencial de ASI para transformar diversas industrias es enorme, particularmente en la medicina, la economía y la sostenibilidad ambiental.

En el ámbito sanitario, la ASI podría acelerar el descubrimiento de fármacos, mejorar el diagnóstico de enfermedades y descubrir nuevos tratamientos para el envejecimiento y otras enfermedades complejas.

En la economía, podría automatizar trabajos repetitivos, permitiendo a las personas centrarse en la creatividad, la innovación y la resolución de problemas.

A mayor escala, la IA también podría desempeñar un papel clave a la hora de abordar los desafíos climáticos optimizando el uso de la energía, mejorando la gestión de los recursos y encontrando soluciones para reducir la contaminación.

Sin embargo, estos avances conllevan riesgos importantes. Si la inteligencia artificial no se alinea correctamente con los valores y objetivos humanos, podría tomar decisiones que entren en conflicto con los intereses humanos, lo que daría lugar a resultados impredecibles o peligrosos. La capacidad de la inteligencia artificial para mejorar rápidamente plantea inquietudes sobre el control a medida que los sistemas de IA evolucionan y se vuelven más avanzados, por lo que garantizar que permanezcan bajo la supervisión humana se vuelve cada vez más difícil.

Entre los riesgos más importantes se encuentran:

Pérdida del control humano: a medida que la IA supere la inteligencia humana, puede comenzar a operar más allá de nuestra capacidad para regularla. Si no se implementan estrategias de alineación, la IA podría tomar medidas sobre las que los humanos ya no pueden influir.

Amenazas existenciales: si ASI prioriza su optimización sin tener en cuenta los valores humanos, podría tomar decisiones que amenacen la supervivencia de la humanidad.

Desafíos regulatorios: los gobiernos y las organizaciones luchan por seguir el ritmo del rápido desarrollo de la IA, lo que dificulta establecer políticas y salvaguardas adecuadas a tiempo.

Organizaciones como OpenAI y DeepMind están trabajando activamente en medidas de seguridad de la Inteligencia Artificial, incluidos métodos como RLHF, para mantener la Inteligencia Artificial alineada con las pautas éticas. Sin embargo, el progreso en la seguridad de la Inteligencia Artificial no se mantiene al ritmo de los rápidos avances de la IA, lo que genera inquietudes sobre si se tomarán las precauciones necesarias antes de que la IA alcance un nivel que esté más allá del control humano.

Si bien la Inteligencia Artificia; superinteligente es muy prometedora, no se pueden ignorar sus riesgos. Las decisiones que se tomen hoy definirán el futuro del desarrollo de la IA. Para garantizar que la IA beneficie a la humanidad en lugar de convertirse en una amenaza, los investigadores, los responsables de las políticas y la sociedad deben trabajar juntos para priorizar la ética, la seguridad y la innovación responsable.

El resultado final:

La rápida aceleración de la expansión de la Inteligencia Artificial nos acerca a un futuro en el que la inteligencia artificial supere a la humana. Si bien la Inteligencia Artificial ya ha transformado las industrias, la aparición de la inteligencia artificial podría redefinir la forma en que trabajamos, innovamos y resolvemos desafíos complejos. Sin embargo, este salto tecnológico conlleva riesgos importantes, incluida la posible pérdida de la supervisión humana y consecuencias impredecibles.

Garantizar que la Inteligencia Artificial siga alineada con los valores humanos es uno de los desafíos más críticos de nuestro tiempo. Los investigadores, los responsables de las políticas y los líderes de la industria deben colaborar para desarrollar salvaguardas éticas y marcos regulatorios que guíen a la IA hacia un futuro que beneficie a la humanidad. A medida que nos acercamos a la singularidad, nuestras decisiones de hoy darán forma a la forma en que la IA coexistirá con nosotros en los próximos años.


Dr. Assad Abbas

El Dr. Assad Abbas, profesor asociado titular de la Universidad COMSATS de Islamabad (Pakistán), obtuvo su doctorado en la Universidad Estatal de Dakota del Norte (EE. UU.). Su investigación se centra en tecnologías avanzadas, como la computación en la nube, en la niebla y en el borde, el análisis de big data y la inteligencia artificial. El Dr. Abbas ha realizado contribuciones sustanciales con publicaciones en revistas científicas y conferencias de prestigio.

Google prevé invertir US$ 75.000 millones durante este año en desarrollo de IA

Google prevé invertir US$ 75.000 millones durante este año en desarrollo de IA


Desde la empresa afirman que sus nuevos modelos experimentales superan a los de la china DeepSeek

El gigante tecnológico Google anunció este martes que la empresa prevé invertir 75.000 millones de dólares en gastos de capital en 2025, que irán dirigidos a desarrollar infraestructuras técnicas relacionadas con la inteligencia artificial (IA), como servidores y centros de datos, ya que necesita más “capacidad” para hacer frente a la demanda.

“Hemos tenido una demanda muy fuerte de nuestros productos de IA en el cuarto trimestre y cerramos el año con más demanda que capacidad disponible, así que estamos en una situación de oferta y demanda muy ajustada, trabajando duro para activar más capacidad”, dijo este martes el consejero delegado de Alphabet, Sundar Pichai.

El ejecutivo afirmó que sus nuevos modelos de inteligencia artificial (IA) experimentales superan a los de la empresa china DeepSeek y que va a incrementar sus gastos de capital para poder absorber la “fuerte demanda”.

En la conferencia para analizar los resultados con analistas, el ejecutivo explicó que el modelo de IA de Alphabet, llamado Gemini, despunta en “costo, rendimiento y tiempos de espera” y “lidera la frontera de Pareto”, un concepto económico que se refiere al punto de equilibrio de la eficiencia.

“Diría que nuestros modelos (de Gemini) 2.0 Flash y 2.0 Flash Thinking son algunos de los modelos más eficientes que hay, incluyendo al compararlos con los de DeepSeek, V3 y R1”, declaró Pichai, que pese a todo felicitó al «equipo tremendo» de DeepSeek, que ha hecho un «muy buen trabajo».

En el último trimestre de 2024, Google Cloud, el servicio de la nube, que incorpora la IA, tuvo ingresos de 11.955 millones, un 30 % más interanual, cifra que, no obstante, supone un crecimiento más lento respecto a otros trimestres y que los ejecutivos atribuyeron a las limitaciones frente a la demanda.

Pichai, además, vaticinó que las tecnológicas están aumentando el gasto en la inferencia de sus modelos de IA y dijo esperar que los “modelos de razonamiento”, que pueden usar la lógica para alcanzar conclusiones, aceleren más el desarrollo.

“Esa es parte de la razón por la que estamos tan emocionados por la oportunidad de la IA. Sabemos que podemos impulsar ejemplos de uso extraordinarios porque el costo real de usar la IA va a seguir bajando, haciendo factibles más ejemplos. El espacio de oportunidad es enorme”.

Dos de los grandes expertos mundiales de la IA hacen saltar las alarmas: «Podríamos estar en problemas»

Dos de los grandes expertos mundiales de la IA hacen saltar las alarmas: «Podríamos estar en problemas»

Max Tegmark y Yoshua Bengio advierten que las IA más inteligentes que los humanos con capacidad de actuar de forma autónoma podría ser peligrosas debido a la falta de controles claros

La inteligencia artificial general podría convertirse en un problema serio si no se establece un control adecuado sobre su desarrollo. Así lo advierten dos de los mayores expertos en IA, Max Tegmark, del Instituto Tecnológico de Massachusetts (MIT), y Yoshua Bengio, de la Universidad de Montreal, quienes han alertado sobre el peligro de construir sistemas demasiado avanzados.

El crecimiento acelerado de la inteligencia artificial ha llevado a la creación de sistemas denominados «agentes de IA», diseñados para actuar con mayor autonomía y tomar decisiones sin intervención humana directa.

Empresas líderes en el sector tecnológico promueven esta evolución con la promesa de mejorar la productividad y facilitar la vida cotidiana. Sin embargo, Bengio advierte, en el podcast Beyond The Valley de CNBC, que este enfoque implica un riesgo importante, el otorgar a la IA la capacidad de actuar por su cuenta sin una supervisión efectiva.

Según el investigador, la clave del problema radica en la agencia de la IA, es decir, su capacidad para establecer y perseguir objetivos propios. «Estamos creando una nueva forma de inteligencia en nuestro planeta sin saber si sus decisiones serán compatibles con nuestras necesidades», señala Bengio.

Esta incertidumbre es lo que lleva a los expertos a pedir una regulación estricta antes de que la tecnología avance demasiado.

El mayor temor de los especialistas no es solo la autonomía de estos sistemas, sino el potencial desarrollo de mecanismos de autopreservación dentro de la IA. Bengio se pregunta: «¿Queremos competir con entidades que son más inteligentes que nosotros? No es una apuesta muy tranquilizadora, ¿verdad? Por eso tenemos que entender cómo la autopreservación puede surgir como un objetivo en la IA».

Este escenario podría derivar en una falta de control sobre los sistemas avanzados, lo que haría que su evolución sea impredecible.

La posibilidad de que una IA busque su propia supervivencia o tome decisiones que no coincidan con las necesidades humanas plantea dilemas éticos y técnicos. Aunque por el momento no existe una inteligencia artificial que posea verdadera conciencia o intenciones, la tendencia actual hacia sistemas cada vez más autónomos genera preocupación entre los investigadores.

Herramientas de IA en lugar de una inteligencia artificial autónoma:

Max Tegmark propone una solución diferente al desarrollo de agentes autónomos, como centrarse en la creación de «IA herramienta». Este concepto se basa en diseñar sistemas inteligentes con propósitos específicos y bajo un marco de control estricto, en lugar de permitirles operar con plena autonomía.

Ejemplos de este enfoque incluyen herramientas avanzadas para la medicina, como sistemas capaces de sugerir tratamientos contra el cáncer, o vehículos autónomos diseñados con protocolos de seguridad que garanticen el control humano en todo momento. Tegmark cree que, con normas de seguridad adecuadas, la IA puede evolucionar sin convertirse en un riesgo.

«Creo que, siendo optimista, podemos tener casi todo lo que nos entusiasma de la IA… si simplemente insistimos en tener algunos estándares básicos de seguridad antes de que la gente pueda vender sistemas de IA potentes», sostiene Tegmark.

El problema es que actualmente no existen estándares globales que regulen el desarrollo de estos sistemas, lo que deja la puerta abierta a usos potencialmente peligrosos.

En 2023, el Future of Life Institute, liderado por Tegmark, instó a las empresas a pausar el desarrollo de sistemas de IA que puedan igualar o superar la inteligencia humana, hasta establecer medidas de control adecuadas. Aunque esta petición no se ha materializado, la discusión sobre los riesgos de la IA ha ganado relevancia en los últimos meses.


Silvia Cabrero Díez is a Spanish journalist specializing in technology and cybersecurity. She currently works as an editor at Computer Hoy, where she has published numerous articles on artificial intelligence, electronic devices, and technological trends.
Computer Hoy +3

In addition to her work at Computer Hoy, Cabrero Díez has collaborated with other digital media outlets such as Xataka and Hobby Consolas, focusing on topics related to technology and science. Computer Hoy +2

In her free time, she loves reading and watching series and movies. Her journalistic approach is characterized by a clear and accessible style, aimed at a general audience interested in technology. Xataka Android

Amazon, Google, Meta y Microsoft ignoran a DeepSeek: mantendrán sus inversiones millonarias en inteligencia artificial

Amazon, Google, Meta y Microsoft ignoran a DeepSeek: mantendrán sus inversiones millonarias en inteligencia artificial

  • Las grandes tecnológicas hacen caso omiso a DeepSeek y a sus inversores: van a gastar en inteligencia artificial cerca de 290.000 millones de euros en 2025.
  • Durante sus recientes presentaciones de resultados trimestrales, las grandes tecnológicas han confirmado su intención de seguir adelante con las inversiones masivas en desarrollo de modelos y construcción de infraestructuras de IA.

Cuando DeepSeek saltó a la palestra hace ya unas semanas y demostró —publicación de artículo académico mediante— que era posible desarrollar y llevar a cabo el entrenamiento de un modelo de inteligencia artificial (IA) tan potente como los más punteros de OpenAI, todo parecía indicar que las Big Tech iban a tomar nota. 

Si esta startup china podía hacerle la competencia a la desarrolladora de ChatGPT utilizando unos microchips de Nvidia considerablemente menos potentes que los que la empresa de Jensen Huang está tratando de comercializar hoy, las grandes compañías del sector tecnológico podían cerrarle el grifo a la inversión en IA. 

Además, el modelo desarrollado por la compañía de Liang Wenfeng parecía haber llegado en el momento justo para que eso fuese así: unos días antes de que tuviesen lugar las presentaciones de resultados trimestrales de las principales firmas de tecnología, en las que sus accionistas podían cuestionarles por seguir invirtiendo tanto dinero en inteligencia artificial cuando DeepSeek había demostrado que no era necesario. 

Sin embargo, parece que ni los inversores especializados en este sector ni la propia startup china han conseguido girar el timón del gasto masivo en IA. 

Como recoge Financial Times, las cuatro principales empresas del sector tecnológico en Estados Unidos —Alphabet (Google), Amazon, Meta (Facebook) y Microsoft— tienen previsto invertir en inteligencia artificial más de 300.000 millones de dólares (unos 289.000 millones de euros al tipo de cambio actual) durante el año 2025.

Los 300.000 millones se deberían en gran parte a Amazon, que ha superado a sus rivales directos y ha anunciado un gasto previsto para este año de más de 100.000 millones de dólares (96.000 millones de euros) en infraestructura de IA. Por ejemplo, para la construcción de nuevos centros de datos para filial, Amazon Web Services o AWS.

Según ha informado el medio británico, la inversión en inteligencia artificial de estas cuatro compañías ya aumentó un 63% el año pasado, hasta alcanzar niveles históricos, pero ahora los ejecutivos de estas organizaciones han prometido acelerar todavía más su gasto en IA, ignorando así las preocupaciones de los accionistas respecto a las enormes sumas que se están destinando a esta incipiente tecnología. 

Cabe recordar aquí que, tanto Microsoft como la matriz de Google (Alphabet) han llegado a perder estos días hasta 200.000 millones de dólares (192.000 millones de euros) de valor de mercado tras haber presentado unos resultados financieros más débiles de lo esperado en sus respectivas divisiones de computación en la nube. 

El director del fondo de crecimiento concentrado de Estados Unidos en Alliance Bernstein, Jim Tierney, ha declarado a Financial Times que «el entusiasmo desenfrenado en todo el sector por los Siete Magníficos ha sido reemplazado por focos de escepticismo y ha creado algunas situaciones de a ver, enséñame«.

«Las preocupaciones que he tenido desde el verano se han magnificado hoy», ha reconocido este analista en bolsa, que ha añadido: «Si vemos —o cuando veamos— la aceleración del crecimiento de la nube en Google o Azure [de Microsoft], o veamos mejorar la aceptación de Copilot, los inversores se sentirán más cómodos invirtiendo en Alphabet o Microsoft. Mientras tanto, los modelos de IA más baratos y comercializados probablemente amplificarán las preocupaciones de los accionistas»


Ramón Armero es periodista y escritor, colaborador de Business Insider España. Ha colaborado con otros periodistas como Hugh Langley y Hasan Chowdhury en artículos relacionados con la inteligencia artificial y las empresas tecnológicas.

Ray Kurzweil – Duración de la vida humana

Ray Kurzweil – Duración de la vida humana

Ray Kurzweil ha acertado muchas predicciones que años atrás parecían del todo inverosímiles. Es uno de los grandes profetas tecnológicos del mundo y asegura que a partir de 2032 dejaremos de envejecer gracias a la IA.

La idea de la inmortalidad ha sido un sueño de la humanidad desde tiempos inmemoriales. Pero, según Ray Kurzweil, uno de los futuristas más influyentes del mundo y actual investigador principal de Google, la posibilidad de detener el envejecimiento y revertir la edad biológica podría estar a solo unos años de convertirse en realidad.

Kurzweil, quien ha acertado en muchas de sus predicciones tecnológicas del pasado, afirma que la convergencia entre la Inteligencia Artificial (IA), la biotecnología y la nanotecnología permitirá que, a partir de 2032, por cada año que vivamos, ganemos otro, logrando así la llamada “Velocidad de Escape de la Longevidad”.

La IA como la clave para la inmortalidad:

En una reciente entrevista con El País, Kurzweil detalla su visión sobre el futuro de la humanidad y cómo la IA jugará un papel clave en detener el envejecimiento y mejorar la biología humana. Según el tecnólogo, la ciencia ya está avanzando hacia una etapa en la que la IA será capaz de desarrollar soluciones médicas personalizadas en tiempo real, acelerando el descubrimiento de fármacos y permitiendo que la longevidad humana aumente exponencialmente.

“Ahora, cuando vives un año, pierdes otro de tu longevidad. Pero alrededor de 2032, por cada año que vivas, ganarás otro. Tu salud retrocederá en el tiempo”, afirmó Kurzweil.

Este planteamiento está basado en lo que él llama la “Ley de Rendimientos Acelerados”, la cual indica que el progreso tecnológico sigue una curva exponencial y no lineal. Es decir, los avances que antes tardaban décadas en desarrollarse ahora ocurren en cuestión de años o incluso meses.

Nanorobots en el cuerpo humano:

El siguiente paso. Otro de los pilares que sustentan la predicción de Kurzweil es el uso de nanorobots en la medicina, un tema que abordó en su libro The Singularity is Nearer y que ha sido analizado en un artículo publicado por Popular Mechanics.

Los nanorobots son unas esferas de sílice de media micra de diámetro envueltas por muchísimas enzimas de ureasa. Estas reaccionan con la urea presente en nuestra orina y producen movimiento.

Según el futurista, en las próximas dos décadas los nanorobots podrán circular por el torrente sanguíneo humano, reparando células dañadas, eliminando toxinas y rejuveneciendo órganos y tejidos. “Los nanobots podrán mantener el cuerpo en un estado de salud óptimo indefinidamente. Incluso podrán reemplazar por completo los órganos biológicos si es necesario”, explica en Popular Mechanics.

En su visión del futuro, el cuerpo humano podría estar compuesto en más de un 99,9% por tecnología, permitiendo incluso la fusión total entre el cerebro y la nube.

¿Realidad o ciencia ficción?:

Predicciones acertadas. Si bien muchas de sus predicciones han generado escepticismo en la comunidad científica, lo cierto es que muchas de sus afirmaciones pasadas han terminado cumpliéndose. En su libro La Singularidad está cerca, publicado en 2005, Kurzweil predijo que en 2029 la Inteligencia Artificial superaría a la inteligencia humana, algo que hoy en día parece cada vez más cercano con el avance de modelos como GPT-4, Gemini o DeepMind.

El investigador insiste en que la humanidad está en camino de trascender sus limitaciones biológicas y que, en cuestión de dos décadas, podríamos alcanzar un punto en el que morir de vejez ya no sea una inevitabilidad, sino una opción.


Marc Mestres es periodista especializado en redes sociales y contenido viral en internet. Escribe para E-Notícies en la sección «Lo +», donde cubre tendencias populares y temas virales. Nacido en Sant Feliu de Llobregat en 1991, Mestres es licenciado en Periodismo por la Universidad Ramon Llull (URL) y tiene un Máster en Marketing Digital por la Universidad Internacional de La Rioja (UNIR). Comenzó su carrera con prácticas en Catalunya Ràdio y, desde entonces, ha colaborado con varios medios de comunicación destacados, como Radio Marca Barcelona, ​​El Nacional y Mundo Deportivo. Actualmente, gestiona el contenido de Cribeo en La Vanguardia. Además de su trabajo en medios digitales, Mestres ha colaborado en artículos sobre temas tecnológicos, como las predicciones de Ray Kurzweil sobre la inteligencia artificial y la longevidad humana.

error: Content is protected !!