¿DeepSeek? ¿Agencial? ¿Modelos de frontera? Conceptos básicos para seguir el paso a la revolución de la inteligencia artificial
La startup china DeepSeek ofrece modelos de IA avanzados que igualan (e incluso superan) a los de OpenAI, Google o Meta, pero a una fracción del costo.
- Estas son las empresas, personas y conceptos que debes conocer para entender qué es la inteligencia artificial y no perderte ante su vertiginoso desarrollo.
- Los chatbots como ChatGPT, de OpenAI, están cambiando la forma en la que se busca información en internet, se generan imágenes y mucho más.
Cada vez resulta más difícil ignorar a la inteligencia artificial (IA).
Desde que OpenAI lanzó ChatGPT a finales de 2022, la gente se ha acostumbrado a utilizar este chatbot y sus muchos competidores para todo, desde automatizar sus tareas en el trabajo hasta planificar sus vacaciones.
Y, con países como China, que están avanzando en sus propias capacidades de IA, Estados Unidos lucha por el dominio en esta industria a medida que se intensifica la carrera armamentística de la inteligencia artificial.
Incluso si en tu caso particular no utilizas la IA en tu vida cotidiana, esta tecnología en rápida evolución está moldeando cada vez más el mundo que te rodea, generando así una necesidad creciente de comprender qué es y cómo puede afectarte, ahora y en el futuro.
Para ayudar a entender su impacto, aquí tienes una breve lista de las personas, empresas y palabras que tienes que conocer para hablar con propiedad sobre la inteligencia artificial.
Los principales líderes y empresas de IA:
Sam Altman: cofundador y consejero delegado de OpenAI, la empresa que está detrás de ChatGPT. En 2023, Altman fue destituido por el consejo de administración de OpenAI para regresar a la compañía como CEO días después.
Dario Amodei: consejero delegado y cofundador de Anthropic, un importante rival de OpenAI, donde trabajó anteriormente. La startup de IA está detrás de un chatbot al que llama Claude 2. Google y Amazon son inversores en Anthropic.
Demis Hassabis: cofundador de DeepMind y ahora CEO de Google DeepMind, Hassabis dirige sus esfuerzos en materia de inteligencia artificial en Alphabet.
Jensen Huang: consejero delegado y cofundador de Nvidia, el gigante tecnológico que está detrás de los microchips especializados que las empresas utilizan para impulsar su apuesta por la IA.
Elon Musk: CEO de Tesla y SpaceX, fundó la startup de inteligencia artificial xAI en 2023. La valoración de esta nueva compañía había aumentado drásticamente a finales del año pasado, situándose en unos 50.000 millones de dólares (48.000 millones de euros al tipo de cambio actual). Musk también cofundó OpenAI y, tras dejar la compañía en 2018, ha mantenido una agria disputa con Altman.
Satya Nadella: consejero delegado de Microsoft, el gigante del software que está detrás de Bing, el motor de búsqueda basado en IA, y de Copilot, un conjunto de herramientas de inteligencia artificial generativa. Microsoft también invierte en OpenAI.
Mustafa Suleyman: cofundador de DeepMind, la división de IA de Google, que dejó la organización en 2022. Cofundó Inflection AI antes de unirse a Microsoft como director de inteligencia artificial en marzo de 2024.
Liang Wenfeng: gestor de fondos de cobertura, fundó la startup china de IA DeepSeek en 2023. Hace unas semanas, la empresa emergente causó sensación en el sector de la inteligencia artificial con su modelo estrella, R1, que rivaliza con sus principales competidores en capacidad, pero operando a una fracción del coste.
Mark Zuckerberg: fundador de Facebook y CEO de Meta, ha estado invirtiendo mucho para mejorar las capacidades de IA de Meta, incluyendo el entrenamiento de sus propios modelos y la integración de la tecnología en sus plataformas.
Los principales términos de IA:
Agencial: un tipo de inteligencia artificial que puede tomar decisiones proactivas y autónomas con una intervención humana limitada. A diferencia de los modelos de IA generativa, como ChatGPT, la inteligencia artificial agencial no necesita de una petición humana para actuar; por ejemplo, puede realizar tareas complejas y adaptarse cuando sus objetivos cambian. Gemini 2.0 se centra en la IA agencial que puede resolver problemas de varios pasos por sí sola.
AGI: son las siglas en inglés de inteligencia artificial general, es decir, la capacidad de la IA para realizar tareas cognitivas complejas, como mostrar autoconciencia y pensamiento crítico, del mismo modo que lo hacen los humanos.
Alineación: campo de investigación sobre la seguridad de la inteligencia artificial que pretende garantizar que los objetivos, decisiones y comportamientos de los sistemas de IA sean coherentes con los valores e intenciones humanos. En julio de 2023, OpenAI anunció la creación de un equipo de superalineación que se iba a dedicar a hacer que su IA fuese segura. Ese mismo equipo se disolvió más tarde y, en mayo de ese año, la compañía creó un comité de seguridad y protección para asesorar a su consejo de administración sobre «decisiones críticas de seguridad y protección».
Sesgo: dado que los modelos de inteligencia artificial se entrenan con datos que han sido creados por seres humanos, también pueden adoptar los mismos sesgos presentes en esos datos. Existen varios tipos diferentes de sesgos a los que los modelos de IA pueden sucumbir, incluidos el sesgo de prejuicio, el sesgo de medición, el sesgo cognitivo y el sesgo de exclusión, los cuales pueden distorsionar sus resultados.
Orden ejecutiva de Biden sobre la inteligencia artificial: el expresidente estadounidense, Joe Biden, firmó esta histórica orden ejecutiva en 2023. En ella se establecían una serie de medidas para tratar de regular el desarrollo de la IA, entre ellas, exigir una mayor transparencia a las empresas tecnológicas que la desarrollan, establecer nuevas normas de seguridad y protección, y adoptar medidas para garantizar que EE. UU. siga siendo competitivo en investigación y desarrollo de inteligencia artificial.
Como prometió durante su campaña electoral, el nuevo presidente estadounidense, Donald Trump, rescindió la orden de Biden sobre IA durante su primera semana en el cargo y firmó su propia orden ejecutiva en la que le pedía al país norteamericano «mantener y mejorar el dominio global de Estados Unidos en inteligencia artificial».
Computación: recursos informáticos de IA necesarios para entrenar modelos y realizar tareas, incluido el procesamiento de datos. Esto puede incluir GPU, servidores y servicios en la nube.
Deepfake: imagen, vídeo o voz generada por inteligencia artificial con la intención de parecer real y que tiende a utilizarse para engañar a espectadores u oyentes. Los deepfakes se han utilizado para crear pornografía no consentida y extorsionar a la gente a cambio de dinero.
Destilación: proceso de extraer el proceso de razonamiento y el conocimiento aprendido de un modelo de IA más grande y ya existente a un modelo nuevo y más pequeño, es decir, copiar un modelo de inteligencia artificial para crear uno propio.
Altruistas eficaces: en términos generales, se trata de un movimiento social que se basa en la idea de que todas las vidas son igual de valiosas y los que tienen recursos deben destinarlos a ayudar al mayor número de personas posible. En el contexto de la IA, los altruistas eficaces se interesan por cómo puede utilizarse esta tecnología de forma segura para reducir el sufrimiento causado por males sociales como el cambio climático o la pobreza. Líderes empresariales como Elon Musk, Sam Bankman-Fried o Peter Thiel se identifican como altruistas eficaces.
Modelos de frontera: ejemplos más avanzados de inteligencia artificial. El Frontier Model Forum, una organización sin ánimo de lucro del sector creada por Microsoft, Google, OpenAI y Anthropic en 2023, define los modelos de frontera o fronterizos como «modelos de aprendizaje automático a gran escala que superan las capacidades presentes actualmente en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas».
GPU: chip informático, abreviatura de unidad de procesamiento gráfico, que las empresas utilizan para entrenar y desplegar sus modelos de IA. Microsoft y Meta utilizan las GPU de Nvidia para ejecutar sus modelos de inteligencia artificial.
Alucinación: fenómeno en el que un gran modelo lingüístico (véase más adelante) genera información inexacta que presenta como un hecho. Por ejemplo, durante una de sus primeras demostraciones, el chatbot de IA de Google, Bard, alucinó al generar un error de facto sobre el telescopio espacial James Webb.
Gran modelo lingüístico (LLM): complejo programa informático diseñado para comprender y generar texto similar al humano. El modelo se entrena con grandes cantidades de datos y produce respuestas extrayendo información de todo internet. Algunos ejemplos de LLM son GPT-4, de OpenAI, Llama 3, de Meta, o Gemini, de Google.
Aprendizaje automático: también conocido como aprendizaje profundo, el aprendizaje automático se refiere a los sistemas de inteligencia artificial que pueden adaptarse y aprender por sí mismos, sin seguir instrucciones humanas ni programación explícita.
Multimodal: capacidad de los modelos de IA de procesar texto, imágenes y audio para generar un resultado. Los usuarios de ChatGPT, por ejemplo, pueden escribir, hablar y subir imágenes al chatbot de inteligencia artificial.
Procesamiento del lenguaje natural (PNL): término general que abarca una variedad de métodos para interpretar y comprender el lenguaje humano. Los LLM son una herramienta para interpretar el lenguaje dentro del campo del PLN.
Red neuronal: programa de aprendizaje automático, también conocido como aprendizaje profundo, diseñado para pensar y aprender como un cerebro humano. Los sistemas de reconocimiento facial, por ejemplo, se diseñan utilizando redes neuronales con el fin de identificar a una persona analizando sus rasgos faciales.
Código abierto: rasgo utilizado para describir un programa informático al que cualquiera puede acceder, utilizar y modificar libremente sin pedir permiso. Algunos expertos en IA han pedido que los modelos que hay detrás de IA como ChatGPT sean de código abierto para que el público sepa cómo se entrenan exactamente.
Reconocimiento óptico de caracteres: una tecnología que puede reconocer texto dentro de imágenes, como documentos escaneados, texto en fotos o PDF de solo lectura, y extraerlo a un formato de solo texto que las máquinas puedan leer.
Ingeniería de prompts: el proceso de plantear preguntas (prompts) a los chatbots de inteligencia artificial para obtener las respuestas deseadas. Como profesión, los ingenieros de prompts son expertos en afinar los modelos de IA en el back-end para mejorar los resultados.
Racionalistas: personas que creen que la forma más eficaz de entender el mundo es a través de la lógica, la razón y las pruebas científicas. Sacan conclusiones mediante la recopilación de pruebas y el pensamiento crítico en lugar de seguir sus sentimientos personales.
En lo que respecta a la inteligencia artificial, los racionalistas tratan de responder a preguntas como cómo puede ser más inteligente, cómo puede resolver problemas complejos y cómo puede procesar mejor la información sobre riesgos. Esto se opone a los empiristas, que, en el contexto de la IA, pueden favorecer avances en la IA respaldados por datos observacionales.
Políticas de escalado responsables: directrices que deben seguir los desarrolladores de inteligencia artificial y que están diseñadas para mitigar los riesgos de seguridad y garantizar el desarrollo responsable de los sistemas de IA, su impacto en la sociedad y los recursos que consumirán, como la energía y los datos. Estas políticas ayudan a garantizar que la tecnología sea ética, beneficiosa y sostenible a medida que los sistemas se vuelven más potentes.
Singularidad: momento hipotético en el que la inteligencia artificial avanza tanto que la tecnología supera a la inteligencia humana. Piensa en un escenario de ciencia ficción en el que un robot de IA desarrolla su propia personalidad y se apodera del mundo.