OpenAI lanzó O3: cada vez más cerca de la Inteligencia Artificial General

OpenAI lanzó O3: cada vez más cerca de la Inteligencia Artificial General

En noviembre de 2022 OpenAI sorprendió al mundo con el lanzamiento de ChatGPT, su reconocido chatbot potenciado con Inteligencia Artificial. A más de dos años de su icónico desarrollo, la empresa presentó O3, una nueva familia de modelos de razonamiento que prometen revolucionar aún más el campo de la tecnología.

En detalle, la compañía dirigida por Sam Altman presentó dos versiones de su reciente algoritmo: O3 estándar – diseñado para procesar grandes cantidades de datos y realizar tareas generales – y O3 mini opera, con una cantidad sensiblemente menor de parámetros e ideal para realizar tareas más específicas. Así, lo nuevo de OpenAI da un paso más allá e intenta acercarse a la consagración de una Inteligencia Artificial General (AGI por sus siglas en inglés).

Lanzado el 20 de diciembre de 2024, el nuevo desarrollo de OpenAI logró avances destacados en: razonamiento abstracto, matemática avanzada y programación, entre otros. O3 pertenece a una nueva familia de productos basados en ChatGPT que, a diferencia del reconocido chatbot y de su antecesor O1, invierte más tiempo – y dinero – para evaluar alternativas antes de generar una respuesta para el usuario.

La evaluación ARC-AGI, diseñada para medir avances de las distintas herramientas en su camino a convertirse en una AGI, alcanzó un puntaje del 87,5%, rendimiento que es comparable al que puede lograr humano. Este tipo de evaluaciones incluye, por ejemplo, la resolución de puzzles lógicos visuales, simples para humanos pero difíciles para computadoras.

En detalle, O3 también obtuvo resultados destacados en ingeniería de software y en una competencia de programación Codeforce, logrando ubicarse en el puesto 175 a nivel mundial. Pero los avances no se detienen ahí: la nueva familia de OpenAI sorprendió con resultados altísimos en una evaluación de matemática de complejidad

A pesar de las expectativas, algunos detractores de la industria de la Inteligencia Artificial tildan el anuncio como exagerado. Tal es el caso del mismo creador ARC-AGI, quién señaló que en la actualidad ya existen herramientas mucho más baratas que pueden lograr un 80% en dicha evaluación. El principal obstáculo que encuentra O3 es lograr generalizar sus conocimientos a otras tareas.

Por el momento, los aficionados a la tecnología tendrán que esperar para acceder a los nuevos modelo de razonamiento insignia de OpenAI. Desde la empresa anunciaron que los investigadores de seguridad pueden apuntarse en una lista de esperar para probar el modelo y la firma norteamericana espera lanzar su nuevo avance al público más adelante, aunque aún no se confirmó si se hará en un formato pago o gratuito.

A grandes rasgos, la Inteligencia Artificial General es el próximo paso para los desarrolladores de IA. Este tipo de sistemas automáticos son, en teoría, capaces de realizar con éxito cualquier tarea intelectual que los seres humanos realicen.

Es decir, las AGI poseerán la capacidad de comprender o aprender cualquier tarea intelectual que pueda realizar un ser humano. En pocas palabras, es un tipo de herramienta cuyo objetivo es imitar las habilidades cognitivas del cerebro humano.

Además de las características principales mencionadas anteriormente, los sistemas AGI también poseen ciertas otros rasgos que los diferencian de las IA que conocemos actualmente. Entre ellos se encuentran:

Capacidad de generalización: AGI puede transferir sus aprendizajes y habilidades de un campo del conocimiento a otro. Esto le permite adaptarse con eficacia a situaciones nuevas y no vistas.

Conocimiento del sentido común: las AGI también tendrán un amplio conocimiento sobre el mundo, que puede incluir distintas áreas tales como; hechos; relaciones y normas sociales. Esto genera un razonamiento más profundo sobre el que se toman las decisiones.

La investigación y el desarrollo de la AGI exige la colaboración interdisciplinaria entre campos como la informática, la neurociencia y la psicología cognitiva.

A comparación con las herramientas actuales al alcance de los usuarios, la AGI presenta un nivel mayor de autonomía y generalidad de las funciones que pueden desempeñar. Mientras que la primera se dedica exclusivamente a resolver tareas para las que fue específicamente programada, la AGI permitiría a una máquina operar en una amplia gama de actividades gracias a su capacidad de generalización y transferencia de conocimiento de un área a otra. Actualmente, el campo de la AGI se encuentra en una fase exploratoria. Sin embargo, el lanzamiento de O3 y la férrea competencia entre OpenAI, Google y X, entre otros, vislumbra un futuro no muy lejano donde este tipo de herramientas sean parte de la vida cotidiana de las personas.

La nueva Inteligencia Digital que moverá 423.000 millones de dólares para 2027

La nueva Inteligencia Digital que moverá 423.000 millones de dólares para 2027

Los sistemas de agentes de IA no solo representan una tecnología de vanguardia, sino una transformación esencial en la forma en que las empresas operan y compiten.

En un mundo cada vez más interconectado, la inteligencia artificial (IA) continúa transformando sectores clave. Entre las innovaciones más disruptivas se encuentran los sistemas de agentes de IA, herramientas autónomas diseñadas para analizar, planificar y aprender en entornos dinámicos. Según un informe de IDC, se espera que el gasto empresarial en soluciones de inteligencia artificial alcance los 423.000 millones de dólares para 2027, con una tasa de crecimiento anual compuesta (CAGR) del 26,9% entre 2022 y 2027. 

A diferencia de las inteligencias artificiales tradicionales, que funcionan como asistentes pasivos, los agentes de IA operan como unidades autónomas capaces de colaborar y resolver problemas complejos. Estos sistemas no solo procesan datos, sino que toman decisiones informadas, adaptándose continuamente a nuevos escenarios.

En un mundo cada vez más interconectado, la inteligencia artificial (IA) continúa transformando sectores clave.

Agentes individuales, diseñados para tareas específicas como análisis financiero o atención al cliente.

Sistemas multiagente, que funcionan como equipos virtuales especializados, ideales para resolver problemas de mayor complejidad en sectores como manufactura, logística y salud.

Atención al cliente: empresas líderes en tecnología utilizan agentes para resolver solicitudes en segundos, reduciendo costos operativos hasta en un 30%.

Educación personalizada: plataformas educativas basadas en IA crean rutas de aprendizaje a medida, mejorando los resultados académicos de los estudiantes en un 25%.

Salud: los agentes diseñan tratamientos personalizados y procesan análisis médicos con una precisión del 90%.

Logística: las empresas que han adoptado agentes de IA en sus operaciones reportan una mejora del 20% en la eficiencia de sus cadenas de suministro.

La humanidad se encuentra vivenciando el inicio de una nueva era tecnológica donde los sistemas de agentes de IA no solo facilitan procesos, sino que transforman completamente la manera en que las empresas operan. En Snoop Consulting, se cree que la clave está en diseñar agentes que no solo sean efectivos, sino que también se adapten a los valores y objetivos de cada organización.

El verdadero valor de los agentes de IA radica en su capacidad para ser aliados tecnológicos, no simples herramientas. Esto significa diseñar soluciones que no sólo respondan a problemas actuales, sino que también anticipen necesidades futuras, ayudando a las empresas a mantenerse competitivas en un mercado que evoluciona a gran velocidad. Su capacidad para adaptarse y evolucionar posiciona a estos sistemas como pilares fundamentales en la próxima era de la automatización empresarial. En un mercado que prioriza la eficiencia y la innovación, los agentes de IA no son solo una tendencia, sino el motor que definirá el futuro de la tecnología en la próxima década.

Serie de Inteligencia Artificial II FLAVIA COSTA, INVESTIGADORA DEL CONICET: LOS INDIVIDUOS MAQUINICOS

Serie de Inteligencia Artificial II FLAVIA COSTA, INVESTIGADORA DEL CONICET: LOS INDIVIDUOS MAQUINICOS

El tema de la Inteligencia Artificial, con su enorme alcance y lo poco que en realidad sabemos – en muchos casos todavía estamos en etapa intuitiva – ha dado lugar a una autentica catarata de estudios, opiniones, controversias y encendidos debates que prácticamente se producen diariamente.

Nuestro Laboratorio entiende que uno de los mejores servicios que puede prestar a todas aquellas personas y organizaciones que siguen nuestros trabajos es ofrecer una Serie escogida de aquellas opiniones, posiciones y debates, llevados prácticamente al día en que se producen, para mantener genuinamente informados a aquellos que están pendientes de lo que está sucediendo y de nuestra visión.

Por cierto, el Laboratorio se encuentra trabajando en su Microlab de Inteligencia Artificial y oportunamente hará saber sus conclusiones y percepciones, pero la urgencia del tema no admite demasiadas demoras. Esa es la razón por la que hoy inauguramos una Serie, la de Inteligencia Artificial, la que esperamos sea el fermento de análisis, meditación y conclusiones sobre la proyección que un tema de esta envergadura nos obliga a abordar. Nadie, ni gobiernos, ni organismos internacionales, ni organismos regionales, think thanks e individuos pueden permanecer indiferentes a su evolución. Como siempre, esperamos que nuestro servicio pueda resultarles de utilidad.

FLAVIA COSTA, INVESTIGADORA DEL CONICET: LOS INDIVIDUOS MAQUINICOS.

La investigadora del Consejo Nacional de Investigaciones Científicas y Técnicas de la República [i]Argentina, Flavia Costa, plantea en sus ultimas obras algunas ideas extremadamente interesantes sobre “nuestro interlocutor” la Inteligencia Artificial. Se trata de una visión producto de una prolongada carrera de investigaciones y publicaciones reflexivas sobre nuestra relación como humanos con lo que denomina los “individuos maquinicos”. Resulta, adicionalmente muy interesante, como la autora vincula las ideas de Alan Turing con algunos comportamientos desarrollados por formulas evolutivas de la inteligencia artificial. Y plantea, una vez más, que es preciso que en nuestra región nos pongamos a estudiar el tema y a buscar el debate científico, para no quedar, como es habitual, retrasados y ser una suerte de furgón de cola de los países desarrollados.

Por la inteligencia artificial ya se habla de “individuos maquínicos”: los trabajos desarrollados por Flavia Costa tratan de explicar cómo estos individuos se vinculan con los humanos. Costa sostiene que las máquinas hoy pueden hacer lo mismo que los humanos, pero de manera diferente. La pregunta que surge inmediatamente es ¿hay que preocuparse?

Poco antes del inicio de la Segunda Guerra Mundial, el genio británico Alan Turing[ii] desarrolló un dispositivo que sería conocido simplemente como “Máquina de Turing”. No sólo se convirtió en la llave para descifrar los códigos encriptados de comunicación del nazismo, sino que también es un invento precursor de la informática moderna.

Muchas décadas más tarde, la investigadora Flavia Costa remitió a aquel desarrollo para traerlo al presente y explicar la inteligencia artificial: “cuando Turing inventó su máquina, dijo ‘esta no es una máquina, en realidad es una máquina universal, es la máquina que puede ser todas las máquinas’. Y algo de la inteligencia artificial es así: es una tecnología que, como lo que hace es reproducir lenguaje, hace todas aquellas cosas que un lenguaje puede hacer. Y yo diría que los humanos hacemos todo con el lenguaje”.

La Dra. Flavia Costa es autora – entre otras obras – de “Tecnoceno: algoritmos, biohackers y nuevas formas de vida”. El objetivo de la obra es intentar comprender esta nueva tecnología y los desafíos que implica: “Inteligencia Artificial es como un gran paraguas, pero que involucra a todas aquellas tecnologías que automatizan los procesos que hacemos los seres humanos usando, datos, información”, explica. “En los últimos entre 10 y 15 años, hubo dos grandes novedades: la capacidad de manejar grandísimos volúmenes de datos, por un lado. Y el aprendizaje automático o aprendizaje maquínico, que es la verdadera novedad, por el otro. Las máquinas pueden aprender por sí mismas”.

La combinación de estas dos novedades hace que las máquinas, mediante los nuevos resultados que van obteniendo y algoritmos de propagación hacia atrás, de recuperación de errores, vuelvan a iniciar el cálculo a partir de los nuevos descubrimientos. A través de las sintaxis, producen sentido. Aprenden.

Esto no significa que las maquinas se humanicen, porque no se trata – o no debería tratarse de imitar al ser humano, tema espinoso y peligroso – de duplicar al individuo, sino el resultado obtenido. Dicho de una forma mas simple, se trata de que las maquinas puedan hacer lo mismo que los seres humanos hacen, pero no del mismo modo.

Entre otras cosas, esto nos conduce a una de las discusiones mas fuertes e importantes a las cuales estamos asistiendo. Vamos a plantearlo de la siguiente manera: si la inteligencia artificial utilizado todo lo que se ha escrito a lo largo de siglos, si puede combinarlo de una manera inteligente, pero no es realmente el creador, a quien le adjudicamos la autoría. No es en absoluto un tema menor, porque ataca un tema central que aparecía como saldado jurídica y consensualmente arreglado desde hace siglos. Por cierto, este es uno de los temas que nos coloca a consideración la irrupción caudalosa de la Inteligencia Artificial.

En algunas revistas científicas internacionales ya se está aceptando la coautoría con ChatGPT, por ejemplo. Mientras se atribuya esa fuente de formación del artículo, ya un autor es ese método, es ese procedimiento. Tenemos que ser más finos, ver si es autor, si es bibliografía, dónde lo ubicamos, o si es otra cosa distinta. Efectivamente empieza a disolverse esa unidad fuerte: el individuo que es el autor. Empieza a generarse una nueva relación entre individuos vivientes humanos e individuos maquínicos, que son otra cosa.

En consecuencia, la pregunta que deberíamos hacernos es que es un individuo maquinico, al menos en la concepción de la Doctora Costa. Ese individuo es algo más que un elemento maquínico, que una herramienta puntual. Un individuo es ya una herramienta más sofisticada que es capaz de elaborar y de realizar tareas de manera autónoma.

Estos nuevos desarrollos plantean desafíos en cuanto a lo laboral. Costa entiende que “estos individuos” deben ser considerados como aquellos que realizan actividades que reemplazan “el maquinismo anterior”, a los trabajos muy tediosos, duros para el cuerpo, agresivos. La incorporación de tecnología implicó desempleo, pero también alivió el impacto físico en tareas como la minería. La diferencia es que las nuevas máquinas llegan ahora para realizar tareas que no son necesariamente tediosas, incluso tareas que se disfrutan, como el escribir, traducir, investigar, aprender.

Otro tema, de los tantos desafíos que la Dra. Costa nos plantea, y que se encuentra en el centro de las discusiones generales actuales, es el papel de la inteligencia artificial en la educación. Por cierto, que tenemos “bandos”, aquellos que lo ven como una especie de amenaza y que quieren ponerle estrictos límites – eso es ciertamente ignorar la penetración y la potencia de la tecnología – y los que lo visualizan como un instrumento en el cual apoyarse y que posiblemente le coloque un soporte adicional a la educación. En este comentario no podemos olvidar que muchas veces la disponibilidad de la tecnología para algunos y no para otros, además de ser un elemento de desarrollo también es un elemento que alimenta brechas que debemos solucionar.

Sobre este punto, Costa señala que hay países enteros o ciudades que han prohibido el chat para la tarea educativa. Italia es el caso más extremo. Nueva York prohibió en todos los establecimientos educativos usar ChatGPT y Hong Kong también. Es como el impacto de la calculadora en nuestra generación: primero hay que aprender a hacer las operaciones matemáticas y después usar la calculadora. Ahora la calculadora ingresa en tercero, cuarto, quinto grado. Tenemos que ver cómo ingresa esto y en qué grado, de qué manera a la educación, y de qué forma – siempre limitada en la realidad, como podemos manejarlo.

A los ámbitos laborales y educativos se les suma el desafío de lo normativo, que hasta ahora no existe y no se sabe quién o cómo determinará el nuevo marco legal para estas tecnologías.

“Hay que pensar todo”, definió Costa, y agregó que “hay que trabajar como se hizo siempre, comparativamente: ver qué están haciendo en la Unión Europea o en Estados Unidos o en Oriente. En nuestra región tiene que darse rápidamente la discusión. Hay que ser imaginativos”.


[i] Flavia Costa es Doctora en Ciencias Sociales por la Universidad de Buenos Aires, en cuya Facultad de Ciencias Sociales se desempeña, desde 1995, como docente del Seminario de Informática y Sociedad, actualmente como Profesora Asociada. Licenciada en Ciencias de la Comunicación por esa misma Facultad. Investigadora Adjunta del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Es miembro del grupo editor de la revista Artefacto. Pensamientos sobre la técnica, así como del colectivo Ludion – Exploratorio argentino de poéticas/políticas tecnológicas. En la última década ha traducido en colaboración la obra de Giorgio Agamben al castellano. Su tema central de investigación es la perspectiva de la modernidad como doble proceso tendencial de tecnificación y politización de la vida. En este marco, ha desarrollado la noción de “formas de vida tecnológicas”, acuñada originalmente por el sociólogo británico Scott Lash, para analizar el modo de existencia contemporáneo en el cruce entre biopolíticas y biotecnologías.

[ii] Alan Mathison Turing (Paddington, Londres; 23 de junio de 1912-Wilmslow, Cheshire; 7 de junio de 1954) fue un matemático, lógico, informático teórico, criptógrafo, filósofo y biólogo teórico británico.​

Es considerado como uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una formalización influyente de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión que hoy es ampliamente aceptada como la tesis de Church-Turing (1936).

Durante la Segunda Guerra Mundial, trabajó en descifrar los códigos nazis, particularmente los de la máquina Enigma, y durante un tiempo fue el director de la sección Naval Enigma de Bletchley Park. Se ha estimado que su trabajo acortó la duración de esa guerra entre dos y cuatro años.​ Tras la guerra, diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Mánchester.

En el campo de la inteligencia artificial, es conocido sobre todo por la concepción de la Prueba de Turing (1950), un criterio según el cual puede juzgarse la inteligencia de una máquina si sus respuestas en la prueba son indistinguibles de las de un ser humano.

[1] Flavia Costa es Doctora en Ciencias Sociales por la Universidad de Buenos Aires, en cuya Facultad de Ciencias Sociales se desempeña, desde 1995, como docente del Seminario de Informática y Sociedad, actualmente como Profesora Asociada. Licenciada en Ciencias de la Comunicación por esa misma Facultad. Investigadora Adjunta del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Es miembro del grupo editor de la revista Artefacto. Pensamientos sobre la técnica, así como del colectivo Ludion – Exploratorio argentino de poéticas/políticas tecnológicas. En la última década ha traducido en colaboración la obra de Giorgio Agamben al castellano. Su tema central de investigación es la perspectiva de la modernidad como doble proceso tendencial de tecnificación y politización de la vida. En este marco, ha desarrollado la noción de “formas de vida tecnológicas”, acuñada originalmente por el sociólogo británico Scott Lash, para analizar el modo de existencia contemporáneo en el cruce entre biopolíticas y biotecnologías.

[1] Alan Mathison Turing (Paddington, Londres; 23 de junio de 1912-Wilmslow, Cheshire; 7 de junio de 1954) fue un matemático, lógico, informático teórico, criptógrafo, filósofo y biólogo teórico británico.​

Es considerado como uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una formalización influyente de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión que hoy es ampliamente aceptada como la tesis de Church-Turing (1936).

Durante la Segunda Guerra Mundial, trabajó en descifrar los códigos nazis, particularmente los de la máquina Enigma, y durante un tiempo fue el director de la sección Naval Enigma de Bletchley Park. Se ha estimado que su trabajo acortó la duración de esa guerra entre dos y cuatro años.​ Tras la guerra, diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Mánchester.

En el campo de la inteligencia artificial, es conocido sobre todo por la concepción de la Prueba de Turing (1950), un criterio según el cual puede juzgarse la inteligencia de una máquina si sus respuestas en la prueba son indistinguibles de las de un ser humano.

error: Content is protected !!