Serie de Inteligencia Artificial II FLAVIA COSTA, INVESTIGADORA DEL CONICET: LOS INDIVIDUOS MAQUINICOS

Inteligencia artificial

16 May, 2023

16 May, 2023

El tema de la Inteligencia Artificial, con su enorme alcance y lo poco que en realidad sabemos – en muchos casos todavía estamos en etapa intuitiva – ha dado lugar a una autentica catarata de estudios, opiniones, controversias y encendidos debates que prácticamente se producen diariamente.

Nuestro Laboratorio entiende que uno de los mejores servicios que puede prestar a todas aquellas personas y organizaciones que siguen nuestros trabajos es ofrecer una Serie escogida de aquellas opiniones, posiciones y debates, llevados prácticamente al día en que se producen, para mantener genuinamente informados a aquellos que están pendientes de lo que está sucediendo y de nuestra visión.

Por cierto, el Laboratorio se encuentra trabajando en su Microlab de Inteligencia Artificial y oportunamente hará saber sus conclusiones y percepciones, pero la urgencia del tema no admite demasiadas demoras. Esa es la razón por la que hoy inauguramos una Serie, la de Inteligencia Artificial, la que esperamos sea el fermento de análisis, meditación y conclusiones sobre la proyección que un tema de esta envergadura nos obliga a abordar. Nadie, ni gobiernos, ni organismos internacionales, ni organismos regionales, think thanks e individuos pueden permanecer indiferentes a su evolución. Como siempre, esperamos que nuestro servicio pueda resultarles de utilidad.

FLAVIA COSTA, INVESTIGADORA DEL CONICET: LOS INDIVIDUOS MAQUINICOS.

La investigadora del Consejo Nacional de Investigaciones Científicas y Técnicas de la República [i]Argentina, Flavia Costa, plantea en sus ultimas obras algunas ideas extremadamente interesantes sobre “nuestro interlocutor” la Inteligencia Artificial. Se trata de una visión producto de una prolongada carrera de investigaciones y publicaciones reflexivas sobre nuestra relación como humanos con lo que denomina los “individuos maquinicos”. Resulta, adicionalmente muy interesante, como la autora vincula las ideas de Alan Turing con algunos comportamientos desarrollados por formulas evolutivas de la inteligencia artificial. Y plantea, una vez más, que es preciso que en nuestra región nos pongamos a estudiar el tema y a buscar el debate científico, para no quedar, como es habitual, retrasados y ser una suerte de furgón de cola de los países desarrollados.

Por la inteligencia artificial ya se habla de “individuos maquínicos”: los trabajos desarrollados por Flavia Costa tratan de explicar cómo estos individuos se vinculan con los humanos. Costa sostiene que las máquinas hoy pueden hacer lo mismo que los humanos, pero de manera diferente. La pregunta que surge inmediatamente es ¿hay que preocuparse?

Poco antes del inicio de la Segunda Guerra Mundial, el genio británico Alan Turing[ii] desarrolló un dispositivo que sería conocido simplemente como “Máquina de Turing”. No sólo se convirtió en la llave para descifrar los códigos encriptados de comunicación del nazismo, sino que también es un invento precursor de la informática moderna.

Muchas décadas más tarde, la investigadora Flavia Costa remitió a aquel desarrollo para traerlo al presente y explicar la inteligencia artificial: “cuando Turing inventó su máquina, dijo ‘esta no es una máquina, en realidad es una máquina universal, es la máquina que puede ser todas las máquinas’. Y algo de la inteligencia artificial es así: es una tecnología que, como lo que hace es reproducir lenguaje, hace todas aquellas cosas que un lenguaje puede hacer. Y yo diría que los humanos hacemos todo con el lenguaje”.

La Dra. Flavia Costa es autora – entre otras obras – de “Tecnoceno: algoritmos, biohackers y nuevas formas de vida”. El objetivo de la obra es intentar comprender esta nueva tecnología y los desafíos que implica: “Inteligencia Artificial es como un gran paraguas, pero que involucra a todas aquellas tecnologías que automatizan los procesos que hacemos los seres humanos usando, datos, información”, explica. “En los últimos entre 10 y 15 años, hubo dos grandes novedades: la capacidad de manejar grandísimos volúmenes de datos, por un lado. Y el aprendizaje automático o aprendizaje maquínico, que es la verdadera novedad, por el otro. Las máquinas pueden aprender por sí mismas”.

La combinación de estas dos novedades hace que las máquinas, mediante los nuevos resultados que van obteniendo y algoritmos de propagación hacia atrás, de recuperación de errores, vuelvan a iniciar el cálculo a partir de los nuevos descubrimientos. A través de las sintaxis, producen sentido. Aprenden.

Esto no significa que las maquinas se humanicen, porque no se trata – o no debería tratarse de imitar al ser humano, tema espinoso y peligroso – de duplicar al individuo, sino el resultado obtenido. Dicho de una forma mas simple, se trata de que las maquinas puedan hacer lo mismo que los seres humanos hacen, pero no del mismo modo.

Entre otras cosas, esto nos conduce a una de las discusiones mas fuertes e importantes a las cuales estamos asistiendo. Vamos a plantearlo de la siguiente manera: si la inteligencia artificial utilizado todo lo que se ha escrito a lo largo de siglos, si puede combinarlo de una manera inteligente, pero no es realmente el creador, a quien le adjudicamos la autoría. No es en absoluto un tema menor, porque ataca un tema central que aparecía como saldado jurídica y consensualmente arreglado desde hace siglos. Por cierto, este es uno de los temas que nos coloca a consideración la irrupción caudalosa de la Inteligencia Artificial.

En algunas revistas científicas internacionales ya se está aceptando la coautoría con ChatGPT, por ejemplo. Mientras se atribuya esa fuente de formación del artículo, ya un autor es ese método, es ese procedimiento. Tenemos que ser más finos, ver si es autor, si es bibliografía, dónde lo ubicamos, o si es otra cosa distinta. Efectivamente empieza a disolverse esa unidad fuerte: el individuo que es el autor. Empieza a generarse una nueva relación entre individuos vivientes humanos e individuos maquínicos, que son otra cosa.

En consecuencia, la pregunta que deberíamos hacernos es que es un individuo maquinico, al menos en la concepción de la Doctora Costa. Ese individuo es algo más que un elemento maquínico, que una herramienta puntual. Un individuo es ya una herramienta más sofisticada que es capaz de elaborar y de realizar tareas de manera autónoma.

Estos nuevos desarrollos plantean desafíos en cuanto a lo laboral. Costa entiende que “estos individuos” deben ser considerados como aquellos que realizan actividades que reemplazan “el maquinismo anterior”, a los trabajos muy tediosos, duros para el cuerpo, agresivos. La incorporación de tecnología implicó desempleo, pero también alivió el impacto físico en tareas como la minería. La diferencia es que las nuevas máquinas llegan ahora para realizar tareas que no son necesariamente tediosas, incluso tareas que se disfrutan, como el escribir, traducir, investigar, aprender.

Otro tema, de los tantos desafíos que la Dra. Costa nos plantea, y que se encuentra en el centro de las discusiones generales actuales, es el papel de la inteligencia artificial en la educación. Por cierto, que tenemos “bandos”, aquellos que lo ven como una especie de amenaza y que quieren ponerle estrictos límites – eso es ciertamente ignorar la penetración y la potencia de la tecnología – y los que lo visualizan como un instrumento en el cual apoyarse y que posiblemente le coloque un soporte adicional a la educación. En este comentario no podemos olvidar que muchas veces la disponibilidad de la tecnología para algunos y no para otros, además de ser un elemento de desarrollo también es un elemento que alimenta brechas que debemos solucionar.

Sobre este punto, Costa señala que hay países enteros o ciudades que han prohibido el chat para la tarea educativa. Italia es el caso más extremo. Nueva York prohibió en todos los establecimientos educativos usar ChatGPT y Hong Kong también. Es como el impacto de la calculadora en nuestra generación: primero hay que aprender a hacer las operaciones matemáticas y después usar la calculadora. Ahora la calculadora ingresa en tercero, cuarto, quinto grado. Tenemos que ver cómo ingresa esto y en qué grado, de qué manera a la educación, y de qué forma – siempre limitada en la realidad, como podemos manejarlo.

A los ámbitos laborales y educativos se les suma el desafío de lo normativo, que hasta ahora no existe y no se sabe quién o cómo determinará el nuevo marco legal para estas tecnologías.

“Hay que pensar todo”, definió Costa, y agregó que “hay que trabajar como se hizo siempre, comparativamente: ver qué están haciendo en la Unión Europea o en Estados Unidos o en Oriente. En nuestra región tiene que darse rápidamente la discusión. Hay que ser imaginativos”.


[i] Flavia Costa es Doctora en Ciencias Sociales por la Universidad de Buenos Aires, en cuya Facultad de Ciencias Sociales se desempeña, desde 1995, como docente del Seminario de Informática y Sociedad, actualmente como Profesora Asociada. Licenciada en Ciencias de la Comunicación por esa misma Facultad. Investigadora Adjunta del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Es miembro del grupo editor de la revista Artefacto. Pensamientos sobre la técnica, así como del colectivo Ludion – Exploratorio argentino de poéticas/políticas tecnológicas. En la última década ha traducido en colaboración la obra de Giorgio Agamben al castellano. Su tema central de investigación es la perspectiva de la modernidad como doble proceso tendencial de tecnificación y politización de la vida. En este marco, ha desarrollado la noción de “formas de vida tecnológicas”, acuñada originalmente por el sociólogo británico Scott Lash, para analizar el modo de existencia contemporáneo en el cruce entre biopolíticas y biotecnologías.

[ii] Alan Mathison Turing (Paddington, Londres; 23 de junio de 1912-Wilmslow, Cheshire; 7 de junio de 1954) fue un matemático, lógico, informático teórico, criptógrafo, filósofo y biólogo teórico británico.​

Es considerado como uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una formalización influyente de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión que hoy es ampliamente aceptada como la tesis de Church-Turing (1936).

Durante la Segunda Guerra Mundial, trabajó en descifrar los códigos nazis, particularmente los de la máquina Enigma, y durante un tiempo fue el director de la sección Naval Enigma de Bletchley Park. Se ha estimado que su trabajo acortó la duración de esa guerra entre dos y cuatro años.​ Tras la guerra, diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Mánchester.

En el campo de la inteligencia artificial, es conocido sobre todo por la concepción de la Prueba de Turing (1950), un criterio según el cual puede juzgarse la inteligencia de una máquina si sus respuestas en la prueba son indistinguibles de las de un ser humano.

[1] Flavia Costa es Doctora en Ciencias Sociales por la Universidad de Buenos Aires, en cuya Facultad de Ciencias Sociales se desempeña, desde 1995, como docente del Seminario de Informática y Sociedad, actualmente como Profesora Asociada. Licenciada en Ciencias de la Comunicación por esa misma Facultad. Investigadora Adjunta del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Es miembro del grupo editor de la revista Artefacto. Pensamientos sobre la técnica, así como del colectivo Ludion – Exploratorio argentino de poéticas/políticas tecnológicas. En la última década ha traducido en colaboración la obra de Giorgio Agamben al castellano. Su tema central de investigación es la perspectiva de la modernidad como doble proceso tendencial de tecnificación y politización de la vida. En este marco, ha desarrollado la noción de “formas de vida tecnológicas”, acuñada originalmente por el sociólogo británico Scott Lash, para analizar el modo de existencia contemporáneo en el cruce entre biopolíticas y biotecnologías.

[1] Alan Mathison Turing (Paddington, Londres; 23 de junio de 1912-Wilmslow, Cheshire; 7 de junio de 1954) fue un matemático, lógico, informático teórico, criptógrafo, filósofo y biólogo teórico británico.​

Es considerado como uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una formalización influyente de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión que hoy es ampliamente aceptada como la tesis de Church-Turing (1936).

Durante la Segunda Guerra Mundial, trabajó en descifrar los códigos nazis, particularmente los de la máquina Enigma, y durante un tiempo fue el director de la sección Naval Enigma de Bletchley Park. Se ha estimado que su trabajo acortó la duración de esa guerra entre dos y cuatro años.​ Tras la guerra, diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Mánchester.

En el campo de la inteligencia artificial, es conocido sobre todo por la concepción de la Prueba de Turing (1950), un criterio según el cual puede juzgarse la inteligencia de una máquina si sus respuestas en la prueba son indistinguibles de las de un ser humano.

Autor: Equipo del Microlab de Inteligencia Artificial del Laboratorio del Futuro

Autor: Equipo del Microlab de Inteligencia Artificial del Laboratorio del Futuro

Artículos relacionados

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

error: Content is protected !!