Inteligencia Artificial VI Nota de la BBC

Inteligencia artificial

28 May, 2023

28 May, 2023

El tema de la Inteligencia Artificial, con su enorme alcance y lo poco que en realidad sabemos – en muchos casos todavía estamos en etapa intuitiva – ha dado lugar a una autentica catarata de estudios, opiniones, controversias y encendidos debates que prácticamente se producen diariamente.

Nuestro Laboratorio entiende que uno de los mejores servicios que puede prestar a todas aquellas personas y organizaciones que siguen nuestros trabajos es ofrecer una Serie escogida de aquellas opiniones, posiciones y debates, llevados prácticamente al día en que se producen, para mantener genuinamente informados a aquellos que están pendientes de lo que está sucediendo y de nuestra visión.

Por cierto, el Laboratorio se encuentra trabajando en su Microlab de Inteligencia Artificial y oportunamente hará saber sus conclusiones y percepciones, pero la urgencia del tema no admite demasiadas demoras. Esa es la razón por la que hoy inauguramos una Serie, la de Inteligencia Artificial, la que esperamos sea el fermento de análisis, meditación y conclusiones sobre la proyección que un tema de esta envergadura nos obliga a abordar. Nadie, ni gobiernos, ni organismos internacionales, ni organismos regionales, think thanks e individuos pueden permanecer indiferentes a su evolución.

Como siempre, esperamos que nuestro servicio pueda resultarles de utilidad.

BBC: Las 3 etapas de la Inteligencia Artificial (IA), en cuál estamos y por qué muchos piensan que la tercera puede ser fatal.

Desde que se lanzó a finales de noviembre 2022, ChatGPT, el chatbot que usa inteligencia artificial (IA) para responder preguntas o generar textos a pedido de usuarios, se ha convertido en la aplicación de internet con el crecimiento más rápido de la historia.

La masiva adopción de GPT marca un récord dentro de los instrumentos de Internet y sus consecuencias son palpables:

En apenas dos meses llegó a tener 100 millones de usuarios activos. A la popular app TikTok le tardó nueve meses alcanzar ese hito. Y a Instagram dos años y medio, según datos de la empresa de monitoreo tecnológico Sensor Town.

«En los 20 años que llevamos siguiendo internet, no podemos recordar un incremento más veloz de una aplicación de internet para consumidores», afirmaron analistas de UBS (Unión de Bancos Suizos), quienes reportaron el récord en febrero de 2023.

La masiva popularidad de ChatGPT, desarrollado por la empresa OpenAI, con respaldo financiero de Microsoft, ha despertado todo tipo de discusiones y especulaciones sobre el impacto que ya está teniendo y que tendrá en nuestro futuro cercano la inteligencia artificial generativa.

Se trata de la rama de la IA que se dedica a generar contenido original a partir de datos existentes (usualmente extraídos de internet) en respuesta a instrucciones de un usuario.

Los textos (desde ensayos, poesías y chistes hasta códigos de computación) e imágenes (diagramas, fotos, obras de arte de cualquier estilo y mucho más) producidos por IA generativas como ChatGPT, DALL-E, Bard y AlphaCode -para nombrar solo algunas de las más conocidas- son, en algunos casos, tanindistinguibles del trabajo humano, que ya han sido usados por miles de personas para reemplazar su labor habitual.

Desde estudiantes que los usan para hacerle los deberes hasta políticos que les encomiendan sus discursos – el Representante Demócrata Jake Auchincloss estrenó el recurso en el Congreso de EE. UU.- o fotógrafos que inventan instantáneas de cosas que no ocurrieron (e incluso ganan premios por ello, como el alemán Boris Eldagsen, quien obtuvo el primer puesto en el último Sony World Photography Award por una imagen creada por IA).

Esta misma nota podría haber sido escrita por una máquina y probablemente no te darías cuenta.

El fenómeno ha llevado a una revolución de los recursos humanos, con empresas como el gigante tecnológico IBM anunciando que dejará de contratar a personas para cubrir cerca de 8.000 puestos de trabajo que podrán ser manejados por IA.

Un informe del banco de inversión Goldman Sachs estimó a finales de marzo de 2023 que la IA podría reemplazar a un cuarto de todos los empleos realizados hoy por humanos, aunque también creará más productividad y nuevos trabajos.

A medida que avanza la IA, mayor es su capacidad de reemplazar nuestro trabajo.

Si todos estos cambios te abruman, prepárate para un dato que podría resultarte aún más desconcertante.

Y es que, con todos sus impactos, lo que estamos viviendo ahora es apenas la primera etapa en el desarrollo de la IA.

Según los expertos, lo que podría venir pronto -la segunda etapa- será muchísimo más revolucionaria.

Y la tercera y última, que podría ocurrir muy poco tiempo después de aquella, es tan avanzada que alterará completamente al mundo, incluso a costa de la existencia del ser humano.

Las tres etapas:

Las tecnologías de Inteligencia Artificial se clasifican por su capacidad para imitar las características humanas.

1. Inteligencia artificial estrecha (ANI):

La categoría más básica de IA es más conocida por sus siglas en inglés: ANI, por Artificial Narrow Intelligence.

Se llama así porque se enfoca estrechamente en una sola tarea, realizando un trabajo repetitivo dentro de un rango predefinido por sus creadores.

Los sistemas de ANI generalmente se entrenan utilizando un gran conjunto de datos (por ejemplo, de internet) y pueden tomar decisiones o realizar acciones basadas en ese entrenamiento.

Una ANI puede igualar o superar a la inteligencia y eficiencia humana pero solo en esa área específica en la que opera.

Un ejemplo son los programas de ajedrez que usan IA. Son capaces de vencer al campeón mundial de esa disciplina, pero no pueden realizar otras tareas.

Las ANI pueden superar a los humanos, pero solo en un área específica.

Es por eso que también se la conoce como «IA débil».

Todos los programas y herramientas que utilizan IA hoy, incluso las más avanzadas y complejas, son formas de ANI. Y estos sistemas están en todas partes.

Los smartphones están llenos de aplicaciones que usan esta tecnología, desde los mapas con GPS que te permiten ubicarte en cualquier lugar del mundo o saber el clima, hasta los programas de música y videos que conocen tus gustos y te hacen recomendaciones.

También los asistentes virtuales como Siri y Alexa son formas de ANI. Al igual que el buscador de Google y el robot que limpia tu casa.

El mundo empresarial también utiliza mucho esta tecnología. Se usa en las computadoras internas de los autos, en la manufactura de miles de productos, en el mundo financiero e incluso en hospitales, para realizar diagnósticos.

Incluso sistemas más sofisticados como los autos sin conductor (o vehículos autónomos) y el popular ChatGPT son formas de ANI, ya que no pueden operar fuera del rango predefinido por sus programadores, por lo que no pueden tomar decisiones por su cuenta.

Tampoco tienen autoconciencia, otro rasgo de la inteligencia humana.

Sin embargo, algunos expertos creen que los sistemas que están programados para aprender automáticamente (machine learning) como ChatGPT o AutoGPT (un «agente autónomo» o «agente inteligente» que utiliza información del ChatGPT para realizar ciertas subtareas de forma autónoma) podrían pasar a la siguiente etapa de desarrollo.

2. Inteligencia artificial general (AGI)

Esta categoría –Artificial General Intelligence– se alcanza cuando una máquina adquiere capacidades cognitivas a nivel humano.

Es decir, cuando puede realizar cualquier tarea intelectual que realiza una persona.

La AGI tiene la misma capacidad intelectual que un humano.

También se la conoce como «IA fuerte».

Es tal la creencia de que estamos al borde de alcanzar este nivel de desarrollo, que en marzo pasado más de 1.000 expertos en tecnología pidieron a las empresas de IA que dejen de entrenar, por al menos seis meses, a aquellos programas que sean más poderosos que GPT-4, la versión más reciente de ChatGPT.

«Los sistemas de IA con inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad«, advirtieron en una carta abierta, entre otros, el cofundador de Apple, Steve Wozniak, y el dueño de Tesla, SpaceX, Neuralink y Twitter, Elon Musk (quien fue uno de los cofundadores de Open AI antes de renunciar de la junta por desacuerdos con la conducción de la compañía).

En la carta, publicada por la organización sin fines de lucro Future of Life Institute, los expertos dijeron que si las empresas no acceden rápidamente a frenar sus proyectos «los gobiernos deberían intervenir e instituir una moratoria» para que se puedan diseñar e implementar medidas de seguridad sólidas.

Aunque esto es algo que – por el momento- no ha ocurrido, el gobierno de Estados Unidos sí convocó a los dueños de las principales empresas de IA – Alphabet, Anthropic, Microsoft, y OpenAI – para acordar «nuevas acciones para promover la innovación responsable de IA».

«La IA es una de las tecnologías más poderosas de nuestro tiempo, pero para aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos», declaró a través de un comunicado la Casa Blanca el pasado 4 de mayo.

El Congreso de EE. UU., por su parte, convocó este martes al CEO de OpenAI, Sam Altman, a responder preguntas sobre ChatGPT.

Durante la audiencia en el Senado, Altman dijo que es «crucial» que su industria sea regulada por el gobierno a medida que la IA se vuelve «cada vez más poderosa».

Carlos Ignacio Gutiérrez, investigador de políticas públicas en el Future of Life Institute, explicó a BBC Mundo que uno de los grandes desafíos que presenta la IA es que «no existe un cuerpo colegiado de expertos que deciden cómo regularlo, como ocurre, por ejemplo, con el Panel Intergubernamental sobre Cambio Climático (IPCC)».

En la carta de los expertos, estos definieron cuáles eran sus principales preocupaciones.

«¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos?», cuestionaron.

«¿Deberíamos arriesgarnos a perder el control de nuestra civilización?».

Lo que nos lleva al tercer y último estadio de la IA.

3. Súper Inteligencia Artificial (ASI):

La preocupación de estos científicos informáticos tiene que ver con una teoría muy establecida que sostiene que, cuando alcancemos la AGI, poco tiempo después se arribará al último estadio en el desarollo de esta tecnología: la Artificial Superintelligence, que ocurre cuando la inteligencia sintética supera a la humana.El filósofo de la Universidad de Oxford y experto en Inteligencia Artificial Nick Bostrom define a la súper inteligencia como «un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales».


[1][1] Nick Bostrom (en sueco, Niklas Boström) es un filósofo sueco de la Universidad de Oxford, nacido en 1973. Es conocido por sus trabajos sobre el principio antrópico, el riesgo existencial, la ética sobre el perfeccionamiento humano, los riesgos de la superinteligencia y el consecuencialismo. Obtuvo un PhD en la Escuela de Economía y Ciencia Política de Londres en el año 2000. En 1998, Bostrom cofundó junto a David Pearce la Asociación Transhumanista Mundial.

En 2004 cofundó junto a James Hughes el Instituto para la Ética y las Tecnologías Emergentes. En el año 2006, ha sido el director fundador del Future of Humanity Institute en la Universidad de Oxford. FHI es un centro de investigación multidisciplinar único en el que un grupo de investigadores destacados, desde los campos de las matemáticas, la informática, la filosofía, entre otras disciplinas, se unen para trabajar en cuestiones de gran formato para la humanidad.

En 2011 fundó el Programa Oxford Marton Sobre los Impactos de la Tecnología Futurista y es el director fundador del Instituto Futuro de la Humanidad en la Universidad de Oxford.

Es el autor de más de 200 publicaciones, incluyendo: Superinteligencia: caminos, peligros, estrategias (2014), un bestseller según New York Times,y Sesgo antrópico: efectos de la selección de observación en la ciencia y la filosofía (2002). En 2009 y 2015, la revista Foreign Policy lo incluyó en su lista de los 100 pensadores globales destacados.​ El trabajo de Bostrom sobre la superinteligencia y su preocupación por el riesgo existencial que la misma representa para la humanidad en el nuevo siglo, ha llegado a influir en el pensamiento de Elon Musk y Bill Gates.

Bostrom nació un 10 de marzo de 1973 en Helsingborg, Suecia. Desde joven le desagradó la escuela y terminó sus últimos años de instituto aprendiendo en casa, optando por educarse a sí mismo en una gran variedad de disciplinas como antropología, arte, literatura y ciencia.

Obtuvo un B.A (Bachelor of Arts). en filosofía, matemáticas, lógica matemática e inteligencia artificial en la Universidad de Gotemburgo y un grado de Máster en Filosofía y Física, y neurociencia computacional de la Universidad de Estocolmo y el King’s College de Londres respectivamente. Mientras estudiaba en la Universidad de Estocolmo, investigó la relación entre el lenguaje y la realidad estudiando al filósofo analítico Willard Van Orman Quine. En el año 2000 ganó un PhD en filosofía en la Escuela de Economía de Londres. Se mantuvo dos años (2000-2002) como educador en la Universidad de Yale.

Bostrom ha dado consejos sobre políticas además de consultorías para un amplio rango de gobiernos y organizaciones. Fue consultor para la Oficina gubernamental de Ciencia del Reino Unido y un miembro experto para la Agenda del Consejo para Riesgos Catastróficos del Foro Económico Mundial. Es un miembro consultor de la junta del Instituto de Investigación de la Inteligencia de las Máquinas, el Instituto para el Futuro de la Vida, el Instituto de Preguntas Fundacionales en física y cosmología, y un consultor externo para el Centro para el Estudio del Riesgo Existencial de Cambridge.

Un aspecto importante de las investigaciones de Bostrom se enfoca en el futuro de la humanidad y en los resultados a largo plazo.​ Introdujo el concepto de «riesgo existencial», el cual define como el riesgo de que «un resultado adverso pudiera bien devastar el origen de la vida inteligente en la Tierra o bien restringir su potencial permanente y drásticamente». Bostrom desde posiciones transhumanistas advierte sobre los riesgos que esta puede traer y los nombra riesgos existenciales. Además, menciona algunos de los riesgos existenciales (aquellos que tienen que ver con la acción humana)

  • Mal uso de las tecnologías.
  • Guerras nucleares.
  • Pandemias.
  • Aristocracia posthumana.
  • Mala programación de una superinteligencia.
  • Superinteligencia autónoma que asume los valores de poder.
  • Criogenización y superpoblación.
  • Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
  • Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la práctica.
  • Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

Y reconoce como uno de los mayores riesgos, el mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, que un virus se escape de un laboratorio.

En el libro Riesgo catastrófico global (2008), los editores Nick Bostrom y Milan Ćirković caracterizaron la relación entre el riesgo existencial y la cada vez más amplia gama de riesgos catastróficos de talla global, y relacionaron el riesgo existencial con los efectos de la selección del observador​ y la paradoja de Fermi.​​ En un escrito de 2013 para el periódico Global Policy, Bostrom ofrece una taxonomía del riesgo existencial y propone una reconceptualización de sustentabilidad en términos dinámicos: como una trayectoria para el desarrollo destinada a minimizar el riesgo existencial.

En 2005, Bostrom fundó el Instituto del Futuro de la Humanidad, que investiga el futuro lejano de la civilización humana. También es asesor del Centro para el Estudio del Riesgo Existencial.

En su libro Superinteligencia: caminos, peligros, estrategias (2014), Nick Bostrom define a la superinteligencia como «un intelectual que es mucho más listo que los mejores cerebros humanos prácticamente en cualquier campo, incluyendo la creatividad científica, sabiduría general y habilidades sociales.», además razona que con «un desempeño cognitivo excediendo enormemente el de los humanos en virtualmente todos los dominios de interés», los agentes superinteligentes podrían prometer beneficios sustanciales para la sociedad, pero plantear un significativo riesgo existencial. Por lo tanto, Bostrom asegura que es crucial que abordemos el campo de la inteligencia artificial con precaución y tomemos medidas activas para mitigar el riesgo que enfrentamos.

En su libro también menciona que el verdadero reto no está tanto en la inteligencia que sean capaces de alcanzar las máquinas, sino en el desarrollo moral de nuestra especie. Al final, como ya postuló Jean-Paul Sartre, estamos condenados a ser libres. Y eso puede ser peligroso, pero también una excelente oportunidad para dar otro salto evolutivo.

La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever lo que puede suceder en el tablero.

En enero de 2015, Nick Bostrom, Stephen Hawking, Max Tegmark, Elon Musk, Martin Rees y Jaan Tallinn, entre otros, firmaron una carta abierta de parte del Instituto para el Futuro de la Vida advirtiendo sobre los potenciales peligros de la inteligencia artificial, en la cual reconocían que «es importante y oportuno investigar cómo desarrollar sistemas de inteligencia artificial que sean sólidos y beneficiosos, y que existen direcciones de investigación concretas que pueden ser perseguidas hoy en día.»​ En vez de avisar de un desastre existencial, la carta pide más investigación para cosechar los beneficios de la IA «al mismo tiempo que se evitan los posibles contratiempos».

Esta carta está firmada no solo por personas no relacionadas con la IA como Hawking, Musk y Bostrom, sino también por importantes investigadores en computación (entre ellos Demis Hassabis, uno de los principales investigadores en IA), ya que después de todo, si desarrollan una inteligencia artificial que no comparte los mejores valores humanos, significará que no fueron lo suficientemente inteligentes como para controlar sus propias creaciones.

Bostrom ha publicado numerosos artículos sobre razonamiento antrópico, así como el libro Sesgo antrópico: efectos de la selección de observación en la ciencia y la filosofía, en el cual critica las formulaciones previas sobre el principio antrópico, incluyendo las de Brandon Carter, John Leslie, John Barrow y Frank Tipler.

Bostrom cree que el mal manejo de la información indicativa es una falla común en muchas áreas de la indagación (incluyendo cosmología, filosofía, teoría de la evolución, teoría de juegos y física cuántica) y argumenta que es necesaria una teoría antrópica para lidiar con estas. Bostrom introdujo el «supuesto de auto prueba» y el «supuesto de auto indicación» y mostró cómo ambos llevan a diferentes conclusiones en un número de casos, señalando que, en ciertos experimentos del pensamiento, cada uno de ellos es afectado por paradojas o implicaciones contraintuitivas. Él sugirió que para poder avanzar habría que extender el supuesto de auto prueba hacia un «fuerte supuesto de auto prueba», el cual reemplaza a los «observadores» por «momentos del observador», lo cual permitiría que la clase de referencia sea relativizada (y creó una expresión para esto en la «ecuación de la observación»).

En trabajos posteriores, describió el fenómeno de la «sombra antrópica», un efecto de la selección de observación que impide a los observadores observar cierto tipo de catástrofes en su pasado geológico y evolutivo reciente. Los tipos de catástrofes que se hallan en la sombra antrópica tienden a ser infravalorados a menos que se hagan correcciones estadísticas.

Bostrom se muestra a favor de alcanzar el «perfeccionamiento humano», o la «automejora y la perfectibilidad humana a través de la ética aplicación de la ciencia»,​ a su vez que crítica a las posturas que son bio-conservadoras.

Propuso, junto al filósofo Toby Ord, la prueba inversa. Dado el sesgo irracional del statu quo humano, ¿cómo puede uno distinguir entre la crítica válida hacia los cambios propuestos en una cualidad humana y la crítica motivada por la resistencia al cambio? La prueba inversa intenta resolver esto preguntando si sería bueno alterar dicha cualidad en la dirección opuesta.

En 1998 Bostrom cofundó juntó al filósofo David Pearce la Asociación Transhumanista Mundial,​ hoy llamada Humanity+. En 2004 cofundó junto al sociólogo James Hughes el Instituto para la Ética y las Tecnologías Emergentes, aunque actualmente ya no se involucra en ninguna de estas organizaciones.

En 2009, la revista Foreign Policy mencionó a Bostrom en su lista sobre pensadores globales, por «no aceptar límites en el potencial humano».

Humanity Plus, conocida anteriormente como Asociación Transhumanista Mundial, fundada originalmente por Nick Bostrom y David Pearce, es un movimiento cultural e intelectual internacional que tiene como objetivo final transformar la condición humana mediante el desarrollo y fabricación de tecnología ampliamente disponibles, que a su vez también mejoren las capacidades humanas, tanto a nivel físico como psicológico o intelectuales , basadas en la nanotecnología, en la ingeniería genética y en la cibernética.

Humanity Plus es una organización sin fines de lucro que trabaja para promover la discusión de las posibilidades de mejora radical de las capacidades humanas por medio de las tecnologías. Muchos teóricos y partidarios del transhumanismo buscan aplicar la razón, la ciencia y la tecnología para reducir la pobreza, las enfermedades, las discapacidades y la malnutrición en todo el mundo, el transhumanismo se distingue en su enfoque particular en la aplicación de las tecnologías para la mejora de los cuerpos humanos de forma individual.

Humanity Plus tiene distintos objetivos, aquellos son:

  1. Apoyar la discusión y la conciencia pública de las tecnologías emergentes
  2. Defender el derecho de las personas en sociedades libres y democráticas a adoptar tecnologías que expandan las capacidades humanas
  3. Anticipar y proponer soluciones para las consecuencias potenciales de las nuevas tecnologías.
  4. Alentar y apoyar activamente el desarrollo de tecnologías emergentes que se considere que tienen un beneficio positivo suficientemente probable

Bostrom ha sugerido que una política tecnológica dirigida a reducir el riesgo existencial debería buscar influenciar el orden en el que varias capacidades tecnológicas son conseguidas, proponiendo el principio del desarrollo tecnológico diferencial. Este sostiene que los humanos deberíamos retrasar el desarrollo de tecnologías peligrosas, particularmente de aquellas que elevan el riesgo existencial, y acelerar el desarrollo de tecnología beneficiosas, particularmente aquellas que nos protegen del riesgo existencial que recae en la naturaleza o en otras tecnologías.

Autor: BBC News Mundo

Autor: BBC News Mundo

Artículos relacionados

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

error: Content is protected !!