Geoffrey Hinton, una atentica leyenda en la disciplina, cree ahora que la tecnología que tanto ayudo a desarrollar puede llevarnos al fin de la civilización en cuestión de años.
El tema de la Inteligencia Artificial, con su enorme alcance y lo poco que en realidad sabemos – en muchos casos todavía estamos en etapa intuitiva – ha dado lugar a una autentica catarata de estudios, opiniones, controversias y encendidos debates que prácticamente se producen diariamente.
Nuestro Laboratorio entiende que uno de los mejores servicios que puede prestar a todas aquellas personas y organizaciones que siguen nuestros trabajos es ofrecer una Serie escogida de aquellas opiniones, posiciones y debates, llevados prácticamente al día en que se producen, para mantener genuinamente informados a aquellos que están pendientes de lo que está sucediendo y de nuestra visión.
Por cierto, el Laboratorio se encuentra trabajando en su Microlab de Inteligencia Artificial y oportunamente hará saber sus conclusiones y percepciones, pero la urgencia del tema no admite demasiadas demoras. Esa es la razón por la que hoy inauguramos una Serie, la de Inteligencia Artificial, la que esperamos sea el fermento de análisis, meditación y conclusiones sobre la proyección que un tema de esta envergadura nos obliga a abordar. Nadie, ni gobiernos, ni organismos internacionales, ni organismos regionales, think thanks e individuos pueden permanecer indiferentes a su evolución.
Como siempre, esperamos que nuestro servicio pueda resultarles de utilidad.
Geoffrey Hinton se muestra extremadamente preocupado con el futuro de la inteligencia artificial:
Fuera del campo de investigación y desarrollo de la Inteligencia Artificial puede que existan muchas personas que no hayan oído hablar de Geoffrey Hinton, quizá el pionero o uno de los más destacados del grupo de pioneros que desarrollaron y que se ocuparon sistemáticamente de la Inteligencia Artificial. Pero este autor y su pensamiento representan un hito dentro de toda esta gran discusión por la que estamos transcurriendo y que nos importa porque su opinión es decisiva para la toma de decisiones, en especial de naturaleza publica, y, sus opiniones, sean positivas o negativas no pueden ser ignoradas. Por cierto, el especialista viene de un hecho reciente de alta trascendencia en lo personal y profesional, acaba de renunciar a su empleo en el gigante Google. Una decisión que tiene raíces mas profundas que un simple capricho o una opción simple entre un sí y uno no.
Hinton, con sus 75 años cumplidos, ha visto en su carrera profesional y en su vida personal muchas cosas, ha sido protagonista y testigo, no solamente del desarrollo informático, sino también del nacimiento y desarrollo de Internet y ha construido su vida sobre ello. Es por eso, y por su vastísima trayectoria científica, que es necesario atender a su visión, en tiempos donde la discusión sobre el tema, sobre sus consecuencias y su eventual regulación esta arreciando. Es preciso ser cuidadosos en cuanto a la discusión y a las líneas argumentales que se están desarrollando: sabemos que estamos ante un tema de enorme importancia.
Presentando a Hinton:
Nació en Wimbledon, en el Reino Unido el 6 de diciembre de 1947.Ostenta la doble nacionalidad, la de su país de origen y la del país de su residencia, Canadá. Se educo en la Universidad de Edimburgo y ostenta un PhD. D en Inteligencia Artificial. Luego de obtener su título, trabajo en la Universidad de Sussex – donde enfrento algunas dificultades de financiamiento – y emigro a la Universidad de California en San Diego y a la Universidad Carnegie Mellon.
Fue director Fundador de la Fundación Benéfica Gatsby de la Unidad de Neurociencia Computacional en la University College de Londres.
Su área de trabajo desde hace mucho tiempo es el Aprendizaje Profundo y el Aprendizaje Automático. Y sus áreas de ocupación, además de la informática teórica, es la de profesor universitario en la Universidad de Toronto (en el Departamento de Informática) y en la Universidad de Carnegie Mellon, donde enseno hasta 1987.
Tiene la Cátedra de Investigación de Canadá en Aprendizaje de Máquina, y es actualmente un asesor para el Aprendizaje en Máquinas y Cerebros en el Instituto Canadiense para Investigación Avanzada. Y se unió a Google en marzo de 2013 cuando su compañía, DNNresearch Inc., fue adquirida.
Como se indicó, trabajaba en Google, hasta que, por voluntad propia, dejo de hacerlo muy recientemente, aduciendo el peligro que le reconoce a algunas nuevas tecnologías y la insistencia de algunas empresas en continuar por un camino que nos conduce a esos peligros, la mayoría de los cuales no han sido medidos en su profundidad. Lo hizo a los 75 años, en esta sociedad profundamente despreciativa de sus teóricos viejos.
Por otra parte, es miembro de la Academia Estadounidense de las Artes y de las Ciencias; de la American Association for Artificial Inteligence, del Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes.
Hinton fue elegido miembro de la Royal Society (FRS) en 1998. Él fue el primer ganador del Premio David E. Rumelhart en 2001.
En 2001, Hinton fue galardonado con un Doctorado Honoris causa de la Universidad de Edimburgo. En 2005 recibió el Premio IJCAI de Investigación de Excelencia por su trayectoria. También fue galardonado con la Medalla de Oro Herzberg en Canadá para la Ciencia y la Ingeniería en 2011. En 2013, Hinton fue galardonado con un Doctorado Honoris causa de la Universidad de Sherbrooke, también en Canadá.
En 2016, fue elegido miembro extranjero de la Academia Nacional de Ingeniería «Por sus contribuciones a la teoría y la práctica de las redes neuronales artificiales y sus aplicaciones para el reconocimiento de voz y visión por computador». también recibió el Premio IEEE/RSE Wolfson James Clerk Maxwell en 2016.
Ha ganado los premios Fundación BBVA Fronteras del Conocimiento de Adjudicación (2016) en la Información y la Comunicación las Tecnologías de la categoría «por su pionera y muy influyente trabajo» para dotar a las máquinas con la capacidad para aprender.
Gano el Premio Turing en 2018 (considerado como el Nobel de la Informática) en conjunto fon Yoshua Bengip y Yann LeCun por su trabajo en Aprendizaje Profundo, en especial por avances conceptuales y de ingeniería que han hecho de las redes neuronales profundas como un componente crítico de la computación.
En la actualidad, el Profesor Hinton investiga en las maneras de utilizar redes neuronales para aprendizaje de máquina, memoria, percepción y procesamiento de símbolos. Es autor o coautor de más de 200 publicaciones revisadas por pares en estas áreas. Mientras fue Profesor en la Universidad de Carnegie Mellon (1982-1987), Hinton fue uno de los primeros investigadores que demostró el uso del algoritmo de backpropagation generalizado para entrenar redes neuronales multicapa que ha sido ampliamente utilizado para aplicaciones prácticas. Durante el mismo periodo, Hinton coinventó las máquinas de Boltzmann con David Ackley y Terry Sejnowski. Sus otras contribuciones a la investigación en redes neuronales incluyen representaciones distribuidas, red neuronal con retraso de tiempo, mezclas de expertos, máquinas de Helmholtz y Producto de Expertos. En 2007 Hinton fue coautor de un trabajo de aprendizaje no supervisado titulado «Aprendizaje no supervisado de transformaciones de imagen». Una introducción accesible a las investigaciones de Geoffrey Hinton puede encontrarse en sus artículos en Scientific American en septiembre de 1992 y octubre de 1993.
Hinton se desplazó de los EE. UU. a Canadá en parte debido a desilusión con la política de la era de Reagan y desaprobación del financiamiento militar de la Inteligencia Artificial. Cree que los sistemas políticos utilizarán la IA para «aterrorizar a la población». Hinton ha peticionado en contra de las armas autónomas letales. Con respecto al riesgo existencial de inteligencia artificial, Hinton ha declarado que la superinteligencia parece estar a más de 50 años en el futuro, pero advierte que «no hay una buena trayectoria de cosas menos inteligentes controlando cosas de mayor inteligencia». Cuando fue entrevistado en 2015 y se le pregunto por qué continúa con la investigación a pesar de sus preocupaciones graves, Hinton declaró «le podría dar los argumentos habituales. Pero la verdad es que la perspectiva de descubrir es demasiado dulce.» Hinton ha declarado también que «es muy duro de pronosticar más allá cinco años» lo que avances la IA traerá. De hecho, las metas que imaginaba con respecto a los tiempos han sido cambiadas por el mismo en forma drástica. Hasta hace un tiempo, la predicción de Hinton era que la inteligencia artificial llegaría a superar a la inteligencia humana en unos treinta o cincuenta años, pero la evidencia le muestra que ese tiempo se ha reducido a entre cinco y veinte años.
“Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”.
Hay un conjunto de razones por las cuales Hinton se ha ido de su puesto de vicepresidente de Ingeniería en Google y ha comenzado una campaña para alertar que el mundo debe temer la tecnología.
Su intención es, en la actualidad, dedicarse a alertar sobre lo que considera la cara oscura de la inteligencia artificial (IA), de acuerdo con lo que dijo en una entrevista concedida al prestigioso e influyente The New York Times. Este “cruce” de una punta del puente a otro no es simplemente un cambio de opinión de alguien. Hinton es una leyenda en la disciplina. Su trabajo ha sido decisivo para alumbrar algunas técnicas que han hecho posible ChatGPT, los traductores automáticos o los sistemas de visión de los vehículos autónomos. Ha cruzado el puente, porque ahora cree con firmeza que la tecnología que tanto ha ayudado a desarrollar puede llevarnos al fin de la civilización en cuestión de años.
No es una conclusión caprichosa, la obsesión de este científico siempre fue estudiar cómo funciona el cerebro para tratar de replicar esos mecanismos en los ordenadores. En 1972 acuñó el concepto de red neuronal. La idea de fondo era originalmente aplicar matemáticas al análisis de datos para que los sistemas sean capaces de desarrollar habilidades. Su propuesta no convenció en la época; hoy, las redes neuronales son la punta de lanza de la investigación en Inteligencia Artificial. El gran momento de Hinton llegó en 2012, cuando demostró el verdadero potencial de su línea de investigación con una red neuronal que podía analizar miles de fotografías y aprender por sí sola a distinguir ciertos objetos, como flores, coches o perros. También entrenó un sistema para que fuera capaz de predecir las siguientes letras de una frase inacabada, un antecesor de los actuales grandes modelos lingüísticos como el de ChatGPT.
Los peligros a los que nos enfrentamos, los inmediatos y los “existenciales”:
De acuerdo con el pensamiento actual del Profesor Hinton, enfrentamos muchos peligros. La generación de noticias falsas ya está causando grandes divisiones en la sociedad. La eliminación de ciertos tipos de trabajo tendrá un impacto en el empleo. Aumentará la disparidad de riqueza entre los ricos y los pobres. Esos son algunos de los peligros inminentes, aunque existen otros de carácter existencial. De acuerdo con Hinton “hace poco me di cuenta de que el tipo de inteligencia digital que estamos desarrollando podría ser una forma de inteligencia mejor que la de los cerebros biológicos. Siempre pensé que la IA o el aprendizaje profundo intentaban imitar el cerebro, aunque no podían igualarlo: el objetivo era ir mejorando para que las máquinas se parecieran más y más a nosotros. He cambiado de postura en los últimos meses. Creo que podemos desarrollar algo que es mucho más eficiente que el cerebro porque es digital”. Y lo que cubre esta afirmación es lo que debemos considerar como realmente preocupante.
Creía que, en todo caso, podíamos imitar el cerebro, pero ahora cree que podemos crear algo mas eficiente que el cerebro, porque es digital:
Con un sistema digital, podríamos tener muchísimas copias de exactamente el mismo modelo del mundo. Estas copias pueden funcionar en distintos hardwares. De este modo, diferentes copias podrían analizar datos diferentes. Y todas estas copias pueden saber al instante lo que las demás han aprendido. Lo hacen compartiendo sus parámetros. Pero, no es posible hacer eso con el cerebro. Nuestras mentes han aprendido a utilizar todas sus propiedades de forma individual. Si le diera un mapa detallado de las conexiones neuronales de nuestro cerebro, no serviría de nada. Pero en los sistemas digitales, el modelo es idéntico. Todos usan el mismo conjunto de conexiones. Así, cuando uno aprende cualquier cosa, puede comunicárselo a los demás. Y es por eso por lo que ChatGPT puede saber miles de veces más que cualquier persona: porque puede ver miles de veces más datos que nadie. Eso es lo que asusta. Tal vez esta forma de inteligencia sea mejor que la nuestra.
Avanza hacia esta conclusión, luego de tratar de averiguar cómo un cerebro podría implementar los mismos procedimientos de aprendizaje que se utilizan en inteligencias digitales como las que están detrás de ChatGPT-4. Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores.
¿La inteligencia artificial puede ser “realmente inteligente” si no entiende lo que significan las palabras o sin tener intuición?
El aprendizaje profundo, si se lo compara con la Inteligencia Artificial simbólica (la corriente dominante en la disciplina hasta la irrupción de las redes neuronales, que trataba de que la máquina aprendiese palabras y números), es un modelo de intuición. Si se toma la lógica simbólica como referencia, si creemos que así es como funciona el razonamiento, no se puede responder a la pregunta que es necesario hacer. Pero si tenemos un modelo informático de intuición, la respuesta es obvia. Así que esta es la pregunta: sabemos que hay gatos machos y hembras. Pero supongamos que digo que hay que elegir entre dos posibilidades, ambas ridículas: todos los gatos son machos y los perros son hembras, o todos los gatos son hembras y todos los perros son machos. En nuestra cultura occidental, tenemos bastante claro que tiene más sentido que los gatos sean hembras, porque son más pequeños, más listos y les rodean una serie de estereotipos, y que los perros sean machos, porque son más grandes, menos inteligentes, más ruidosos, etcétera. Repito, no tiene ningún sentido, pero forzados a escoger, creo que la mayoría diría lo mismo. ¿Por qué? En nuestra mente representamos al gato y al perro, al hombre y a la mujer, con grandes patrones de actividad neuronal basándonos en lo que hemos aprendido. Y asociamos entre sí las representaciones que más se parecen. Ese es un razonamiento intuitivo, no lógico. Así es como funciona el aprendizaje profundo.
¿Es posible que la Inteligencia Artificial llegue a tener su propio propósitos u objetivos?
Aquí esta una cuestión clave, quizás el mayor peligro que rodea a esta tecnología. Nuestros cerebros son el fruto de la evolución y tienen una serie de metas integradas, como no lastimar el cuerpo, de ahí la noción del daño; comer lo suficiente, de ahí el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la gran pregunta es, ¿podemos asegurarnos de que tengan metas que nos beneficien a nosotros? Este es el llamado problema del alineamiento. Y tenemos varias razones para preocuparnos mucho. La primera es que siempre habrá quienes quieran crear robots soldados. Eso se puede conseguir de forma más eficiente si se le da a la máquina la capacidad de generar su propio conjunto de objetivos. En ese caso, si la máquina es inteligente, no tardará en darse cuenta de que consigue mejor sus objetivos si se vuelve más poderosa. Entonces, una de las claves es poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura.
Los caminos que desarrollar ahora:
Es necesario llamar la atención de la gente sobre este problema existencial que supone la Inteligencia Artificial. Ojalá hubiera una solución, que sea nítida, como en el caso de la emergencia climática: hay que dejar de quemar carbono, aunque haya muchos intereses que lo impidan. Pero no se conoce ningún problema equivalente al de la Inteligencia Artificial. Así que lo mejor que se puede hacer en este momento es que se debería poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura. Y eso no está sucediendo en la actualidad. Pero, ¿cómo se logra eso en un sistema capitalista?.
Google desarrolló internamente chatbots como LaMDA, que eran muy buenos, y deliberadamente decidió no abrirlos al público porque estaban preocupados por sus consecuencias. Y así fue mientras Google lideraba esta la tecnología. Cuando Microsoft decidió poner un chatbot inteligente en su buscador Bing, Google tuvo que responder porque operan un sistema competitivo. Google se comportó de forma responsable. Hinton no quiere que la gente piense que se fue de la empresa para criticarla. Dejo Google para poder advertir sobre los peligros sin tener que pensar en el impacto que pueda causar en su negocio.
Cuál es la situación en general de la comunidad científica y la ingenuidad manifiesta:
Las conclusiones de Hinton es que hemos entrado en un territorio completamente desconocido. Somos capaces de construir máquinas más fuertes que nosotros, pero aun así tenemos el control. Pero ¿qué sucedería si desarrollamos máquinas más inteligentes que nosotros? No tenemos experiencia en tratar estas cosas. Realmente tenemos que pensar mucho en esto. Y no basta con decir que no vamos a preocuparnos. Muchas de las personas más inteligentes que conocemos y que están ocupándose de estos temas están seriamente preocupadas.
No sirve de nada esperar a que la Inteligencia Artificial sea más lista que nosotros, debemos controlarla a medida que se desarrolla.
Hinton no firmo la carta suscrita por mas de un millar de expertos en Inteligencia Artificial que solicitaba una moratoria de seis meses en la investigación. Sus razones es que cree que el enfoque es completamente ingenuo y no hay manera de que se pueda implementar. Hay razones que esgrime y que son muy importantes: aun salvando la competencia entre las grandes empresas, está la de los países. Si EE. UU. decidiera dejar de desarrollar Inteligencia Artificial, ¿realmente creemos que China se detendría? La idea de detener la investigación llama la atención de la gente sobre el problema, pero no va a suceder. Con las armas nucleares, dado que la gente se dio cuenta de que todos perderíamos si había una guerra nuclear, fue posible conseguir Tratados. Con la Inteligencia Artificial será mucho más complicado porque es muy difícil comprobar si la gente está trabajando en ello.
Lo mejor que se puede recomendar es que muchas personas muy inteligentes traten de averiguar cómo contener los peligros de estas cosas. La Inteligencia Artificial es una tecnología fantástica, está provocando grandes avances en la medicina, en el desarrollo de nuevos materiales, en la previsión de terremotos o inundaciones… Necesitamos mucho trabajo para entender cómo contener la IA. No sirve de nada esperar a que la IA sea más lista que nosotros, debemos controlarla a medida que se desarrolla. También tenemos que comprender cómo contenerla, cómo evitar sus malas consecuencias. Por ejemplo, creo que todos los gobiernos deberían insistir en que todas las imágenes falsas lleven un distintivo.
Por último, Hinton ha señalado: “tenemos la oportunidad de prepararnos para este reto. Necesitamos mucha gente creativa e inteligente. Si hay alguna forma de mantener la IA bajo control, necesitamos descubrirla antes de que sea demasiado inteligente”.
0 comentarios