La decisión de Geoffrey Hinton de dejar Google y expresar públicamente sus preocupaciones sobre los riesgos de la IA ha generado un gran debate y ha puesto de manifiesto la importancia de abordar los desafíos éticos y sociales asociados con esta tecnología.
Esto tiene varios significados para el futuro de la Inteligencia Artificial.
Por un lado, un mayor escrutinio: la renuncia de Hinton ha aumentado el escrutinio público sobre el desarrollo y uso de la IA, lo que podría llevar a una mayor regulación y supervisión. Algo de eso estamos viendo en la preocupación europea con la regulación de la materia.
Por otra parte, ha provocado un profundo debate sobre los riesgos: la decisión de Hinton ha impulsado un debate más amplio sobre los riesgos potenciales de la Inteligencia Artificial, como la pérdida de empleos, la propagación de desinformación y el desarrollo de armas autónomas.
Finalmente, y sin intenciones de agotar, las oportunidades para la investigación ética: la renuncia de Hinton podría abrir nuevas oportunidades para la investigación ética en IA, con un mayor enfoque en el desarrollo de sistemas seguros, transparentes y beneficiosos para la sociedad.
Hinton y sus aportes a los elementos éticos de la inteligencia artificial:
Es importante analizar la trayectoria de Hinton, novel Premio Nobel de Física 2024, en cuanto a que hay un conjunto de elementos que nos otorgan pistas para comprender su pensamiento, el que, por cierto, no es de ahora, sino que son lineamientos que viene desarrollando desde hace mucho tiempo, tanto como el que Hinton lleva desarrollando sus investigaciones en inteligencia artificial.
En primer lugar, las reflexiones sobre la importancia de la ética en la IA: Hinton ha sido un defensor de la ética en la IA y ha advertido sobre los riesgos potenciales de esta tecnología. Su ejemplo nos recuerda la importancia de considerar las implicaciones sociales y éticas de nuestras investigaciones.
En segundo lugar, la necesidad de una colaboración interdisciplinaria: el trabajo de Hinton ha demostrado la importancia de la colaboración entre diferentes disciplinas, como la informática, la psicología y la filosofía, para abordar los desafíos complejos planteados por la IA.
Finalmente, el papel de los investigadores en la sociedad: los investigadores en IA tienen un papel crucial en la configuración del futuro de la tecnología. Es importante que los investigadores sean conscientes de las implicaciones de su trabajo y que se comprometan a desarrollar tecnologías beneficiosas para la sociedad.
Hinton ha vuelto a expresar recientemente preocupaciones significativas sobre el rápido desarrollo de la inteligencia artificial. Dentro de sus principales objeciones puede listarse:
La pérdida de control. Una de las preocupaciones más destacadas de Hinton es la posibilidad de que la inteligencia artificial supere la inteligencia humana y se vuelva inmanejable. Teme que los sistemas de IA puedan tomar decisiones que no estén alineadas con los valores humanos y que puedan tener consecuencias imprevistas y potencialmente dañinas.
La desinformación a gran escala. Hinton ha advertido sobre el potencial de la IA para generar y difundir desinformación a gran escala. Los modelos de lenguaje grandes como ChatGPT pueden producir textos altamente convincentes pero falsos, lo que podría socavar la confianza en las instituciones y en la información en general.
El desempleo masivo. Al igual que otros expertos, Hinton ha expresado preocupación por el impacto de la IA en el mercado laboral. Teme que la automatización de tareas cada vez más complejas pueda llevar a un desempleo masivo y a una desigualdad económica creciente.
El desarrollo de armas autónomas. También ha advertido sobre los peligros del desarrollo de armas autónomas, es decir, sistemas de armas que pueden seleccionar y atacar objetivos sin intervención humana. Estas armas podrían desencadenar una nueva carrera armamentística y aumentar el riesgo de conflictos armados.
¿Por qué la renuncia de Hinton a Google es tan significativa?
La renuncia de Hinton a Google ha generado un gran impacto en la comunidad de la inteligencia artificial. Su decisión de abandonar una de las empresas líderes en el desarrollo de esta tecnología y expresar públicamente sus preocupaciones ha puesto de manifiesto la importancia de abordar los desafíos éticos y sociales asociados con la IA.
La renuncia de ha abierto un debate crucial sobre el futuro de la inteligencia artificial. Es probable que veamos un mayor escrutinio público sobre el desarrollo y uso de esta tecnología, así como una mayor presión para establecer normas y regulaciones internacionales que garanticen su desarrollo seguro y beneficioso para la humanidad.
Es importante destacar que:
- Hinton no se opone a la investigación en inteligencia artificial, sino que aboga por un desarrollo más responsable y ético de esta tecnología.
- La comunidad científica y tecnológica está trabajando en el desarrollo de herramientas y técnicas para mitigar los riesgos asociados con la IA, como la alineación de valores, la transparencia y la explicabilidad de los modelos.
- El futuro de la inteligencia artificial dependerá de las decisiones que tomemos como sociedad. Es fundamental fomentar un debate abierto y constructivo sobre los beneficios y riesgos de esta tecnología, y trabajar juntos para garantizar que se utilice para el bien de la humanidad.
Una visión final:
Geoffrey Hinton ya era pesimista con la IA antes de ganar el Premio Nobel. Ahora lo es aún más. Cree que en 20 años o menos la IA acabará superando la inteligencia humana. Y pide que las empresas dediquen un porcentaje de sus recursos de computación a evitar posibles riesgos ante ese futuro
De hecho, en una de las primeras entrevistas que ha concedido tras recibir el Nobel, Hinton vuelve a alertar sobre la amenaza existencial que para él supone la IA. Una que llegará incluso de lo que él pensaba hace no mucho.
Ya expuso su opinión sobre los riesgos a los que nos enfrentamos con la inteligencia artificial, pero con el tiempo ve aún más acuciante esa «amenaza existencial». Hasta no hace mucho él mismo creía que el riesgo estaba muy lejos, que la amenaza no se plantearía hasta dentro de 100 años, quizás 50, y por tanto tendríamos tiempo de afrontarla. «Ahora creo que es bastante probable que en algún momento en los próximos 20 años las IAs se vuelvan más inteligentes que nosotros y realmente necesitamos preocuparnos por lo que ocurrirá después».
Necesitamos mantener el control. Explica cómo habría que dedicar muchos más recursos a lograr que los seres humanos mantengan el control sobre el desarrollo y la operativa de la inteligencia artificial. Sin embargo, explica, los gobiernos no tienen los recursos para ello: son las grandes empresas las que lo tienen. Además, destaca, aquí lo necesario sería no dedicar un porcentaje de los ingresos. Para él eso puede ser muy confuso y engañoso debido a cómo las empresas publican esos ingresos. En lugar de eso, deberían dedicar un porcentaje de su capacidad de computación.
Una de cada cuatro GPUs deberían centrarse en los riesgos. Para él, ese porcentaje debería situarse en un 33%: la tercera parte de los recursos de computación de empresas como Microsoft, Google, Amazon o Meta debería dedicarse precisamente a investigar cómo evitar que la IA se convierta en una amenaza para los seres humanos. Él, no obstante, se conformaría incluso con que fuera una cuarta parte (un 25%) de esos
Otros expertos como LeCun critican esa visión pesimista. Yann LeCun, máximo responsable de IA en Meta y otra de las grandes voces de este ámbito, tiene una visión muy distinta de lo que nos espera. En una entrevista reciente con The Wall Street Journal LeCun indicó que mensajes como los que lanza Hinton son «ridículos». Para él la IA tiene mucho potencial, pero hoy por hoy la IA generativa es básicamente tonta y este tipo de sistemas no lograrán igualar la inteligencia humana.
Por el momento, Hinton, que se fue de Google para “hablar con libertad” parece tener mas credibilidad que LeCun, involucrado directamente en el desarrollo de la inteligencia artificial. Solo eso puede explicar el “calificativo” de LeCun a su viejo maestro.
0 comentarios