Inteligencia Artificial V Hinton Las preocupaciones del “padre” de la Inteligencia Artificial

Inteligencia Artificial V Hinton Las preocupaciones del “padre” de la Inteligencia Artificial

Geoffrey Hinton, una atentica leyenda en la disciplina, cree ahora que la tecnología que tanto ayudo a desarrollar puede llevarnos al fin de la civilización en cuestión de años.

El tema de la Inteligencia Artificial, con su enorme alcance y lo poco que en realidad sabemos – en muchos casos todavía estamos en etapa intuitiva – ha dado lugar a una autentica catarata de estudios, opiniones, controversias y encendidos debates que prácticamente se producen diariamente.

Nuestro Laboratorio entiende que uno de los mejores servicios que puede prestar a todas aquellas personas y organizaciones que siguen nuestros trabajos es ofrecer una Serie escogida de aquellas opiniones, posiciones y debates, llevados prácticamente al día en que se producen, para mantener genuinamente informados a aquellos que están pendientes de lo que está sucediendo y de nuestra visión.

Por cierto, el Laboratorio se encuentra trabajando en su Microlab de Inteligencia Artificial y oportunamente hará saber sus conclusiones y percepciones, pero la urgencia del tema no admite demasiadas demoras. Esa es la razón por la que hoy inauguramos una Serie, la de Inteligencia Artificial, la que esperamos sea el fermento de análisis, meditación y conclusiones sobre la proyección que un tema de esta envergadura nos obliga a abordar. Nadie, ni gobiernos, ni organismos internacionales, ni organismos regionales, think thanks e individuos pueden permanecer indiferentes a su evolución.

Como siempre, esperamos que nuestro servicio pueda resultarles de utilidad.

Geoffrey Hinton se muestra extremadamente preocupado con el futuro de la inteligencia artificial:

Fuera del campo de investigación y desarrollo de la Inteligencia Artificial puede que existan muchas personas que no hayan oído hablar de Geoffrey Hinton, quizá el pionero o uno de los más destacados del grupo de pioneros que desarrollaron y que se ocuparon sistemáticamente de la Inteligencia Artificial.  Pero este autor y su pensamiento representan un hito dentro de toda esta gran discusión por la que estamos transcurriendo y que nos importa porque su opinión es decisiva para la toma de decisiones, en especial de naturaleza publica, y, sus opiniones, sean positivas o negativas no pueden ser ignoradas. Por cierto, el especialista viene de un hecho reciente de alta trascendencia en lo personal y profesional, acaba de renunciar a su empleo en el gigante Google. Una decisión que tiene raíces mas profundas que un simple capricho o una opción simple entre un sí y uno no.

Hinton, con sus 75 años cumplidos, ha visto en su carrera profesional y en su vida personal muchas cosas, ha sido protagonista y testigo, no solamente del desarrollo informático, sino también del nacimiento y desarrollo de Internet y ha construido su vida sobre ello. Es por eso, y por su vastísima trayectoria científica, que es necesario atender a su visión, en tiempos donde la discusión sobre el tema, sobre sus consecuencias y su eventual regulación esta arreciando. Es preciso ser cuidadosos en cuanto a la discusión y a las líneas argumentales que se están desarrollando: sabemos que estamos ante un tema de enorme importancia.

Presentando a Hinton:

Nació en Wimbledon, en el Reino Unido el 6 de diciembre de 1947.Ostenta la doble nacionalidad, la de su país de origen y la del país de su residencia, Canadá. Se educo en la Universidad de Edimburgo y ostenta un PhD. D en Inteligencia Artificial.  Luego de obtener su título, trabajo en la Universidad de Sussex – donde enfrento algunas dificultades de financiamiento – y emigro a la Universidad de California en San Diego y a la Universidad Carnegie Mellon.

Fue director Fundador de la Fundación Benéfica Gatsby de la Unidad de Neurociencia Computacional en la University College de Londres.

Su área de trabajo desde hace mucho tiempo es el Aprendizaje Profundo y el Aprendizaje Automático. Y sus áreas de ocupación, además de la informática teórica, es la de profesor universitario en la Universidad de Toronto (en el Departamento de Informática) y en la Universidad de Carnegie Mellon, donde enseno hasta 1987.

Tiene la Cátedra de Investigación de Canadá en Aprendizaje de Máquina, y es actualmente un asesor para el Aprendizaje en Máquinas y Cerebros en el Instituto Canadiense para Investigación Avanzada.  Y se unió a Google en marzo de 2013 cuando su compañía, DNNresearch Inc., fue adquirida.

Como se indicó, trabajaba en Google, hasta que, por voluntad propia, dejo de hacerlo muy recientemente, aduciendo el peligro que le reconoce a algunas nuevas tecnologías y la insistencia de algunas empresas en continuar por un camino que nos conduce a esos peligros, la mayoría de los cuales no han sido medidos en su profundidad. Lo hizo a los 75 años, en esta sociedad profundamente despreciativa de sus teóricos viejos.

Por otra parte, es miembro de la Academia Estadounidense de las Artes y de las Ciencias; de la American Association for Artificial Inteligence, del Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes.

Hinton fue elegido miembro de la Royal Society (FRS) en 1998. Él fue el primer ganador del Premio David E. Rumelhart en 2001.

En 2001, Hinton fue galardonado con un Doctorado Honoris causa de la Universidad de Edimburgo. En 2005 recibió el Premio IJCAI de Investigación de Excelencia por su trayectoria. También fue galardonado con la Medalla de Oro Herzberg en Canadá para la Ciencia y la Ingeniería en 2011. En 2013, Hinton fue galardonado con un Doctorado Honoris causa de la Universidad de Sherbrooke, también en Canadá.  

En 2016, fue elegido miembro extranjero de la Academia Nacional de Ingeniería «Por sus contribuciones a la teoría y la práctica de las redes neuronales artificiales y sus aplicaciones para el reconocimiento de voz y visión por computador». también recibió el Premio IEEE/RSE Wolfson James Clerk Maxwell en 2016.

Ha ganado los premios Fundación BBVA Fronteras del Conocimiento de Adjudicación (2016) en la Información y la Comunicación las Tecnologías de la categoría «por su pionera y muy influyente trabajo» para dotar a las máquinas con la capacidad para aprender.

Gano el Premio Turing en 2018 (considerado como el Nobel de la Informática) en conjunto fon Yoshua Bengip y Yann LeCun por su trabajo en Aprendizaje Profundo, en especial por avances conceptuales y de ingeniería que han hecho de las redes neuronales profundas como un componente crítico de la computación.

En la actualidad, el Profesor Hinton investiga en las maneras de utilizar redes neuronales para aprendizaje de máquina, memoriapercepción y procesamiento de símbolos. Es autor o coautor de más de 200 publicaciones revisadas por pares en estas áreas. Mientras fue Profesor en la Universidad de Carnegie Mellon (1982-1987), Hinton fue uno de los primeros investigadores que demostró el uso del algoritmo de backpropagation generalizado para entrenar redes neuronales multicapa que ha sido ampliamente utilizado para aplicaciones prácticas.​ Durante el mismo periodo, Hinton coinventó las máquinas de Boltzmann con David Ackley y Terry Sejnowski. Sus otras contribuciones a la investigación en redes neuronales incluyen representaciones distribuidas, red neuronal con retraso de tiempo, mezclas de expertos, máquinas de Helmholtz y Producto de Expertos. En 2007 Hinton fue coautor de un trabajo de aprendizaje no supervisado titulado «Aprendizaje no supervisado de transformaciones de imagen».​ Una introducción accesible a las investigaciones de Geoffrey Hinton puede encontrarse en sus artículos en Scientific American en septiembre de 1992 y octubre de 1993.

Hinton se desplazó de los EE. UU. a Canadá en parte debido a desilusión con la política de la era de Reagan y desaprobación del financiamiento militar de la Inteligencia Artificial. Cree que los sistemas políticos utilizarán la IA para «aterrorizar a la población». Hinton ha peticionado en contra de las armas autónomas letales. Con respecto al riesgo existencial de inteligencia artificial, Hinton ha declarado que la superinteligencia parece estar a más de 50 años en el futuro, pero advierte que «no hay una buena trayectoria de cosas menos inteligentes controlando cosas de mayor inteligencia». Cuando fue entrevistado en 2015 y se le pregunto por qué continúa con la investigación a pesar de sus preocupaciones graves, Hinton declaró «le podría dar los argumentos habituales. Pero la verdad es que la perspectiva de descubrir es demasiado dulce.» Hinton ha declarado también que «es muy duro de pronosticar más allá cinco años» lo que avances la IA traerá. De hecho, las metas que imaginaba con respecto a los tiempos han sido cambiadas por el mismo en forma drástica. Hasta hace un tiempo, la predicción de Hinton era que la inteligencia artificial llegaría a superar a la inteligencia humana en unos treinta o cincuenta años, pero la evidencia le muestra que ese tiempo se ha reducido a entre cinco y veinte años.

“Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”.

Hay un conjunto de razones por las cuales Hinton se ha ido de su puesto de vicepresidente de Ingeniería en Google y ha comenzado una campaña para alertar que el mundo debe temer la tecnología.

Su intención es, en la actualidad, dedicarse a alertar sobre lo que considera la cara   oscura de la inteligencia artificial (IA), de acuerdo con lo que dijo en una entrevista concedida al prestigioso e influyente The New York Times. Este “cruce” de una punta del puente a otro no es simplemente un cambio de opinión de alguien. Hinton es una leyenda en la disciplina. Su trabajo ha sido decisivo para alumbrar algunas técnicas que han hecho posible ChatGPT, los traductores automáticos o los sistemas de visión de los vehículos autónomos. Ha cruzado el puente, porque ahora cree con firmeza que la tecnología que tanto ha ayudado a desarrollar puede llevarnos al fin de la civilización en cuestión de años.

No es una conclusión caprichosa, la obsesión de este científico siempre fue estudiar cómo funciona el cerebro para tratar de replicar esos mecanismos en los ordenadores. En 1972 acuñó el concepto de red neuronal. La idea de fondo era originalmente aplicar matemáticas al análisis de datos para que los sistemas sean capaces de desarrollar habilidades. Su propuesta no convenció en la época; hoy, las redes neuronales son la punta de lanza de la investigación en Inteligencia Artificial. El gran momento de Hinton llegó en 2012, cuando demostró el verdadero potencial de su línea de investigación con una red neuronal que podía analizar miles de fotografías y aprender por sí sola a distinguir ciertos objetos, como flores, coches o perros. También entrenó un sistema para que fuera capaz de predecir las siguientes letras de una frase inacabada, un antecesor de los actuales grandes modelos lingüísticos como el de ChatGPT.

Los peligros a los que nos enfrentamos, los inmediatos y los “existenciales”:

De acuerdo con el pensamiento actual del Profesor Hinton, enfrentamos muchos peligros. La generación de noticias falsas ya está causando grandes divisiones en la sociedad. La eliminación de ciertos tipos de trabajo tendrá un impacto en el empleo. Aumentará la disparidad de riqueza entre los ricos y los pobres. Esos son algunos de los peligros inminentes, aunque existen otros de carácter existencial. De acuerdo con Hinton “hace poco me di cuenta de que el tipo de inteligencia digital que estamos desarrollando podría ser una forma de inteligencia mejor que la de los cerebros biológicos. Siempre pensé que la IA o el aprendizaje profundo intentaban imitar el cerebro, aunque no podían igualarlo: el objetivo era ir mejorando para que las máquinas se parecieran más y más a nosotros. He cambiado de postura en los últimos meses. Creo que podemos desarrollar algo que es mucho más eficiente que el cerebro porque es digital”. Y lo que cubre esta afirmación es lo que debemos considerar como realmente preocupante.

Creía que, en todo caso, podíamos imitar el cerebro, pero ahora cree que podemos crear algo mas eficiente que el cerebro, porque es digital:

Con un sistema digital, podríamos tener muchísimas copias de exactamente el mismo modelo del mundo. Estas copias pueden funcionar en distintos hardwares. De este modo, diferentes copias podrían analizar datos diferentes. Y todas estas copias pueden saber al instante lo que las demás han aprendido. Lo hacen compartiendo sus parámetros. Pero, no es posible hacer eso con el cerebro. Nuestras mentes han aprendido a utilizar todas sus propiedades de forma individual. Si le diera un mapa detallado de las conexiones neuronales de nuestro cerebro, no serviría de nada. Pero en los sistemas digitales, el modelo es idéntico. Todos usan el mismo conjunto de conexiones. Así, cuando uno aprende cualquier cosa, puede comunicárselo a los demás. Y es por eso por lo que ChatGPT puede saber miles de veces más que cualquier persona: porque puede ver miles de veces más datos que nadie. Eso es lo que asusta. Tal vez esta forma de inteligencia sea mejor que la nuestra.

Avanza hacia esta conclusión, luego de tratar de averiguar cómo un cerebro podría implementar los mismos procedimientos de aprendizaje que se utilizan en inteligencias digitales como las que están detrás de ChatGPT-4. Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores.

¿La inteligencia artificial puede ser “realmente inteligente” si no entiende lo que significan las palabras o sin tener intuición?

El aprendizaje profundo, si se lo compara con la Inteligencia Artificial simbólica (la corriente dominante en la disciplina hasta la irrupción de las redes neuronales, que trataba de que la máquina aprendiese palabras y números), es un modelo de intuición. Si se toma la lógica simbólica como referencia, si creemos que así es como funciona el razonamiento, no se puede responder a la pregunta que es necesario hacer. Pero si tenemos un modelo informático de intuición, la respuesta es obvia. Así que esta es la pregunta: sabemos que hay gatos machos y hembras. Pero supongamos que digo que hay que elegir entre dos posibilidades, ambas ridículas: todos los gatos son machos y los perros son hembras, o todos los gatos son hembras y todos los perros son machos. En nuestra cultura occidental, tenemos bastante claro que tiene más sentido que los gatos sean hembras, porque son más pequeños, más listos y les rodean una serie de estereotipos, y que los perros sean machos, porque son más grandes, menos inteligentes, más ruidosos, etcétera. Repito, no tiene ningún sentido, pero forzados a escoger, creo que la mayoría diría lo mismo. ¿Por qué? En nuestra mente representamos al gato y al perro, al hombre y a la mujer, con grandes patrones de actividad neuronal basándonos en lo que hemos aprendido. Y asociamos entre sí las representaciones que más se parecen. Ese es un razonamiento intuitivo, no lógico. Así es como funciona el aprendizaje profundo.

¿Es posible que la Inteligencia Artificial llegue a tener su propio propósitos u objetivos?

Aquí esta una cuestión clave, quizás el mayor peligro que rodea a esta tecnología. Nuestros cerebros son el fruto de la evolución y tienen una serie de metas integradas, como no lastimar el cuerpo, de ahí la noción del daño; comer lo suficiente, de ahí el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la gran pregunta es, ¿podemos asegurarnos de que tengan metas que nos beneficien a nosotros? Este es el llamado problema del alineamiento. Y tenemos varias razones para preocuparnos mucho. La primera es que siempre habrá quienes quieran crear robots soldados. Eso se puede conseguir de forma más eficiente si se le da a la máquina la capacidad de generar su propio conjunto de objetivos. En ese caso, si la máquina es inteligente, no tardará en darse cuenta de que consigue mejor sus objetivos si se vuelve más poderosa. Entonces, una de las claves es poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura.

Los caminos que desarrollar ahora:

Es necesario llamar la atención de la gente sobre este problema existencial que supone la Inteligencia Artificial. Ojalá hubiera una solución, que sea nítida, como en el caso de la emergencia climática: hay que dejar de quemar carbono, aunque haya muchos intereses que lo impidan. Pero no se conoce ningún problema equivalente al de la Inteligencia Artificial. Así que lo mejor que se puede hacer en este momento es que se debería poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura. Y eso no está sucediendo en la actualidad. Pero, ¿cómo se logra eso en un sistema capitalista?.

Google desarrolló internamente chatbots como LaMDA, que eran muy buenos, y deliberadamente decidió no abrirlos al público porque estaban preocupados por sus consecuencias. Y así fue mientras Google lideraba esta la tecnología. Cuando Microsoft decidió poner un chatbot inteligente en su buscador Bing, Google tuvo que responder porque operan un sistema competitivo. Google se comportó de forma responsable. Hinton no quiere que la gente piense que se fue de la empresa para criticarla. Dejo Google para poder advertir sobre los peligros sin tener que pensar en el impacto que pueda causar en su negocio.

Cuál es la situación en general de la comunidad científica y la ingenuidad manifiesta:

Las conclusiones de Hinton es que hemos entrado en un territorio completamente desconocido. Somos capaces de construir máquinas más fuertes que nosotros, pero aun así tenemos el control. Pero ¿qué sucedería si desarrollamos máquinas más inteligentes que nosotros? No tenemos experiencia en tratar estas cosas. Realmente tenemos que pensar mucho en esto. Y no basta con decir que no vamos a preocuparnos. Muchas de las personas más inteligentes que conocemos y que están ocupándose de estos temas están seriamente preocupadas.

No sirve de nada esperar a que la Inteligencia Artificial sea más lista que nosotros, debemos controlarla a medida que se desarrolla.

Hinton no firmo la carta suscrita por mas de un millar de expertos en Inteligencia Artificial que solicitaba una moratoria de seis meses en la investigación. Sus razones es que cree que el enfoque es completamente ingenuo y no hay manera de que se pueda implementar. Hay razones que esgrime y que son muy importantes:  aun salvando la competencia entre las grandes empresas, está la de los países. Si EE. UU. decidiera dejar de desarrollar Inteligencia Artificial, ¿realmente creemos que China se detendría? La idea de detener la investigación llama la atención de la gente sobre el problema, pero no va a suceder. Con las armas nucleares, dado que la gente se dio cuenta de que todos perderíamos si había una guerra nuclear, fue posible conseguir Tratados. Con la Inteligencia Artificial será mucho más complicado porque es muy difícil comprobar si la gente está trabajando en ello.

Lo mejor que se puede recomendar es que muchas personas muy inteligentes traten de averiguar cómo contener los peligros de estas cosas. La Inteligencia Artificial es una tecnología fantástica, está provocando grandes avances en la medicina, en el desarrollo de nuevos materiales, en la previsión de terremotos o inundaciones… Necesitamos mucho trabajo para entender cómo contener la IA. No sirve de nada esperar a que la IA sea más lista que nosotros, debemos controlarla a medida que se desarrolla. También tenemos que comprender cómo contenerla, cómo evitar sus malas consecuencias. Por ejemplo, creo que todos los gobiernos deberían insistir en que todas las imágenes falsas lleven un distintivo.

Por último, Hinton ha señalado: “tenemos la oportunidad de prepararnos para este reto. Necesitamos mucha gente creativa e inteligente. Si hay alguna forma de mantener la IA bajo control, necesitamos descubrirla antes de que sea demasiado inteligente”.

Inteligencia Artificial IV Trabajo Abogacia

Inteligencia Artificial IV Trabajo Abogacia

¿La Inteligencia Artificial podría limitar cada vez más al ejercicio de la Abogacía?

El tema de la Inteligencia Artificial, con su enorme alcance y lo poco que en realidad sabemos – en muchos casos todavía estamos en etapa intuitiva – ha dado lugar a una autentica catarata de estudios, opiniones, controversias y encendidos debates que prácticamente se producen diariamente.

Nuestro Laboratorio entiende que uno de los mejores servicios que puede prestar a todas aquellas personas y organizaciones que siguen nuestros trabajos es ofrecer una Serie escogida de aquellas opiniones, posiciones y debates, llevados prácticamente al día en que se producen, para mantener genuinamente informados a aquellos que están pendientes de lo que está sucediendo y de nuestra visión.

Por cierto, el Laboratorio se encuentra trabajando en su Microlab de Inteligencia Artificial y oportunamente hará saber sus conclusiones y percepciones, pero la urgencia del tema no admite demasiadas demoras. Esa es la razón por la que hoy inauguramos una Serie, la de Inteligencia Artificial, la que esperamos sea el fermento de análisis, meditación y conclusiones sobre la proyección que un tema de esta envergadura nos obliga a abordar. Nadie, ni gobiernos, ni organismos internacionales, ni organismos regionales, think thanks e individuos pueden permanecer indiferentes a su evolución.

Como siempre, esperamos que nuestro servicio pueda resultarles de utilidad.

La inteligencia artificial puede no robar su trabajo, pero podría cambiar su trabajo

La Inteligencia Artificial (IA) ya se está utilizando en el ámbito legal. ¿Está realmente preparada para ser abogada?

Los avances en Inteligencia Artificial (IA) tienden a generar ansiedad sobre el futuro de los trabajos. Esta última ola de modelos de IA como ChatGPT y el nuevo GPT-4 de OpenAI no es diferente. Primero tuvimos el lanzamiento de los sistemas. Y ahora estamos viendo predicciones de automatización laboral. 

En un informe publicado por el grupo Goldman Sachs a principios de abril, se predijo que los avances de la IA podrían automatizar de alguna manera 300 millones de puestos de trabajo (que representan aproximadamente el 18 % de la fuerza laboral mundial ) . OpenAI también publicó su propio estudio en conjunto con la Universidad de Pensilvania (EE. UU.), que afirmaba que ChatGPT podría afectar a más del 80% de los empleos en el país. 

Los números parecen abrumadores, pero el lenguaje utilizado en estos informes puede ser frustrantemente vago. «Modificar» puede significar muchas cosas y los detalles no están claros. 

Las personas cuyos trabajos tienen que ver con la comunicación a través del lenguaje pueden, como era de esperar, verse particularmente afectadas por grandes modelos de lenguaje como ChatGPT y GPT-4. Tomemos un ejemplo: los abogados. A principios de abril, observé la industria legal y cómo es probable que se vea afectada por los nuevos modelos de IA, y lo que encontré es que hay tantos motivos para el optimismo como para la preocupación. 

La industria legal anticuada y lenta ha sido objeto de disrupción tecnológica desde hace algún tiempo. En una industria que tiene poca mano de obra y necesita lidiar con montones de documentos complejos, la tecnología que puede comprender y resumir rápidamente el texto puede ser inmensamente útil. Entonces, ¿cómo deberíamos pensar en el impacto que estos modelos de IA pueden tener en el sector legal? 

Primero, los avances recientes de la IA son particularmente compatibles y adecuados para el trabajo legal. En marzo, el GPT-4 aprobó el Examen Uniforme de Abogados, también conocido como UBE, similar al examen OAB en Brasil, que es la prueba estándar requerida para obtener la licencia de abogados en los EE. UU. Sin embargo, eso no significa que AI esté lista para defender. 

El modelo podría haber sido entrenado en miles de pruebas de práctica, lo que lo habría convertido en un candidato impresionante, pero no necesariamente en un gran defensor. (No sabemos mucho sobre los datos de entrenamiento de GPT-4 porque OpenAI no publicó esa información ). 

Aun así, el sistema es excelente para el análisis de texto, lo cual es extremadamente importante para los abogados. 

“El idioma es de suma importancia en la industria legal y el campo del derecho. Todos los caminos conducen a un documento. Eso significa que tienes que leer, analizar o escribir un documento… y esa es realmente la moneda con la que la gente comercia», dice Daniel Katz, profesor de derecho en Chicago-Kent College (EE. UU.), quien supervisó la prueba GPT. -4. 

Además, según Katz, el trabajo legal tiene muchas tareas repetitivas que se pueden automatizar, como buscar leyes y casos aplicables y obtener evidencia relevante. 

Uno de los investigadores de la prueba UBE, Pablo Arredondo, ha estado trabajando en secreto con OpenAI desde el otoño para usar GPT-4 en su producto legal, Casetext. Según el sitio web de Casetext, utiliza IA para realizar «revisión de documentos, memorandos de investigación legal, preparación de declaraciones y análisis de contratos». 

Arredondo también dice que a medida que usa GPT-4, se entusiasma cada vez más con el potencial del modelo de lenguaje para ayudar a los abogados. Dice que la tecnología es «increíble» y «refinada». 

Sin embargo, la IA en el ámbito legal no es una tendencia nueva. Ya se ha utilizado para revisar contratos y predecir resultados legales, y los investigadores han estado explorando cómo la IA podría ayudar a aprobar leyes. Recientemente, DoNotPay, una firma de derechos del consumidor consideró presentar un argumento escrito por IA en un caso judicial, utilizando un llamado «abogado robot” que lo recitaría en los oídos de los acusados ​​a través de un auricular. (DoNotPay no tomó medidas y está siendo demandado por ejercer ilegalmente la abogacía). 

A pesar de estos ejemplos, este tipo de tecnologías aún no han obtenido una adopción generalizada en los bufetes de abogados. ¿Podría eso cambiar con los nuevos modelos de lenguaje grande? 

En tercer lugar, los abogados están acostumbrados al trabajo de revisión y edición. 

Los modelos de lenguaje grande están lejos de ser perfectos y sus resultados deberían verificarse de cerca, lo cual requiere mucho trabajo. Sin embargo, los abogados están muy acostumbrados a revisar documentos, ya sean producidos por personas o máquinas. Muchos están capacitados en revisión de documentos, lo que significa que un mayor uso de la IA, con un humano involucrado en el proceso, podría ser relativamente fácil y práctico en comparación con la adopción de esta tecnología en otros sectores. 

La gran pregunta es si se puede convencer a los abogados de que confíen en un sistema de inteligencia artificial en lugar de en un abogado junior que ha pasado ​unos años en la Facultad de Derecho. 

Por último, existen limitaciones y riesgos. A veces, GPT-4 puede incluso crear un texto muy convincente pero incorrecto y hacer un uso indebido del contenido de referencia. Una vez, dice Arredondo, GPT-4 le hizo dudar de los hechos de un caso que él mismo había trabajado. “Le dije, te equivocas. Yo defendí este caso. Y la IA dijo, puedes presumir de los casos que has trabajado, Pablo, pero tengo razón y aquí está la prueba. Y luego dio una URL que no fue a ninguna parte”. Arredondo agrega: «Ella es un poco sociópata». 

Katz dice que es esencial que los humanos monitoreen constantemente los resultados generados por los sistemas de IA, y destaca la obligación profesional de los abogados de ser rigurosos y minuciosos: «No deberías simplemente tomar los resultados de estos sistemas y entregárselos a las personas sin revisarlos».. 

Otros profesionales son aún más escépticos. “Esta no es una herramienta en la que confiaría para realizar un análisis legal importante y garantizar que sea confiable y preciso”, dice Ben Winters, quien dirige los proyectos del Electronic Privacy Information Center sobre IA y derechos humanos. Winters caracteriza la cultura de la IA generativa en el campo legal como “demasiado confiada e irresponsable”. También se ha expuesto en la prensa que AI se ve afectada por prejuicios raciales y de género. 

También hay consideraciones a largo plazo y cuestiones complejas. Si los abogados tienen menos práctica en la investigación legal, ¿qué significa eso para su habilidad y conocimiento en el campo? 

Pero todavía estamos un poco lejos de ese escenario. Por ahora. 

Fuente original y créditos: MIT Technology Review 16 De Mayo De 2023.

Articulo desarrollado por el MIT (Massachussets Institute of Technology). Original Portugués. Traducción del Equipo Técnico.

error: Content is protected !!