Inteligencia Artificial IV Trabajo Abogacia

Economía | Economía y el futuro del trabajo | Estados y tecnología | Inteligencia artificial

23 May, 2023

23 May, 2023

¿La Inteligencia Artificial podría limitar cada vez más al ejercicio de la Abogacía?

El tema de la Inteligencia Artificial, con su enorme alcance y lo poco que en realidad sabemos – en muchos casos todavía estamos en etapa intuitiva – ha dado lugar a una autentica catarata de estudios, opiniones, controversias y encendidos debates que prácticamente se producen diariamente.

Nuestro Laboratorio entiende que uno de los mejores servicios que puede prestar a todas aquellas personas y organizaciones que siguen nuestros trabajos es ofrecer una Serie escogida de aquellas opiniones, posiciones y debates, llevados prácticamente al día en que se producen, para mantener genuinamente informados a aquellos que están pendientes de lo que está sucediendo y de nuestra visión.

Por cierto, el Laboratorio se encuentra trabajando en su Microlab de Inteligencia Artificial y oportunamente hará saber sus conclusiones y percepciones, pero la urgencia del tema no admite demasiadas demoras. Esa es la razón por la que hoy inauguramos una Serie, la de Inteligencia Artificial, la que esperamos sea el fermento de análisis, meditación y conclusiones sobre la proyección que un tema de esta envergadura nos obliga a abordar. Nadie, ni gobiernos, ni organismos internacionales, ni organismos regionales, think thanks e individuos pueden permanecer indiferentes a su evolución.

Como siempre, esperamos que nuestro servicio pueda resultarles de utilidad.

La inteligencia artificial puede no robar su trabajo, pero podría cambiar su trabajo

La Inteligencia Artificial (IA) ya se está utilizando en el ámbito legal. ¿Está realmente preparada para ser abogada?

Los avances en Inteligencia Artificial (IA) tienden a generar ansiedad sobre el futuro de los trabajos. Esta última ola de modelos de IA como ChatGPT y el nuevo GPT-4 de OpenAI no es diferente. Primero tuvimos el lanzamiento de los sistemas. Y ahora estamos viendo predicciones de automatización laboral. 

En un informe publicado por el grupo Goldman Sachs a principios de abril, se predijo que los avances de la IA podrían automatizar de alguna manera 300 millones de puestos de trabajo (que representan aproximadamente el 18 % de la fuerza laboral mundial ) . OpenAI también publicó su propio estudio en conjunto con la Universidad de Pensilvania (EE. UU.), que afirmaba que ChatGPT podría afectar a más del 80% de los empleos en el país. 

Los números parecen abrumadores, pero el lenguaje utilizado en estos informes puede ser frustrantemente vago. «Modificar» puede significar muchas cosas y los detalles no están claros. 

Las personas cuyos trabajos tienen que ver con la comunicación a través del lenguaje pueden, como era de esperar, verse particularmente afectadas por grandes modelos de lenguaje como ChatGPT y GPT-4. Tomemos un ejemplo: los abogados. A principios de abril, observé la industria legal y cómo es probable que se vea afectada por los nuevos modelos de IA, y lo que encontré es que hay tantos motivos para el optimismo como para la preocupación. 

La industria legal anticuada y lenta ha sido objeto de disrupción tecnológica desde hace algún tiempo. En una industria que tiene poca mano de obra y necesita lidiar con montones de documentos complejos, la tecnología que puede comprender y resumir rápidamente el texto puede ser inmensamente útil. Entonces, ¿cómo deberíamos pensar en el impacto que estos modelos de IA pueden tener en el sector legal? 

Primero, los avances recientes de la IA son particularmente compatibles y adecuados para el trabajo legal. En marzo, el GPT-4 aprobó el Examen Uniforme de Abogados, también conocido como UBE, similar al examen OAB en Brasil, que es la prueba estándar requerida para obtener la licencia de abogados en los EE. UU. Sin embargo, eso no significa que AI esté lista para defender. 

El modelo podría haber sido entrenado en miles de pruebas de práctica, lo que lo habría convertido en un candidato impresionante, pero no necesariamente en un gran defensor. (No sabemos mucho sobre los datos de entrenamiento de GPT-4 porque OpenAI no publicó esa información ). 

Aun así, el sistema es excelente para el análisis de texto, lo cual es extremadamente importante para los abogados. 

“El idioma es de suma importancia en la industria legal y el campo del derecho. Todos los caminos conducen a un documento. Eso significa que tienes que leer, analizar o escribir un documento… y esa es realmente la moneda con la que la gente comercia», dice Daniel Katz, profesor de derecho en Chicago-Kent College (EE. UU.), quien supervisó la prueba GPT. -4. 

Además, según Katz, el trabajo legal tiene muchas tareas repetitivas que se pueden automatizar, como buscar leyes y casos aplicables y obtener evidencia relevante. 

Uno de los investigadores de la prueba UBE, Pablo Arredondo, ha estado trabajando en secreto con OpenAI desde el otoño para usar GPT-4 en su producto legal, Casetext. Según el sitio web de Casetext, utiliza IA para realizar «revisión de documentos, memorandos de investigación legal, preparación de declaraciones y análisis de contratos». 

Arredondo también dice que a medida que usa GPT-4, se entusiasma cada vez más con el potencial del modelo de lenguaje para ayudar a los abogados. Dice que la tecnología es «increíble» y «refinada». 

Sin embargo, la IA en el ámbito legal no es una tendencia nueva. Ya se ha utilizado para revisar contratos y predecir resultados legales, y los investigadores han estado explorando cómo la IA podría ayudar a aprobar leyes. Recientemente, DoNotPay, una firma de derechos del consumidor consideró presentar un argumento escrito por IA en un caso judicial, utilizando un llamado «abogado robot” que lo recitaría en los oídos de los acusados ​​a través de un auricular. (DoNotPay no tomó medidas y está siendo demandado por ejercer ilegalmente la abogacía). 

A pesar de estos ejemplos, este tipo de tecnologías aún no han obtenido una adopción generalizada en los bufetes de abogados. ¿Podría eso cambiar con los nuevos modelos de lenguaje grande? 

En tercer lugar, los abogados están acostumbrados al trabajo de revisión y edición. 

Los modelos de lenguaje grande están lejos de ser perfectos y sus resultados deberían verificarse de cerca, lo cual requiere mucho trabajo. Sin embargo, los abogados están muy acostumbrados a revisar documentos, ya sean producidos por personas o máquinas. Muchos están capacitados en revisión de documentos, lo que significa que un mayor uso de la IA, con un humano involucrado en el proceso, podría ser relativamente fácil y práctico en comparación con la adopción de esta tecnología en otros sectores. 

La gran pregunta es si se puede convencer a los abogados de que confíen en un sistema de inteligencia artificial en lugar de en un abogado junior que ha pasado ​unos años en la Facultad de Derecho. 

Por último, existen limitaciones y riesgos. A veces, GPT-4 puede incluso crear un texto muy convincente pero incorrecto y hacer un uso indebido del contenido de referencia. Una vez, dice Arredondo, GPT-4 le hizo dudar de los hechos de un caso que él mismo había trabajado. “Le dije, te equivocas. Yo defendí este caso. Y la IA dijo, puedes presumir de los casos que has trabajado, Pablo, pero tengo razón y aquí está la prueba. Y luego dio una URL que no fue a ninguna parte”. Arredondo agrega: «Ella es un poco sociópata». 

Katz dice que es esencial que los humanos monitoreen constantemente los resultados generados por los sistemas de IA, y destaca la obligación profesional de los abogados de ser rigurosos y minuciosos: «No deberías simplemente tomar los resultados de estos sistemas y entregárselos a las personas sin revisarlos».. 

Otros profesionales son aún más escépticos. “Esta no es una herramienta en la que confiaría para realizar un análisis legal importante y garantizar que sea confiable y preciso”, dice Ben Winters, quien dirige los proyectos del Electronic Privacy Information Center sobre IA y derechos humanos. Winters caracteriza la cultura de la IA generativa en el campo legal como “demasiado confiada e irresponsable”. También se ha expuesto en la prensa que AI se ve afectada por prejuicios raciales y de género. 

También hay consideraciones a largo plazo y cuestiones complejas. Si los abogados tienen menos práctica en la investigación legal, ¿qué significa eso para su habilidad y conocimiento en el campo? 

Pero todavía estamos un poco lejos de ese escenario. Por ahora. 

Fuente original y créditos: MIT Technology Review 16 De Mayo De 2023.

Articulo desarrollado por el MIT (Massachussets Institute of Technology). Original Portugués. Traducción del Equipo Técnico.

Autor: Equipo técnico del Laboratorio del Futuro

Autor: Equipo técnico del Laboratorio del Futuro

Artículos relacionados

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

error: Content is protected !!