Novedades del derecho y las leyes argentinas para el ciudadano

Inteligencia Artificial y Derecho: Convergencia

La transformación del derecho por la IA

El siglo XXI se caracteriza por una aceleración tecnológica sin precedentes, donde la Inteligencia Artificial (IA), y en particular la IA generativa, ha emergido como una fuerza disruptiva con el potencial de reconfigurar industrias enteras.

El sector legal, tradicionalmente percibido como conservador y reacio al cambio, no es ajeno a esta transformación. La irrupción de la IA en el ámbito jurídico presenta una dualidad fascinante: por un lado, ofrece herramientas capaces de optimizar procesos, mejorar la eficiencia y democratizar el acceso a la justicia de maneras antes inimaginables; por otro, plantea desafíos éticos, regulatorios y profesionales de una complejidad considerable.

La celeridad con la que estas tecnologías avanzan es notable. Como bien se ha señalado, “la velocidad a la que la tecnología descendió sobre nosotros, creo que nos ha dejado a la mayoría boquiabiertos”.

Esta rapidez exige una reflexión profunda, serena y multidisciplinaria para comprender las implicaciones de la IA en el derecho y para trazar un camino que maximice sus beneficios mientras mitiga sus riesgos. El actual “boom” de la IA es cualitativamente diferente de avances tecnológicos previos en el campo legal. Mientras que la transición de las máquinas de escribir a los procesadores de texto automatizó tareas administrativas, la IA generativa actual tiene la capacidad de “leer, comprender y escribir” e incluso “aprender” , abordando tareas cognitivas que se consideraban exclusivas del intelecto humano, como la redacción de borradores de mociones y escritos legales. Esta diferencia fundamental obliga a un replanteamiento más profundo de la práctica jurídica, la formación de los abogados y la propia concepción de los servicios legales.   

En este contexto, es crucial navegar con cautela el “ciclo de sobreexpectación” (hype cycle) que a menudo acompaña a las nuevas tecnologías. La IA ha generado, como lo hizo en su momento la obra de Susskind, “una marea de debate” , y es natural que muchos se sientan “perplejos por la IA”. Es imperativo adoptar un enfoque crítico y basado en la evidencia, que permita discernir el potencial genuino de la IA de sus limitaciones realistas, evitando caer tanto en un optimismo tecnológico desmedido como en un pesimismo ludita.

Se trata de pasar de reacciones polarizadas a una comprensión matizada de las capacidades actuales de la IA, su evolución a corto plazo y sus posibilidades a largo plazo, distinguiendo, como sugiere Susskind, entre la evaluación de la herramienta a corto plazo (reconociendo sus fallos actuales) y el pensamiento estratégico a largo plazo (anticipando un rendimiento mejorado).  

 

Objetivo y Estructura del Artículo redactado por Gemini (ia)

El presente artículo tiene como objetivo analizar críticamente la intersección entre la Inteligencia Artificial y el Derecho, abordando desde sus fundamentos teóricos y las visionarias predicciones, hasta sus aplicaciones prácticas más recientes, los riesgos inherentes, los dilemas éticos que suscita y el emergente panorama regulatorio.

Para alcanzar este objetivo, el trabajo se estructurará de la siguiente manera:

  • Se revisitará el legado de Richard Susskind y su influyente obra “The End of Lawyers?”, examinando la vigencia de sus tesis en la era de la IA generativa.
  • Se explorarán los usos concretos y las herramientas emergentes de IA en la práctica jurídica actual, desde la investigación y el análisis documental hasta la gestión de contratos y el eDiscovery.
  • Se analizarán en profundidad los riesgos, dilemas éticos y cuestiones de responsabilidad profesional que surgen con la adopción de la IA en el ámbito legal.
  • Se examinará el horizonte regulatorio, comparando iniciativas clave como el Reglamento de IA de la Unión Europea con los proyectos legislativos en Argentina.
  • Se reflexionará sobre la evolución del profesional del derecho, discutiendo el concepto de “abogado aumentado” y las necesarias transformaciones en la educación jurídica.
  • Finalmente, se presentarán diez claves estratégicas para el futuro de la IA en el Derecho, seguidas de una conclusión que sintetice los hallazgos y ofrezca una visión prospectiva.

1. El Legado de Susskind: Revisitando “The End of Lawyers?” en la Era de la IA Generativa

Las Tesis Centrales de Richard Susskind

La obra de Richard Susskind, y en particular su libro “The End of Lawyers? Rethinking the Nature of Legal Services”, ha sido un catalizador de debate y reflexión en la profesión legal durante más de una década. Lejos de predecir una extinción literal de los abogados, Susskind plantea un desafío fundamental: insta a los profesionales del derecho a cuestionar qué elementos de su carga de trabajo actual podrían realizarse de manera diferente –más rápida, económica, eficiente o con mayor calidad– utilizando métodos alternativos de trabajo, incluyendo la tecnología.  

Sus argumentos centrales giran en torno a la necesidad de que los abogados identifiquen sus habilidades y talentos distintivos, aquellas capacidades que no pueden ser fácilmente reemplazadas por sistemas avanzados, trabajadores menos costosos apoyados por tecnología, procesos estandarizados o herramientas de autoayuda en línea para legos. Susskind identifica cuatro presiones principales que enfrentan los abogados: la exigencia de cobrar menos, la necesidad de trabajar de manera diferente, el imperativo de adoptar la tecnología y la tendencia hacia la desregulación. Sostiene que el mercado es cada vez menos tolerante con los abogados costosos para tareas (orientación, asesoramiento, redacción, investigación, resolución de problemas, etc.) que pueden ser desempeñadas igual o mejor, directa o indirectamente, por sistemas y procesos inteligentes. Como consecuencia, predice que los trabajos de muchos abogados tradicionales se verán sustancialmente erosionados e incluso eliminados, impulsados por dos fuerzas: una atracción del mercado hacia la comoditización de los servicios legales y el desarrollo y adopción generalizados de la tecnología de la información.  

 

La Visión de Susskind sobre la Transformación del Servicio Legal

Un pilar fundamental en el pensamiento de Susskind es la perspectiva del cliente. Sostiene que el cliente no está interesado en el proceso legal en sí mismo, ni en la profundidad del conocimiento del abogado o su brillante razonamiento; el cliente busca resultados específicos: evitar un problema legal, resolverlo, llegar a un acuerdo o obtener certidumbre. Esta focalización en los resultados choca, según Susskind, con la mentalidad de muchos profesionales, quienes, habiendo invertido años en su formación y oficio, se centran en los procesos y no pueden concebir fácilmente otras formas de alcanzar el resultado deseado por el cliente. Esta limitación se vuelve crítica desde la perspectiva de la IA, que puede ofrecer caminos alternativos hacia dichos resultados.  

 

En sus análisis más recientes, Susskind enfatiza que el sistema legal no solo necesita IA, sino que necesita ser reconstruido con IA. Critica que mucha de la llamada innovación legal es mera automatización, es decir, la aplicación de tecnología sobre procesos ineficientes y anticuados. La verdadera transformación, argumenta, provendrá de rediseñar los sistemas desde cero, creando soluciones que incluso puedan prevenir disputas antes de que surjan. Desde esta óptica, la IA no reemplaza a los abogados per se, sino la presunción de que los abogados son la única solución a los problemas legales. 

 

El argumento central de Susskind sobre el enfoque en resultados en lugar de procesos se ve notablemente amplificado por la IA generativa. Estas nuevas herramientas pueden producir resultados “suficientemente buenos” para ciertas tareas, como la redacción de un primer borrador de un contrato o un resumen rápido de un documento legal. Si la IA puede entregar estos productos de manera más rápida y económica, la propuesta de valor de un abogado que realiza la misma tarea desde cero con una tarifa horaria elevada disminuye para los clientes sensibles al costo. Esto sugiere que la “comoditización” que Susskind predijo podría acelerarse en áreas donde la IA generativa puede realizar tareas que antes se consideraban trabajo legal a medida, intensificando el desafío original planteado por el autor.  

 

Perspectivas Contemporáneas y Críticas a sus Predicciones

Si bien la visión de Susskind ha sido influyente, no ha estado exenta de críticas y matices. Algunos comentaristas señalan un tono “más oscuro” en sus obras más recientes sobre IA, en comparación con el optimismo (incluso para los abogados) que transmitía al hablar del “fin de los abogados”. Una crítica específica se dirige a su predicción de que muchos de los que ingresaran a la abogacía después de 2013 lo harían por dinero, pero no se enriquecerían, una predicción que, según algunos, ha sido “completamente errónea” dado el continuo aumento de los salarios de los abogados jóvenes en las grandes firmas corporativas.  

 

Esta crítica sobre los salarios de los abogados sugiere una dinámica compleja. Si bien la tecnología puede estar alterando las tareas, los modelos económicos de las firmas de abogados, especialmente en el segmento de alta gama, han demostrado una notable resiliencia. Esto podría deberse a una variedad de factores, como la asimetría de información entre abogados y clientes, una posible “captura regulatoria” que protege ciertos aspectos de la profesión, o el valor percibido (y la disposición a pagar) por la supervisión humana en asuntos de alto riesgo. Esto no invalida completamente las tesis de Susskind, pero sí apunta a una transformación más compleja y estratificada. El “fin de los abogados” podría no ser un fenómeno monolítico, sino uno que afecte a diferentes segmentos de la profesión legal a diferentes velocidades y de diferentes maneras. Las firmas de élite, por ejemplo, podrían estar logrando (al menos por ahora) posicionar sus servicios como aquellos que poseen esas “habilidades y talentos distintivos… que no pueden… ser reemplazados” , justificando así sus altas tarifas.  

 

No obstante, una de las ideas más perdurables y cruciales de Susskind es su énfasis en que las barreras para la adopción de la IA no son principalmente técnicas, sino profesionales, culturales e institucionales. La cautela inherente a la profesión legal y su pensamiento basado en precedentes pueden actuar como un freno significativo para la adopción de tecnologías transformadoras, incluso cuando sus beneficios son evidentes. Esta inercia se manifiesta, por ejemplo, en la crítica a las facultades de derecho que continúan preparando a los estudiantes para un modelo de práctica obsoleto. Por lo tanto, las soluciones puramente tecnológicas son insuficientes; se requiere también una gestión del cambio, una reforma educativa y, potencialmente, incentivos regulatorios.  

 

2. IA en la Práctica Jurídica: Usos Concretos y Herramientas Emergentes

La Inteligencia Artificial está dejando de ser una promesa futurista para convertirse en una realidad tangible en la práctica jurídica cotidiana. Su capacidad para procesar y analizar grandes volúmenes de información, así como para generar contenido, está transformando la manera en que los profesionales del derecho abordan diversas tareas.

Optimización de la Investigación Jurídica y Análisis Documental

Una de las áreas de mayor impacto es la investigación jurídica. Las plataformas impulsadas por IA pueden examinar vastas cantidades de datos legales, incluyendo leyes, jurisprudencia y regulaciones, a velocidades sin precedentes, proporcionando información precisa y relevante. Estas herramientas ayudan a los abogados a identificar la jurisprudencia más pertinente, los principios rectores y el lenguaje más adecuado para sustentar sus argumentos. Además, la IA ofrece la capacidad de resumir y condensar grandes volúmenes de documentos, permitiendo una comprensión rápida de temas y puntos clave. Ejemplos concretos incluyen sistemas como Bloomberg Law Answers y AI Assistant, que generan respuestas o resúmenes basados en fuentes primarias y secundarias, proporcionando citas y enlaces a las autoridades de respaldo.  

 

Revisión y Gestión de Contratos Asistida por IA

La revisión y gestión de contratos es otra área significativamente beneficiada. La IA acelera drásticamente la revisión contractual al señalar automáticamente problemas potenciales, asegurar el cumplimiento de leyes y regulaciones relevantes, y mitigar riesgos. Algunas herramientas pueden identificar cómo el lenguaje de un contrato se desvía de los estándares del mercado y evaluar la favorabilidad de cláusulas específicas, sugiriendo incluso modificaciones. Existe una creciente oferta de plataformas especializadas en la revisión, redacción y descubrimiento de contratos, como LEGALFLY, Spellbook, Evisort, Luminance, Kira Systems, ContractPodAi, BlackBoiler y DocJuris, cada una con enfoques y funcionalidades particulares que abarcan desde la redacción automática con cláusulas conformes hasta la gestión integral del ciclo de vida del contrato.  

 

eDiscovery y la IA: Eficiencia en la Revisión de Grandes Volúmenes de Datos

En el ámbito del descubrimiento de pruebas electrónicas (eDiscovery), la IA ha demostrado ser invaluable. Permite la identificación eficiente de documentos relevantes dentro de ingentes cantidades de datos, una tarea crucial y a menudo costosa en litigios. Herramientas como Dodonai utilizan la búsqueda semántica para analizar grandes repositorios de documentos, comprendiendo el significado detrás de las palabras y no solo las palabras clave en sí mismas. La IA también facilita el Análisis Temprano de Caso (Early Case Assessment – ECA), analizando grandes colecciones de documentos en las fases iniciales del descubrimiento para identificar rápidamente materiales potencialmente relevantes y temas clave, lo que puede generar ahorros sustanciales al reducir la revisión manual de documentos. Otras aplicaciones incluyen la redacción automática de información sensible (como Información Personal Identificable – PII, o Información de Salud Protegida – PHI), la automatización de la recolección de datos y la asistencia en la redacción de protocolos de Información Almacenada Electrónicamente (ESI).  

 

El Rol de GPT y los Modelos de Lenguaje Extensos (LLMs) en Tareas Legales

Los Modelos de Lenguaje Extensos (LLMs), como la tecnología detrás de ChatGPT, están siendo cada vez más utilizados por los profesionales del derecho para una variedad de tareas, incluyendo la investigación legal, el análisis de documentos, la redacción de borradores y el resumen de casos. La efectividad de estos modelos depende en gran medida de la calidad y especificidad de las instrucciones o “prompts” que se les proporcionan; “la redacción y la puntuación que elija impactan significativamente la claridad de sus prompts”.  

 

Es crucial reconocer las limitaciones de los LLMs. Aunque modelos como GPT-4 han demostrado la capacidad de aprobar exámenes de abogacía, “incluso los LLMs más avanzados son menos capaces que los humanos” en muchas tareas complejas y matizadas. Además, tienen limitaciones en cuanto a la cantidad de información que pueden procesar y retener en un momento dado (su “ventana de contexto”) y son susceptibles a cometer errores o “alucinaciones”. Existe una distinción importante entre LLMs de propósito general como ChatGPT y LLMs diseñados específicamente para el ámbito legal, como CoCounsel. Estos últimos suelen tener un enrutamiento de solicitudes más complejo, que puede incluir la consulta a bases de datos jurídicas especializadas, lo que resulta en un “prompt total” más sofisticado que incluye contenido específico del dominio.  

 

Analítica Predictiva y su Aplicación en la Estrategia Legal

La analítica predictiva utiliza datos históricos para pronosticar eventos futuros, una capacidad de gran valor para los profesionales del derecho. Estas herramientas analizan documentos judiciales, opiniones de jueces y datos de litigios para predecir posibles resultados de casos e identificar tendencias emergentes. Esto asiste a los abogados en el desarrollo de estrategias de caso más informadas y en la evaluación de riesgos asociados a diferentes cursos de acción. En el futuro, se espera que la analítica predictiva ofrezca conocimientos aún más profundos sobre datos históricos de casos y prácticas de facturación, lo que podría llevar a modelos de facturación predictiva y una fijación de precios más competitiva para los servicios legales.  

 

Otras Aplicaciones Emergentes

Más allá de las áreas mencionadas, la IA está encontrando aplicación en otras facetas de la práctica legal. Los chatbots legales y asistentes virtuales están mejorando el servicio al cliente al responder consultas rutinarias de forma inmediata y proporcionar información 24/7, liberando a los profesionales para tareas más complejas. La IA también se utiliza para la gestión inteligente de agendas, coordinando reuniones y fechas judiciales, y para la gestión de tareas relacionadas con los casos. Asimismo, puede asistir en la redacción inicial de borradores de mociones, escritos legales y acuerdos, tareas que tradicionalmente consumen mucho tiempo.  

 

La evolución de estas herramientas, desde aquellas puramente analíticas (como el eDiscovery que identifica documentos relevantes) hacia las generativas (como los LLMs que redactan borradores iniciales), representa una incursión más profunda en las tareas legales fundamentales. Esta progresión desde “encontrar” información a “crear” contenido que pretende ser legalmente sólido tiene una relación causal directa con la creciente complejidad de las preocupaciones éticas y de responsabilidad. A medida que la IA asume roles más activos en la generación de productos legales, el potencial de errores con consecuencias significativas (por ejemplo, una cláusula contractual mal redactada basada en una sugerencia de IA) aumenta, intensificando las preocupaciones sobre la mala praxis y la fiabilidad de estos sistemas.

El mercado de la tecnología legal impulsada por IA es vibrante, con una proliferación de startups especializadas que compiten y colaboran con las ofertas de gigantes establecidos como Bloomberg Law y Thomson Reuters. Si bien esta diversidad ofrece opciones, también puede generar un panorama fragmentado, con posibles desafíos de interoperabilidad entre diferentes herramientas y una variabilidad en los estándares de calidad. Esto impone a las firmas legales la tarea adicional de realizar una debida diligencia exhaustiva al seleccionar y adoptar estas tecnologías, asegurándose de que se basen en “datos legales transparentes, rastreables y verificables”.  

 

Finalmente, aunque muchas aplicaciones actuales de IA se centran en mejorar la eficiencia de los abogados, existe una tendencia subyacente hacia herramientas que podrían, con el tiempo, empoderar directamente a los clientes o reducir la dependencia de los abogados para ciertas tareas. Los chatbots legales y la visión de Susskind de “legos armados con herramientas de autoayuda en línea” apuntan en esta dirección. Si bien las herramientas profesionales actuales son predominantemente centradas en el abogado, la evolución tecnológica podría conducir a aplicaciones más potentes orientadas al cliente, especialmente en segmentos comoditizables del mercado legal, lo que se conecta con las tesis originales de Susskind y sugiere un cambio estructural a largo plazo en la prestación y el consumo de servicios legales.  

 

A continuación, se presenta una tabla que resume algunas de las aplicaciones prácticas de la IA en el sector legal:

Tabla: Aplicaciones Prácticas de la IA en el Sector Legal

Área Funcional Aplicación/Tarea Específica de IA Beneficios Clave Ejemplos de Herramientas/Plataformas (si aplica)
Investigación Legal Investigación de jurisprudencia impulsada por IA, análisis de estatutos Velocidad, precisión, exhaustividad, identificación de patrones Bloomberg Law Answers, CoCounsel
Resumen automático de documentos legales extensos Ahorro de tiempo, rápida comprensión GenAI tools
Revisión de Documentos Identificación de cláusulas relevantes, análisis de riesgos Eficiencia, consistencia, reducción de errores Kira Systems, Luminance
Gestión de Contratos Redacción asistida, revisión de cumplimiento, gestión del ciclo de vida Aceleración de procesos, mitigación de riesgos, estandarización LEGALFLY, Spellbook, Evisort, ContractPodAi
Comparación con estándares de mercado, sugerencia de modificaciones Mejora de la negociación, optimización de términos Draft Analyzer, Clause Advisor
eDiscovery Identificación semántica de evidencia, revisión de grandes volúmenes Reducción drástica de tiempo y costos, mayor precisión en la relevancia Dodonai, ECA tools
Redacción automática de información sensible (PII, PHI) Cumplimiento, seguridad, eficiencia AI classifiers
Analítica Predictiva Predicción de resultados de casos, análisis de tendencias judiciales Mejora de la estrategia legal, evaluación de riesgos informada Predictive analytics tools
Modelos de facturación predictiva Transparencia de costos, precios competitivos Predictive billing models
Servicios al Cliente Chatbots para consultas iniciales, información 24/7 Mejora de la respuesta, disponibilidad, filtrado de consultas Legal chatbots
Gestión de Casos Programación inteligente de agendas, recordatorios de tareas Optimización del tiempo, organización eficiente Intelligent scheduling software
Redacción Legal Generación de borradores iniciales de mociones, escritos, acuerdos Ahorro de tiempo, punto de partida para la elaboración GenAI tools

 

3. Navegando la Incertidumbre: Riesgos, Dilemas Éticos y Responsabilidad Profesional

La integración de la Inteligencia Artificial en la práctica jurídica, si bien prometedora, no está exenta de significativos riesgos y dilemas éticos que exigen una cuidadosa consideración y una gestión proactiva por parte de los profesionales del derecho.

Privacidad de Datos, Confidencialidad y el Secreto Profesional ante la IA

Uno de los riesgos más evidentes se relaciona con la privacidad de los datos y la confidencialidad. El uso de herramientas de IA a menudo implica la introducción de información sensible del cliente, incluyendo Información Personal Identificable (PII), en sistemas que pueden ser externos a la firma legal. Esto crea un potencial de exposición, violación o mal uso de dichos datos si son procesados por proveedores de IA externos, lo que subraya la obligación de los abogados de cumplir con las leyes de protección de datos aplicables y de implementar salvaguardas robustas.  

 

El secreto profesional (attorney-client privilege) se ve particularmente desafiado. Este privilegio, fundamental en la relación abogado-cliente, requiere, entre otras cosas, que el cliente tenga la intención de que la comunicación permanezca confidencial. La divulgación de material privilegiado a un tercero típicamente anula la protección. Cuando se utilizan herramientas de IA, el proveedor de la IA puede ser considerado un tercero, especialmente si los términos de servicio indican que los datos ingresados pueden ser almacenados, accedidos o utilizados para entrenar los modelos de IA. Esto es particularmente riesgoso con herramientas de IA públicas y gratuitas, que a menudo se reservan el derecho de usar los datos de entrada para mejorar sus algoritmos. Incluso con herramientas de IA empresariales o privadas, existe el riesgo de que la información privilegiada utilizada para entrenar un modelo interno pueda quedar expuesta a empleados de la organización sin una “necesidad de conocer”.  

 

La “razonable expectativa de confidencialidad” se ve erosionada si los términos de servicio de una herramienta de IA establecen explícitamente que los datos pueden ser utilizados para el entrenamiento del modelo. En tales casos, el uso de la IA para procesar información privilegiada podría interpretarse como una renuncia al privilegio, ya que el abogado o el cliente estarían, en efecto, consintiendo la divulgación a un tercero (el proveedor de IA y, potencialmente, a través del reentrenamiento del modelo, a otros usuarios).  

 

Para mitigar estos riesgos, se proponen varias estrategias: la redacción (eliminación o enmascaramiento) de PII antes de ingresar datos en sistemas de IA, el uso de encriptación, la realización de auditorías regulares de las políticas de protección de datos de la firma, la anonimización de datos siempre que sea posible, y el establecimiento de protocolos internos claros sobre el uso de la IA. Es crucial revisar detenidamente los términos y condiciones de los proveedores de IA, desactivar funciones como el historial de conversaciones si es posible, y optar explícitamente por no contribuir con los datos al entrenamiento del modelo general. Idealmente, se deben buscar proveedores que ofrezcan garantías contractuales explícitas sobre la confidencialidad y el no uso de los datos para fines de entrenamiento ajenos al servicio contratado.  

 

El Desafío de las “Alucinaciones” y la Fiabilidad de los Resultados Generados por IA

Otro desafío significativo es la propensión de las herramientas de IA, especialmente los LLMs como ChatGPT y aquellos integrados en bases de datos legales, a generar “alucinaciones”. Estas son respuestas que parecen creíbles y bien estructuradas pero que son fácticamente incorrectas, inventadas o que citan casos inexistentes. Este fenómeno no es un simple error técnico, sino que representa un desafío fundamental a la base epistemológica de la investigación y argumentación jurídica si los resultados de la IA no se verifican rigurosamente. Introduce una nueva capa de error potencial que los abogados deben ser capaces de detectar.  

 

La gravedad de este problema se ha puesto de manifiesto en casos judiciales donde se han impuesto sanciones por la presentación de escritos que contenían citas falsas generadas por IA, como en el caso Mojtabavi v. Blinken en los Estados Unidos. La confianza ciega en estos resultados puede llevar a la presentación de argumentos legales defectuosos, engañar a los tribunales y perjudicar gravemente los intereses de los clientes.  

 

Las estrategias de mitigación son cruciales: siempre se debe validar la investigación generada por IA cruzándola con bases de datos legales autorizadas y fuentes primarias. Los resultados de la IA deben considerarse como un punto de partida para la investigación y el análisis, no como una respuesta final. Es indispensable realizar una diligencia debida independiente y capacitar a los equipos legales para evaluar críticamente la información generada por IA antes de integrarla en el trabajo del caso. Esto implica un cambio en la formación y en los estándares de conducta profesional para abordar esta nueva fuente de error.  

 

Sesgos Algorítmicos: Implicaciones para la Equidad y la No Discriminación

Los sistemas de IA son tan imparciales como los datos con los que se entrenan. Si los datos históricos utilizados para entrenar un modelo de IA contienen sesgos (raciales, de género, socioeconómicos, etc.), estos sesgos pueden ser replicados e incluso amplificados por el algoritmo, comprometiendo la precisión y la equidad de sus resultados. La IA también puede, en su intento de proporcionar una respuesta, dar contestaciones afirmativas sesgadas o caracterizar erróneamente la ley.  

 

Las fuentes de sesgo son variadas e incluyen datos de entrenamiento defectuosos (no representativos de la población, con información faltante o que reflejan sesgos históricos), el propio diseño del algoritmo (errores de programación, ponderación injusta de factores por parte de los diseñadores, incorporación de reglas subjetivas basadas en sesgos conscientes o inconscientes de los desarrolladores), el uso de datos proxy que pueden estar correlacionados con atributos sensibles, y la evaluación sesgada de los resultados por parte de los humanos que los interpretan. Se han documentado ejemplos preocupantes de sesgo algorítmico en sistemas de evaluación de riesgos en la justicia penal, que han mostrado tratar de manera desproporcionada a ciertos grupos raciales, y en algoritmos del sector salud.  

 

El sesgo algorítmico en la IA legal es, en muchos casos, un efecto de segundo orden de los sesgos sociales existentes, que son inadvertidamente codificados y perpetuados por la tecnología. Mitigarlo requiere no solo soluciones técnicas, sino también abordar los sesgos presentes en los datos generados por humanos y en los sistemas legales de los que la IA aprende. Esto implica que hacer que la IA sea “justa” en el derecho es un desafío complejo que se cruza con cuestiones más amplias de justicia social y no puede ser resuelto únicamente por los programadores.

Las estrategias de mitigación incluyen la validación continua de los resultados de la IA, ser consciente de la posibilidad de sesgo y cuestionar las respuestas cuando sea necesario, realizar auditorías regulares de los resultados de la IA para detectar signos de sesgo o razonamiento distorsionado, y capacitar a los abogados sobre cómo detectar y mitigar el sesgo potencial. La promoción de la diversidad en los equipos de desarrollo de IA y el uso de conjuntos de datos de entrenamiento diversos y representativos también son fundamentales.  

 

Responsabilidad por Mala Praxis Derivada del Uso de IA

El uso de IA en la práctica legal introduce nuevas vías para la responsabilidad por mala praxis. Si un abogado se basa en información o análisis erróneos proporcionados por una herramienta de IA (por ejemplo, omitiendo un precedente crucial o basándose en una predicción incorrecta del resultado de un caso) y esto conduce a un asesoramiento legal inadecuado que perjudica al cliente, podría surgir una reclamación por mala praxis. De manera similar, si el uso de una herramienta de IA sesgada lleva a perpetuar la discriminación en los resultados legales, la firma podría enfrentar acciones legales.  

 

Las brechas de ciberseguridad en los sistemas de IA, que a menudo manejan grandes cantidades de información confidencial de clientes, también pueden dar lugar a responsabilidad si se comprometen los datos. Además, la actual falta de marcos legales claros y específicos que regulen la aplicación de la IA en la industria legal en muchas jurisdicciones crea una “zona gris” que puede exponer a las firmas a violaciones inadvertidas de reglas emergentes o al incumplimiento de las mejores prácticas. Esta incertidumbre regulatoria es en sí misma un factor de riesgo, ya que dificulta que las firmas evalúen completamente su exposición a la responsabilidad. Puede, paradójicamente, tanto sofocar la innovación (por temor a responsabilidades desconocidas) como permitir un despliegue irresponsable de IA (debido a la falta de prohibiciones claras).  

 

Los abogados no pueden abdicar su responsabilidad profesional por las decisiones o el asesoramiento derivados del uso de la IA; siguen siendo responsables de su trabajo, independientemente de si un error se originó en una recomendación incorrecta de una IA. La situación es análoga a la mala praxis médica relacionada con la IA, donde la responsabilidad puede recaer en el profesional de la salud por una dependencia excesiva de algoritmos defectuosos o por falta de supervisión adecuada.  

 

A continuación, se presenta una tabla que resume los principales riesgos de la IA en la práctica legal y las estrategias de mitigación correspondientes:

Tabla: Riesgos de la IA en la Práctica Legal y Estrategias de Mitigación

Categoría de Riesgo Ejemplos Específicos de Riesgo Estrategias Clave de Mitigación
Privacidad de Datos y Confidencialidad Exposición de PII a proveedores de IA externos, brechas de seguridad en sistemas de IA. Redacción/anonimización de datos, encriptación, auditorías de seguridad, políticas internas claras sobre el uso de datos.
Secreto Profesional (Privilegio) Renuncia al privilegio por divulgación a un tercero (proveedor de IA), uso de datos para entrenamiento. Revisar T&C del proveedor, usar IA privada/verificada, obtener garantías contractuales, desactivar historial/opciones de entrenamiento.
Resultados Inexactos/Alucinaciones IA generando citas de casos falsos, información legal incorrecta o engañosa. Verificación cruzada independiente de todos los resultados de IA, tratar la IA como punto de partida, capacitación en evaluación crítica.
Sesgo Algorítmico Evaluaciones de riesgo sesgadas en justicia penal, discriminación en la selección de personal. Auditorías de sesgo, datos de entrenamiento diversos y representativos, validación continua, conciencia y cuestionamiento de resultados.
Responsabilidad por Mala Praxis Asesoramiento negligente basado en análisis de IA defectuoso, perpetuación de discriminación. Supervisión humana y juicio profesional final, validación de consejos de IA, transparencia con el cliente, seguro de mala praxis adecuado.

 

4. El Horizonte Regulatorio: Hacia un Marco para la IA en el Ámbito Legal

A medida que la Inteligencia Artificial se integra más profundamente en diversos sectores, incluido el legal, surge la necesidad imperante de establecer marcos regulatorios que aborden sus complejidades y aseguren un desarrollo y uso responsables. Diferentes jurisdicciones están comenzando a trazar sus caminos, con la Unión Europea a la vanguardia.

Perspectiva Global: El Reglamento de IA de la Unión Europea y sus Implicaciones

El Reglamento de Inteligencia Artificial de la Unión Europea (Ley de IA de la UE) se considera el “primer reglamento integral de IA del mundo” y busca establecer un marco legal para fomentar una IA confiable en Europa y más allá. Adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en categorías de riesgo inaceptable, alto riesgo, y riesgo limitado o mínimo.  

 

Las prácticas de IA consideradas de riesgo inaceptable están estrictamente prohibidas. Estas incluyen sistemas que utilizan técnicas de manipulación subliminal o deliberadamente manipuladoras que pueden causar daño físico o psicológico, explotan las vulnerabilidades de grupos específicos (como niños o personas con discapacidad) de manera perjudicial, o se utilizan para la puntuación social (“social scoring”) por parte de autoridades públicas que conduzca a un trato perjudicial o desfavorable. También se prohíben ciertos usos de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de aplicación de la ley, salvo excepciones muy limitadas y estrictamente reguladas.  

 

Los sistemas de IA de alto riesgo son aquellos que pueden afectar negativamente la seguridad o los derechos fundamentales. Esta categoría se divide en dos: primero, sistemas de IA que son componentes de seguridad de productos ya regulados por la legislación de seguridad de productos de la UE (por ejemplo, en aviación, automóviles, dispositivos médicos); y segundo, sistemas de IA en áreas específicas que deberán registrarse en una base de datos de la UE. De manera crucial para el sector legal, esta segunda categoría incluye explícitamente sistemas de IA utilizados para la “asistencia en la interpretación y aplicación de la ley”. Otros sistemas de alto riesgo relevantes para el contexto legal o social más amplio incluyen aquellos utilizados en la aplicación de la ley, la administración de justicia, la gestión de la migración y el control de fronteras, el empleo y la gestión de trabajadores, y el acceso a servicios públicos y privados esenciales.  

 

Los proveedores y usuarios de sistemas de IA de alto riesgo enfrentarán obligaciones significativas, como la realización de evaluaciones de conformidad antes de su comercialización y durante todo su ciclo de vida, el registro en la base de datos de la UE, la implementación de un sistema de gestión de calidad, el mantenimiento de documentación técnica adecuada y registros de actividad, y la garantía de un nivel apropiado de supervisión humana.  

 

Para la IA generativa, como ChatGPT, aunque no se clasifique como de alto riesgo per se (a menos que se utilice en una aplicación de alto riesgo), deberá cumplir con requisitos de transparencia. Estos incluyen la divulgación de que el contenido ha sido generado por IA, el diseño del modelo para evitar que genere contenido ilegal y la publicación de resúmenes de los datos protegidos por derechos de autor utilizados para su entrenamiento. Los modelos de IA de propósito general de alto impacto que puedan plantear riesgos sistémicos (como los modelos más avanzados tipo GPT-4) se someterán a evaluaciones exhaustivas.  

 

Una característica fundamental de la Ley de IA de la UE es su aplicabilidad extraterritorial, similar al Reglamento General de Protección de Datos (GDPR). Se aplica a los proveedores y desarrolladores de sistemas de IA que se comercializan o utilizan dentro de la UE, independientemente de si dichos proveedores o desarrolladores están establecidos en la UE o en otro país. Esto significa que las empresas de fuera de la UE, incluidas las argentinas, que ofrezcan tecnología basada en IA en el mercado de la UE estarán sujetas a sus disposiciones y a las posibles sanciones por incumplimiento, que pueden ser cuantiosas, llegando hasta 35 millones de euros o el 7% de la facturación global anual.Esta extraterritorialidad probablemente establecerá un estándar global de facto para el desarrollo de la IA, ya que las empresas que busquen acceder al vasto mercado de la UE tenderán a cumplir con sus requisitos, lo que podría influir indirectamente en los estándares nacionales en otros lugares, incluida Argentina.  

 

Enfoque Argentina: Proyectos Legislativos y Estrategias Nacionales

Argentina ha mostrado una evolución en su enfoque hacia la IA, con diferentes iniciativas a lo largo de los últimos años. Durante la presidencia de Mauricio Macri se elaboró un Plan Nacional de Inteligencia Artificial (2018-2019) centrado en la formación, el uso de datos públicos, la infraestructura y la ética, aunque su implementación fue limitada por el cambio de gobierno. Bajo la administración de Alberto Fernández, se estableció un Programa de Inteligencia Artificial y el Centro Argentino Multidisciplinario de Inteligencia Artificial (CAMIA), y el país se adhirió a acuerdos multilaterales de la UNESCO y la OCDE, adaptando sus propias Recomendaciones para una Inteligencia Artificial Fiable (RIAF) en 2023.  

 

Actualmente, existen varios proyectos de ley en el Congreso argentino que buscan regular la IA. Uno de los más detallados es el proyecto de “RÉGIMEN JURIDICO APLICABLE PARA EL USO RESPONSABLE DE LA INTELIGENCIA ARTIFICIAL EN LA REPÚBLICA ARGENTINA” (expediente 3003-D-2024). Este proyecto tiene como objetivos regular el desarrollo y uso de la IA, promover su aplicación ética y proteger los derechos fundamentales frente a posibles efectos perjudiciales. Establece una serie de principios rectores, como la transparencia, robustez, equidad, responsabilidad proactiva, trazabilidad, privacidad y seguridad, fiabilidad y colaboración internacional.  

 

Al igual que la Ley de la UE, este proyecto argentino propone una clasificación de riesgos:

  • Riesgo Inaceptable y Prácticas Prohibidas: Incluye la manipulación cognitiva que cause daño, la puntuación social que resulte en trato desfavorable, y la identificación biométrica en tiempo real (con excepciones muy limitadas y bajo orden judicial para fines específicos como amenazas terroristas o búsqueda de víctimas).  
  • Alto Riesgo: Abarca sistemas que pueden afectar negativamente la seguridad, la salud o derechos fundamentales. Incluye IA en infraestructuras críticas, educación, empleo, acceso a servicios esenciales, gestión migratoria, y, de manera crucial, sistemas de “interpretación y aplicación del derecho y la jurisprudencia” y aquellos para interpretar información médica.  
  • Riesgo Medio y Bajo Riesgo: Para sistemas con menor impacto potencial, con requisitos proporcionales.  

El proyecto también detalla obligaciones para proveedores y usuarios de sistemas de IA, incluyendo la implementación de mecanismos para limitar efectos adversos, asegurar la calidad de los datos, detectar fallos y notificar incidentes. Establece la responsabilidad de proveedores y usuarios por los daños causados.  

 

Otro proyecto relevante es el de “RESPONSABILIDAD ALGORÍTMICA Y PROMOCIÓN DE LA ROBÓTICA, ALGORITMOS VERDES E INTELIGENCIA ARTIFICIAL EN LA REPÚBLICA ARGENTINA” (expediente 0805-D-2024), que propone la creación de un Consejo Asesor de IA, certificaciones de buenas prácticas y un enfoque en “algoritmos verdes” para mitigar el impacto ambiental de la IA.  

 

La postura del actual gobierno de Javier Milei parece orientarse hacia un enfoque más flexible y favorable a la industria, buscando atraer inversiones en IA mediante la promesa de una “regulación y un entorno favorable”. Esta postura ejecutiva podría influir en el destino final de los proyectos legislativos. Mientras tanto, otros países de la región como Brasil, Chile y Colombia también están avanzando en sus propias propuestas regulatorias.  

 

Análisis Comparativo: Convergencias y Divergencias Regulatorias (Argentina vs. UE)

Al comparar los enfoques regulatorios de la UE y las propuestas argentinas, se observan tanto convergencias como divergencias. Una convergencia clara es la adopción de un enfoque basado en el riesgo como principio estructurador de la regulación. Ambas propuestas identifican categorías similares de prácticas de IA de riesgo inaceptable, como la manipulación cognitiva perjudicial, la puntuación social con consecuencias negativas y ciertos usos de la identificación biométrica.  

 

Es significativo que tanto la Ley de IA de la UE como el proyecto argentino 3003-D-2024 clasifiquen explícitamente la IA utilizada en la administración de justicia o para la asistencia en la interpretación y aplicación del derecho como de alto riesgo. Este reconocimiento subraya la profunda sensibilidad y el potencial impacto de estas tecnologías en los derechos fundamentales y el debido proceso, lo que someterá a las herramientas de IA legal a un mayor escrutinio y a requisitos más estrictos que muchas otras aplicaciones de IA. Esto, a su vez, implicará mayores cargas de cumplimiento y costos para los desarrolladores de IA legal, lo que podría ralentizar el despliegue de algunas herramientas, pero idealmente garantizará una mayor seguridad y fiabilidad de aquellas que lleguen al mercado.  

 

Las divergencias pueden surgir en el rigor de las obligaciones específicas, los mecanismos de supervisión y aplicación, y el equilibrio buscado entre la promoción de la innovación y la protección de los derechos. El contexto económico y político de cada jurisdicción influirá en este equilibrio. Por ejemplo, la intención declarada por el gobierno argentino de ofrecer un entorno favorable a la inversión podría traducirse en una regulación local menos prescriptiva en ciertos aspectos en comparación con el detallado y robusto marco de la UE. Esta tensión inherente entre fomentar la innovación y garantizar la seguridad y el uso ético es un desafío central para todos los reguladores. Es probable que los países naveguen esta tensión de manera diferente según sus objetivos de desarrollo económico, capacidad tecnológica y valores sociales, lo que sugiere que una regulación global de IA única es improbable a corto plazo, anticipándose más bien un mosaico de enfoques con algunos principios comunes.  

 

A continuación, se presenta una tabla comparativa de los marcos regulatorios de IA de la UE y la propuesta argentina (Proyecto 3003-D-2024):

Tabla: Comparativa de Marcos Regulatorios de IA (Ley IA UE vs. Proyecto Argentino 3003-D-2024)

Aspecto Regulatorio Ley de IA de la Unión Europea Proyecto Argentino 3003-D-2024
Objetivo Primario Fomentar IA confiable, respetando derechos fundamentales, seguridad y principios éticos. Regular uso responsable, promover aplicación ética, proteger salud, seguridad y derechos fundamentales.
Enfoque General Basado en riesgos (inaceptable, alto, limitado, mínimo). Basado en riesgos (inaceptable, alto, medio, bajo).
Prácticas de IA Prohibidas Clave Manipulación subliminal/cognitiva perjudicial, puntuación social por autoridades públicas, ciertos usos de identificación biométrica remota en tiempo real. Manipulación cognitiva que cause daño, puntuación social que cause trato desfavorable, identificación biométrica en tiempo real (con excepciones).
Clasificación de IA en Sector Legal (Alto Riesgo) “Asistencia en la interpretación y aplicación de la ley”. “Sistemas de interpretación y aplicación del derecho y la jurisprudencia”.
Obligaciones Principales (Proveedores Alto Riesgo) Evaluación de conformidad, sistema de gestión de calidad, documentación técnica, registros, transparencia, supervisión humana, ciberseguridad. Evaluación de impacto, manuales de usuario, fuentes de información, datos de entrenamiento públicos (para riesgo medio con dictamen).
Obligaciones Principales (Usuarios Alto Riesgo) Usar IA según instrucciones, asegurar datos de entrada relevantes, monitorear operación, mantener registros, informar a autoridades [ (implícito)]. Mecanismos para limitar/mitigar efectos, rectificación de datos, detección de fallos, notificación a afectados, responsabilidad por daños.
Organismo de Aplicación Autoridades nacionales de supervisión, Oficina Europea de IA. Instituto Nacional de Tecnología Industrial (INTI) o quien lo reemplace en el futuro.
Sanciones Multas significativas (hasta €35M o 7% de facturación global). Multas (escala de 1 a 1000 Argentinos Oro), según gravedad, reincidencia, daño potencial.

 

5. La Evolución del Profesional del Derecho: Del Abogado Tradicional al Jurista Aumentado

La irrupción de la Inteligencia Artificial no solo transforma las herramientas y procesos legales, sino que también redefine el rol y las competencias del profesional del derecho, impulsando una evolución desde el abogado tradicional hacia un “jurista aumentado” y exigiendo una profunda reforma en la educación legal.

El Debate: “Abogado Aumentado” vs. “Robo-Abogado”

La discusión sobre el futuro del abogado frente a la IA a menudo se polariza entre la visión de un “abogado aumentado” –un profesional que utiliza la IA como una herramienta potente para mejorar sus capacidades– y la de un “robo-abogado” –un sistema de IA que opera de forma autónoma, reemplazando al humano. La evidencia actual y la percepción pública sugieren una clara preferencia por el primer modelo. Una encuesta reveló que solo el 4% del público confiaría únicamente en la IA para recibir asesoramiento legal, mientras que el 69% prefiere abogados humanos tradicionales y un 27% se inclinaría por un abogado humano asistido por tecnología de IA.  

 

Actualmente, las herramientas de IA legal están diseñadas principalmente para apoyar el trabajo de abogados y jueces, asistiendo en tareas como la debida diligencia, el análisis legal, la clasificación de documentos mediante Revisión Asistida por Tecnología (TAR), la provisión de información legal y la predicción de resultados judiciales. La desconfianza hacia una IA completamente autónoma es palpable: los encuestados indicaron que requerirían, en promedio, un descuento del 57% en los honorarios para considerar elegir un “abogado robot” en lugar de uno humano. En línea con esta percepción, el CEO de Robin AI, una plataforma de inteligencia legal, afirmó que su empresa se enfoca en “construir IA para trabajar junto a los abogados, no en lugar de ellos”.  

 

Este modelo de “abogado aumentado” parece ser no solo un compromiso pragmático, sino probablemente el camino más efectivo a seguir. La práctica del derecho a menudo requiere habilidades intrínsecamente humanas –como la empatía en el trato con el cliente, el juicio estratégico complejo en situaciones ambiguas, el razonamiento ético profundo, la capacidad de persuasión y la negociación interpersonal– que la IA actual, incluso la más avanzada, no puede replicar de manera genuina. Mientras la IA puede encargarse de tareas rutinarias, repetitivas y de análisis de grandes volúmenes de datos, el profesional humano se libera para concentrarse en estas contribuciones de mayor valor añadido, aquellas que, como desafiaba Susskind, constituyen las “habilidades y talentos distintivos… que no pueden… ser reemplazados”. La visión del “robo-abogado” parece, por ahora, limitada a tareas legales altamente estandarizadas y de bajo riesgo.  

 

La Transformación de la Educación Jurídica: Nuevas Competencias para la Era de la IA

La evolución del rol del abogado impone una transformación urgente y profunda en la educación jurídica. Durante años, se ha criticado a muchas facultades de derecho por preparar a los estudiantes para una versión de la práctica legal que ya no se alinea con las realidades emergentes, “generando abogados del siglo XX” en pleno siglo XXI. La IA exacerba esta desconexión. Los futuros profesionales del derecho necesitarán un conjunto de habilidades que van más allá de la doctrina legal tradicional, incluyendo competencias en diseño de sistemas, análisis de riesgos, ciencia de datos y una sólida alfabetización digital.  

 

Las facultades de derecho deben abordar la integración de la IA en sus planes de estudio, no solo enseñando sobre las nuevas áreas legales que la IA crea (como la regulación de la IA misma), sino también instruyendo a los estudiantes sobre cómo usar las herramientas de IA de manera efectiva y, fundamentalmente, cómo comprender sus mecanismos, capacidades y limitaciones. Ya se observan ejemplos de adaptación: la Case Western Reserve University School of Law se convirtió en la primera en hacer obligatoria la formación en IA para todos sus estudiantes de primer año; otras instituciones como Suffolk Law School y la University of Miami School of Law han añadido cursos específicos sobre IA generativa, regulación de la IA y han desarrollado herramientas de IA para mejorar la pedagogía. Los simuladores basados en IA, como el M&A Negotiation Simulator desarrollado en Stanford CodeX, permiten a los estudiantes practicar negociaciones y comparecencias judiciales en entornos virtuales, interactuando con “agentes de IA que reflejan las personalidades y el pensamiento de abogados senior”.  

 

El énfasis debe ponerse en la competencia tecnológica, la alfabetización digital, la comprensión de la ética de la IA, la privacidad de los datos y el sesgo algorítmico. Una encuesta de la ABA Task Force on Law and Artificial Intelligence reveló que, si bien muchas facultades de derecho están comenzando a integrar la IA en sus currículos (el 55% ofrecía clases sobre IA y el 83% oportunidades curriculares relacionadas como clínicas), muchas políticas académicas, como las de integridad y admisión, aún están en proceso de adaptación. Este retraso en la reforma de la educación jurídica crea un riesgo causal de producir graduados insuficientemente preparados para el mercado legal moderno. Esta brecha de habilidades podría exacerbar las dificultades de empleo para los nuevos abogados y obstaculizar la capacidad de la profesión para aprovechar la IA de manera efectiva y responsable. Es un llamado urgente a la academia legal para acelerar la reforma curricular.  

 

La IA como Herramienta para Mejorar el Acceso a la Justicia

Un área donde la IA muestra un potencial transformador particularmente esperanzador es en la mejora del acceso a la justicia. Existe un optimismo considerable sobre cómo la IA podría proporcionar información legal fácilmente accesible a comunidades desatendidas y personas que no pueden costear servicios legales tradicionales. Los chatbots y asistentes virtuales impulsados por IA, como AccessAva (desarrollado por Carers UK) y DoNotPay, están diseñados para simplificar la información legal, ofrecer plantillas de documentos y guiar a los usuarios a través de ciertos procesos, reduciendo la necesidad de asistencia profesional para asuntos más sencillos.  

 

Otras herramientas están emergiendo para ayudar a litigantes auto-representados, como el Legal Information Assistant de Legal Aid of North Carolina (disponible en inglés y español), el chatbot de la Corte Suprema de Nevada (que ofrece orientación legal en múltiples idiomas) y SANDI (Self-Help Assistant Navigator for Digital Interactions) en el 11º Circuito Judicial de Florida. Plataformas como Hello Divorce buscan simplificar los procesos de divorcio, mientras que aplicaciones como JustFix, Rentervention y Roxanne están diseñadas para ayudar a los inquilinos a documentar problemas de vivienda y hacer valer sus derechos.  

 

La IA no solo puede proporcionar información, sino también analizar patrones en grandes conjuntos de datos para predecir resultados, lo que podría llevar a los chatbots más allá de la mera provisión de información hacia un nivel básico de asesoramiento. Por ejemplo, se ha utilizado IA para predecir los resultados de casos del Tribunal Europeo de Derechos Humanos con una precisión del 79%.  

 

Sin embargo, el uso de IA para el acceso a la justicia no está exento de desafíos. Es crucial la supervisión por parte de profesionales legales para identificar y corregir “alucinaciones” o información incorrecta generada por la IA, asegurando la precisión de la asistencia proporcionada. Existe un riesgo de tercer orden: si las herramientas de IA para el acceso a la justicia están mal diseñadas, contienen sesgos o son propensas a errores, podrían perjudicar inadvertidamente a las poblaciones vulnerables a las que pretenden ayudar, proporcionando información incorrecta o perpetuando inequidades sistémicas. Por lo tanto, el despliegue de IA en iniciativas de acceso a la justicia requiere estándares excepcionalmente altos de precisión, imparcialidad y transparencia, junto con mecanismos robustos de supervisión humana y vías de recurso para los usuarios.  

 

6. Diez Claves Estratégicas para el Futuro de la Inteligencia Artificial en el Derecho

La integración exitosa y responsable de la Inteligencia Artificial en el ámbito jurídico requiere una visión estratégica y la consideración de múltiples factores interconectados. A continuación, se desarrollan diez claves fundamentales que marcarán el camino a seguir:

  1. Clave 1: La Centralidad de la Confianza y la Explicabilidad (XAI). La naturaleza de “caja negra” de muchos algoritmos de IA es inherentemente problemática en un campo como el derecho, que se basa en la razón, la justificación y la posibilidad de revisión. Para que la IA sea aceptada y utilizada de manera efectiva, especialmente en aplicaciones de alto riesgo que afectan los derechos de las personas (como las identificadas en los marcos regulatorios de la UE y Argentina ), es indispensable avanzar hacia una IA Explicable (XAI). Los profesionales del derecho y los ciudadanos deben poder comprender, al menos en un nivel funcional, cómo un sistema de IA llega a una determinada conclusión o recomendación. La confianza pública y profesional en estas herramientas dependerá críticamente de su transparencia y de la capacidad de auditar y comprender sus procesos de toma de decisiones. Sin explicabilidad, la rendición de cuentas se vuelve ilusoria.  

     

  2. Clave 2: El Imperativo de la Alfabetización en IA para Todos los Operadores Jurídicos. Una comprensión fundamental de qué es la IA, cómo funcionan sus diferentes modalidades (especialmente los LLMs), cuáles son sus capacidades reales y, crucialmente, cuáles son sus limitaciones y riesgos inherentes ya no es una habilidad opcional o especializada, sino un requisito esencial para todos los operadores jurídicos. Esto incluye a jueces, fiscales, abogados litigantes, asesores corporativos, personal de apoyo legal y legisladores. Esta alfabetización en IA es la base para un uso competente y ético de las herramientas, para la supervisión efectiva de sus resultados y para participar de manera informada en el debate sobre su regulación y gobernanza.  

     

  3. Clave 3: Regulación Ágil y Adaptativa: Equilibrio entre Innovación y Protección. Los marcos regulatorios para la IA, como los que se están desarrollando en la Unión Europea y en Argentina , deben ser lo suficientemente robustos para proteger los derechos fundamentales, la seguridad y los principios éticos, pero también deben ser lo suficientemente flexibles y ágiles para no ahogar la innovación tecnológica. Un enfoque basado en riesgos, que module las exigencias regulatorias según el impacto potencial de la aplicación de IA, parece ser el consenso emergente. La utilización de “sandboxes” regulatorios (entornos de prueba controlados) puede permitir la experimentación y el desarrollo de IA de manera segura antes de su despliegue a gran escala, facilitando un aprendizaje iterativo para reguladores y desarrolladores.  

     

  4. Clave 4: La Gobernanza de Datos como Pilar Fundamental. La IA es tan buena como los datos con los que se entrena y opera. La calidad, representatividad, imparcialidad y privacidad de los datos son, por lo tanto, críticas para el desarrollo de una IA legal confiable y justa. Se requieren políticas de gobernanza de datos robustas a nivel de las firmas de abogados, de las instituciones judiciales y, potencialmente, a nivel sectorial. Esto incluye protocolos para la recopilación, el almacenamiento, el acceso, el uso y la eliminación de datos, así como mecanismos para asegurar el cumplimiento de las normativas de protección de datos personales y para mitigar los sesgos inherentes en los conjuntos de datos.  

     

  5. Clave 5: Redefinición de la Ética Profesional y los Deberes Fiduciarios. Los códigos de ética profesional y las normas que rigen los deberes fiduciarios de los abogados (como la diligencia, la competencia y la confidencialidad, referenciadas en la Regla Modelo 1.6 de la ABA ) necesitarán ser revisados y adaptados para abordar explícitamente el uso de la IA. Esto incluye clarificar las responsabilidades del abogado en la selección de herramientas de IA, la supervisión de sus resultados, la transparencia con el cliente sobre el uso de estas tecnologías, la gestión de los riesgos de “alucinaciones” y sesgos, y la responsabilidad última por los errores o daños causados por o mediante la IA.  

     

  6. Clave 6: Colaboración Interdisciplinaria en el Desarrollo y Auditoría de IA Legal. El desarrollo de herramientas de IA que sean verdaderamente justas, efectivas y responsables para el sector legal no puede ser tarea exclusiva de los tecnólogos. Requiere una colaboración estrecha y continua entre abogados, juristas, ingenieros de IA, científicos de datos, eticistas y científicos sociales. Esta interdisciplinariedad es esencial no solo en la fase de diseño y desarrollo, sino también en la validación, implementación y auditoría continua de los sistemas de IA para evaluar sus impactos reales y asegurar que se alinean con los valores y objetivos del sistema de justicia.  

     

  7. Clave 7: El Secreto Profesional en la Nube de IA: Nuevos Protocolos de Seguridad. La protección del secreto profesional (attorney-client privilege) en un entorno donde la información confidencial puede ser procesada por herramientas de IA, a menudo basadas en la nube y proporcionadas por terceros, exige una reevaluación fundamental de los protocolos de seguridad y gestión de la información. Las firmas deben priorizar el uso de soluciones de IA seguras, preferiblemente aquellas que ofrezcan entornos privados o encriptados, y negociar contratos con los proveedores que garanticen explícitamente la confidencialidad de los datos y prohíban su uso para fines ajenos al servicio contratado, especialmente el reentrenamiento de modelos generales.  

     

  8. Clave 8: La IA como Motor de Acceso a la Justicia, con Inclusión y Equidad. El enorme potencial de la IA para democratizar el acceso a los servicios legales y a la información jurídica debe realizarse de una manera que promueva la inclusión y la equidad. Esto significa asegurar que las herramientas de IA para el acceso a la justicia sean verdaderamente accesibles para todas las poblaciones (incluyendo aquellas con baja alfabetización digital o barreras lingüísticas), que sean imparciales y no perpetúen sesgos sistémicos, y que no exacerben la brecha digital. Se requiere un diseño centrado en el usuario y una consideración cuidadosa de los contextos sociales y culturales en los que se implementarán estas herramientas.  

     

  9. Clave 9: La Inversión Estratégica en Talento Humano: Más Allá de la Tecnología. Si bien la inversión en tecnología de IA es importante, es igualmente crucial, si no más, la inversión estratégica en el talento humano. Las firmas legales, las instituciones judiciales y las organizaciones del sector deben invertir en la capacitación y el desarrollo continuo de su personal para que puedan trabajar eficazmente con la IA, supervisar sus resultados de manera crítica y, lo más importante, centrarse en aquellas tareas de mayor valor añadido que requieren juicio humano, creatividad, empatía y razonamiento ético complejo – habilidades que la IA, por ahora, no puede replicar.  

     

  10. Clave 10: Prospectiva Continua y Adaptación al Cambio Exponencial. La Inteligencia Artificial es un campo en evolución extraordinariamente rápida. Las capacidades de los modelos, las aplicaciones disponibles y el panorama de riesgos cambiarán continuamente. Por lo tanto, la profesión legal en su conjunto –incluyendo profesionales, académicos, reguladores y colegios profesionales– debe adoptar una mentalidad de aprendizaje continuo y una cultura de prospectiva. Es esencial estar preparados para adaptar las prácticas, los modelos de negocio, los marcos educativos y los enfoques regulatorios de forma iterativa y ágil, anticipando en la medida de lo posible las futuras olas de cambio tecnológico y sus implicaciones para el derecho y la justicia.  

     

La evolución del profesional del derecho es inevitable. El modelo del “abogado aumentado”, que utiliza la IA para potenciar sus capacidades humanas únicas, parece ser el camino más probable y deseable.

Esto  a su vez exige una profunda reforma de la educación jurídica para dotar a los futuros juristas de las competencias necesarias en esta nueva era. Paralelamente, la IA ofrece una promesa significativa para mejorar el acceso a la justicia, siempre que se implemente de manera responsable y equitativa.  

 

Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.