La inteligencia artificial y la ley
Académicos jurídicos brindan opinión sobre el potencial de innovación y agitación de la Inteligencia Artificial
A principios de 2023, en Bélgica, un padre joven con dos hijos decidió quitarse la vida tras mantener una conversación con un chatbot impulsado por inteligencia artificial. Al parecer, había estado en contacto regular con este gran modelo de lenguaje y se había vuelto emocionalmente dependiente de él. Cuando el sistema lo instó a cometer suicidio, él lo hizo. “Si no hubiera tenido esas conversaciones con el chatbot”, declaró la viuda a un periódico de Bruselas, “mi esposo seguiría con nosotros”.
Una tragedia devastadora, pero se predice que podría volverse mucho más común, según expertos.
A medida que aumenta el uso de la inteligencia artificial generativa, también crece la capacidad de los grandes modelos de lenguaje para causar daños significativos. Mark Lemley (BA ’88), el Profesor William H. Neukom de Derecho, expresa su preocupación por un futuro en el que la inteligencia artificial pueda brindar asesoramiento sobre la comisión de actos de terrorismo, recetas para venenos o explosivos, o desinformación capaz de arruinar reputaciones o incitar a la violencia.
La incógnita es quién, en caso de que sea necesario, será responsable de estos daños.
“Todavía no tenemos precedentes legales”, afirma Lemley. “La empresa que opera la inteligencia artificial no está tomando ninguna acción deliberada. No necesariamente saben lo que la inteligencia artificial va a responder ante cualquier indicación dada”.
La Inteligencia Artificial generativa se está desarrollando a una velocidad asombrosa, creando nuevos problemas complejos en campos legales establecidos, alterando sistemas de responsabilidad civil de larga data y derrotando los marcos necesarios, tanto legales como regulatorios, que garantizan la prevención y asunción de riesgos a considerar.
Para mantenerse al día con la avalancha de nuevos grandes modelos lingüísticos como ChatGPT, jueces y legisladores tienen que enfrentarse a cuestiones complejas por primera vez. Primero, ¿Cómo debería la ley regular el discurso dañino no creado por personas con derechos de la Primera Enmienda? ¿Cómo deberían cambiar el derecho penal y el procesamiento para tener en cuenta el papel de los robots en la comisión de delitos?
A medida que más personas buscan asesoramiento jurídico a través de chatbots, ¿qué significa esto para la regulación de los servicios jurídicos? ¿Cómo sobrevive la legislación sobre derechos de autor existente cuando existen grandes modelos lingüísticos capaces de escribir novelas y generadores de vídeo con Inteligencia Artificial que producen películas?
Sobre esta lista apremiante hay otra pregunta: ¿están los políticos, administradores, jueces y abogados preparados para las perturbaciones causadas por la Inteligencia Artificial?.
Agentes artificiales, intención criminal
¿ChatGPT difamó al profesor Lemley?
En 2023, cuando Lemley pidió al GPT-4 Chat Rat que proporcionara información sobre sí mismo, afirmó que había sido acusado de un delito: específicamente, apropiación indebida de secretos comerciales. Lemley, director del Programa de Derecho, Ciencia y Tecnología de Stanford, no hizo tal cosa. Al parecer su campo de investigación hizo que la rata chateara alucinara crímenes.
Mientras investigaban un artículo reciente sobre inteligencia artificial y responsabilidad, Lemley y su equipo pidieron a Google información sobre prevención de ataques. El motor de búsqueda respondió con un enlace “Tuviste una convulsión, ¿ahora qué?”. y Lemley hizo clic. Entre las respuestas: “poner algo en la boca de alguien” y “sostener a la persona”. Algo estaba terriblemente mal. Resultó que el algoritmo de Google recogió contenido de la página web que explicaba exactamente qué no hacer. El error podría haber causado lesiones graves. (Este consejo ya no se incluye en los resultados de búsqueda).
Según Lemley, no está claro si las empresas de inteligencia artificial son responsables de tales errores. Según él, es necesario desarrollar la ley para cubrir estas lagunas. Pero a Lemley le preocupa un problema aún más amplio: cómo lidiar con modelos de IA que causan daño pero cuyos detalles técnicos están encerrados en una caja negra.
Toma las calumnias. Lemley explica que para establecer la responsabilidad es necesario que el demandante demuestre la intención de defraudar. Sin embargo, si el autor de la declaración supuestamente difamatoria es un chatbot, la cuestión de la intención se vuelve confusa y probablemente depende de los detalles técnicos del modelo: cómo se entrena y optimiza exactamente.
Lemley teme que los desarrolladores hagan sus diseños menos transparentes para evitar posibles descubrimientos. La IA de caja negra hace que sea difícil para los demandantes argumentar que “significa” que es necesaria. Sin embargo, esto dificulta el ajuste de los modelos.
Entonces, ¿cómo se cambia la ley? Según Lemley, se necesita un marco legal que anime a los desarrolladores a centrarse menos en evitar responsabilidades y más en alentar a las empresas a crear sistemas que satisfagan nuestras preferencias. Queremos que los sistemas sean abiertos y comprensibles, afirma. Preferimos una inteligencia artificial que no mienta ni dañe. Pero eso no significa que tengan que decir cosas buenas sobre las personas sólo para evitar responsabilidades. Esperamos que sean realmente informativos.
Dados estos intereses contrapuestos, los jueces y legisladores deberían adoptar un enfoque detallado de los casos de IA y preguntarse qué es exactamente lo que debemos fomentar. Como punto de partida, Lemley sugiere abandonar el requisito de mens rea en los casos de agravios relacionados con la IA ahora que hemos entrado en una era en la que máquinas sin sentido pueden crear fácilmente contenidos peligrosos.
El punto de vista de Lemley se extiende al discurso de que la inteligencia artificial promueve la actividad criminal. Imagine, dice, un chatbot que genera una lista de instrucciones sobre cómo convertirse en un asesino o cómo fabricar un veneno mortal. Existe un precedente para responsabilizar a las personas por estas cosas. Sin embargo, cuando se trata de inteligencia artificial, nuevamente la falta de practicidad de la máquina impide la rendición de cuentas.
“Queremos que la IA deje de persuadir a las personas para que se hagan daño a sí mismas, facilite los crímenes y difunda mentiras sobre las personas”, escribe Lemley en su artículo “¿Dónde está la responsabilidad en el discurso dañino de la IA?” Entonces, en lugar de basar la responsabilidad en la intención, algo de lo que carece la IA, Lemley sugiere que una empresa de IA debería ser responsable de los daños en los casos en que fue diseñada sin tomar las medidas normales de mitigación de riesgos.
Al mismo tiempo, Lemley se preocupa de que responsabilizar a las empresas de inteligencia artificial cuando no se haría lo mismo con humanos comunes pueda desalentar inapropiadamente el desarrollo de la tecnología. Él y sus coautores sostienen que necesitamos un conjunto de mejores prácticas para una inteligencia artificial segura. Las empresas que sigan estas mejores prácticas estarían exentas de demandas por los daños que resulten de su tecnología, mientras que aquellas que ignoren las mejores prácticas serían responsables cuando se descubra que sus inteligencias artificiales han contribuido a un daño resultante.
Ayudando a cerrar la brecha en el acceso a la justicia
A medida que la inteligencia artificial amenaza con interrumpir el derecho penal, los propios abogados enfrentan grandes perturbaciones. La tecnología ha facultado a individuos que no pueden encontrar o pagar a un abogado a recurrir a la ayuda legal impulsada por inteligencia artificial. En un sistema de justicia civil inundado de necesidades legales no satisfechas, eso podría marcar la diferencia.
“Es difícil de creer”, dice David Freeman Engstrom, JD ’02, Profesor LSVF de Derecho en Stanford y co-director del Centro Deborah L. Rhode sobre la Profesión Legal, “pero la mayoría de los casos civiles en el sistema legal estadounidense, eso son millones de casos cada año, son cobros de deudas, desalojos o asuntos de derecho familiar”. La mayoría enfrenta a un demandante institucional representado (un banco, arrendador o agencia gubernamental) contra un individuo no representado. La ayuda legal impulsada por inteligencia artificial podría cambiar radicalmente el mercado de servicios legales y abrir más ampliamente las puertas de los tribunales para todos.
“Hasta ahora”, dice Engstrom, “mi opinión era que la inteligencia artificial no era lo suficientemente poderosa como para cambiar el acceso a la justicia”. Esa opinión estuvo en primera plana en un libro que Engstrom publicó a principios de este año, “Legal Tech and the Future of Civil Justice”. Luego apareció ChatGPT, un “momento de epifanía”, como él lo describe. La tecnología ha avanzado tan rápido que Engstrom ahora ve un rico potencial para que los modelos de lenguaje grandes traduzcan de un lenguaje sencillo a uno legal y viceversa, analizando la descripción del problema de un individuo y respondiendo con opciones legales claras y acciones.
“Necesitamos dar más espacio a las nuevas herramientas para servir a personas que actualmente no tienen abogados”, dice Engstrom, cuyo Centro Rhode ha trabajado con múltiples tribunales supremos estatales sobre cómo relajar de manera responsable sus reglas sobre la práctica no autorizada de la ley. Como parte de ese trabajo, un estudio innovador del Centro Rhode ofreció la primera evidencia rigurosa sobre innovación legal en Utah y Arizona, los dos primeros estados en implementar reformas significativas.
Pero hay señales de problemas en el horizonte. Este verano, un juez de Nueva York sancionó a un abogado por presentar un recurso que citaba precedentes ficticios. Resulta que el abogado confió en ChatGPT para la investigación legal, sin imaginar que el chatbot podría alucinar leyes falsas.
¿Qué tan preocupados deberíamos estar por la tecnología legal impulsada por la inteligencia artificial llevando a personas legas, o incluso a abogados, por mal camino? Margaret Hagan, JD ’13, profesora de derecho, está tratando de caminar por la delgada línea entre el tecno-optimismo y el pesimismo.
“Puedo entender el punto de vista de ambos campos”, dice Hagan, quien también es directora ejecutiva del Legal Design Lab, que está investigando cómo la inteligencia artificial puede aumentar el acceso a la justicia, así como diseñar y evaluar nuevas herramientas. “El laboratorio trata de navegar entre esos dos puntos de vista y no dejarse guiar por anécdotas optimistas o historias aterradoras”.
Con ese fin, Hagan está estudiando cómo las personas están utilizando herramientas de inteligencia artificial para resolver problemas legales. A partir de junio, dio escenarios legales ficticios a voluntarios, como recibir un aviso de desalojo, y observó cómo consultaban a Google Bard. “La gente preguntaba, ‘¿tengo algún derecho si mi arrendador me envía un aviso?’ y ‘¿realmente puedo ser desalojado si pago mi alquiler a tiempo?'” dice Hagan.
Bard “les proporcionó información muy clara y aparentemente autorizada”, dice ella, incluyendo estatutos y ordenanzas correctas. También ofreció jurisprudencia imaginaria y números de teléfono de grupos de ayuda legal inexistentes.
En su clase de laboratorio de políticas, “IA para ayuda legal”, que comenzó el otoño pasado, los estudiantes de Hagan continúan ese trabajo entrevistando a miembros del público sobre cómo podrían usar la inteligencia artificial para ayudarlos con problemas legales. Como futura abogada, Jessica Shin, JD ’25, participante en la clase de Hagan, está preocupada de que las personas vulnerables depositen demasiada confianza en estas herramientas.
“Me preocupa que si un chatbot no está cuidando los detalles, se pueden pasar por alto cosas clave, como plazos de prescripción u otros pasos procesales que harán o desharán sus casos”, dijo.
Ante toda esta promesa y peligro, los tribunales necesitan orientación, y SLS la está proporcionando. Engstrom fue seleccionado por el American Law Institute para liderar un proyecto plurianual que asesore a los tribunales sobre expedientes “de alto volumen”, que incluyen casos de deudas, desalojos y familiares. La tecnología será una parte fundamental, al igual que examinar cómo los tribunales pueden aprovechar la inteligencia artificial. Hace dos años, Engstrom y Hagan se unieron a Mark Chandler, JD ’81, exdirector legal de Cisco y ahora en el Centro Rhode, para lanzar el Proyecto de Equidad en la Presentación. Se asociaron con tribunales en siete estados, desde Alaska hasta Texas, para facilitar que los proveedores de tecnología sirvan a litigantes mediante herramientas basadas en inteligencia artificial. Su última colaboración trabajará con el Tribunal Superior de Los Ángeles, el más grande del país, para diseñar nuevos caminos digitales que sirvan mejor a los usuarios del tribunal.
¿Pueden las máquinas promover el cumplimiento de la ley?
La esperanza de que la inteligencia artificial pueda ser aprovechada para fomentar la equidad y la eficiencia se extiende también al trabajo del gobierno. Tomemos la justicia penal. Se supone que es ciega, pero el sistema con demasiada frecuencia puede ser discriminatorio, especialmente cuando se trata de raza. Al decidir si presentar o desestimar un caso, a un fiscal se le prohíbe por la Constitución tener en cuenta la raza de un sospechoso. Sin embargo, existe una preocupación real de que estas decisiones puedan estar influenciadas por el sesgo racial, ya sea implícito o explícito.
Entra la inteligencia artificial. Julian Nyarko, profesor asociado de derecho, ha desarrollado un algoritmo para ocultar información relacionada con la raza en informes de delitos graves. Luego implementó el algoritmo en la oficina de un fiscal, eliminando detalles de identificación racial antes de que los informes llegaran al escritorio del fiscal. Nyarko cree que su algoritmo ayudará a garantizar decisiones de enjuiciamiento legales.
“El trabajo utiliza herramientas de inteligencia artificial para aumentar el cumplimiento de la ley”, dice. “Está utilizando la inteligencia artificial para ayudar a los fiscales a tomar decisiones que no estén condicionadas por la raza. Porque eso es lo que la ley requiere”.
Gobernando la Inteligencia Artificial
Mientras la profesión legal evalúa cómo integrar esta nueva tecnología, el gobierno ha estado poniéndose al día en cómo lidiar con la revolución de la inteligencia artificial. Según Daniel Ho, profesor de derecho y miembro principal del Instituto de Inteligencia Artificial Centrada en el Humano de Stanford, uno de los desafíos fundamentales para el sector público es la escasez de experiencia.
Muy pocos especialistas en inteligencia artificial eligen trabajar en el sector público. Según una encuesta reciente, menos del 1 por ciento de los recientes graduados de doctorado en inteligencia artificial ocuparon puestos en el gobierno, en comparación con alrededor del 60 por ciento que eligió trabajos en la industria. La falta de personas adecuadas y una infraestructura digital gubernamental deteriorada significa que el sector público carece de la experiencia para redactar leyes y políticas y utilizar eficazmente estas herramientas para mejorar la gobernabilidad. “El gobierno no puede gobernar la inteligencia artificial”, dice Ho, “si el gobierno no entiende la inteligencia artificial”.
Ho, quien también asesora a la Casa Blanca como miembro designado del Comité Asesor Nacional de Inteligencia Artificial (NAIAC), está preocupado de que los responsables de la formulación de políticas y los administradores no tengan suficiente conocimiento para diferenciar los riesgos especulativos de los riesgos concretos planteados por la tecnología.
Evelyn Douek, profesora asistente de Derecho en Stanford, está de acuerdo. Hay una falta de información disponible sobre cómo funcionan las herramientas de inteligencia artificial de uso común, información que el gobierno podría utilizar para orientar su enfoque regulatorio, dice. ¿El resultado? Una epidemia de lo que Douek llama “pensamiento mágico” por parte del sector público sobre lo que es posible.
La brecha de información entre los sectores público y privado motivó a un gran equipo de investigación del Laboratorio de Regulación, Evaluación y Gobernanza (RegLab) de la Facultad de Derecho de Stanford a evaluar la viabilidad de propuestas recientes para la regulación de la inteligencia artificial. El equipo, que incluía a Tino Cuéllar (MA ’96, PhD ’00), exprofesor de SLS y presidente de la Carnegie Endowment for International Peace; Colleen Honigsberg, profesora de Derecho; y Ho, concluyó que un paso importante es que el gobierno recopile e investigue eventos en los que los sistemas de inteligencia artificial funcionen seriamente mal o causen daño, como en el riesgo de bioweapons.
“Si observamos otros productos complejos, como automóviles y productos farmacéuticos, el gobierno tiene una base de datos de información que detalla los factores que llevaron a accidentes y daños”, dice Neel Guha, estudiante de doctorado en derecho y ciencias de la computación y coautor de un próximo artículo que explora este tema. El NAIAC adoptó formalmente esta recomendación para un sistema de informes de este tipo en noviembre.
“Nuestra comprensión completa de cómo se utilizan estos sistemas y dónde podrían fallar aún está en evolución”, dice Guha. “Un sistema de informes de eventos adversos es un prerrequisito necesario para una gobernanza más efectiva”.
Modernizando el Gobierno
Si bien los últimos modelos de inteligencia artificial exigen nuevas herramientas y marcos regulatorios, también requieren que repensemos los existentes, un desafío cuando los diversos interesados a menudo operan en silos separados.
“Los responsables de formular políticas pueden proponer algo que es técnicamente imposible. Los ingenieros pueden proponer una solución técnica que es totalmente ilegal”, dice Ho. “Lo que se necesita son personas que comprendan ambas dimensiones”.
El año pasado, Ho, Christie Lawrence, JD ’24, e Isaac Cui, JD ’25, documentaron los extensos desafíos que enfrentaba el gobierno federal para implementar los requisitos legales de la inteligencia artificial en un artículo. Esto llevó a Ho a testificar ante el Senado de EE. UU. sobre una serie de reformas. Y este trabajo está generando cambios. La histórica orden ejecutiva de la Casa Blanca sobre inteligencia artificial adoptó estas recomendaciones, y el propuesto AI Leadership to Enable Accountable Deployment (AI LEAD) Act codificaría aún más recomendaciones, como la creación de un director de inteligencia artificial, juntas de gobernanza de inteligencia artificial y planificación estratégica de agencias. Estos requisitos ayudarían a garantizar que el gobierno pueda utilizar y gobernar adecuadamente la tecnología.
Ho, como director académico de RegLab, también está construyendo puentes con agencias locales y federales para desarrollar proyectos de demostración de alto impacto de aprendizaje automático y ciencia de datos en el sector público.
RegLab está trabajando con el Servicio de Impuestos Internos para modernizar el sistema de recaudación de impuestos con inteligencia artificial. Está colaborando con la Agencia de Protección Ambiental para desarrollar tecnología de aprendizaje automático que mejore el cumplimiento ambiental. Y durante la pandemia, se asoció con el Condado de Santa Clara para mejorar los programas de respuesta a la pandemia del departamento de salud pública.
“La inteligencia artificial tiene un potencial real para transformar partes del sector público”, dice Ho. “Nuestros proyectos de demostración con agencias gubernamentales ayudan a visualizar una perspectiva afirmativa de la tecnología responsable para servir a los estadounidenses”.
En señal de un cambio alentador, Ho ha observado un número creciente de científicos de la computación que se están inclinando hacia la política pública, ansiosos por participar en la formulación de leyes y políticas para responder al avance rápido de la inteligencia artificial, así como estudiantes de derecho con profundos intereses en tecnología. Antiguos alumnos de RegLab han sido reclutados para trabajar en el IRS y en el Servicio Digital de los EE. UU., el brazo técnico del poder ejecutivo. Ho mismo sirve como asesor principal de inteligencia artificial responsable en el Departamento de Trabajo de los EE. UU. Y la escuela de derecho y RegLab están en primera línea para capacitar a una nueva generación de abogados y tecnólogos para dar forma a este futuro.
Inteligencia Artificial en Hollywood.
Se han realizado numerosos libros y películas sobre humanos amenazados por la inteligencia artificial, pero ¿qué sucede cuando la tecnología se convierte en una amenaza para la misma industria del entretenimiento? Aún es pronto para las novelas, películas y otro contenido creados por inteligencia artificial generativa, pero parece que Hollywood ha sido elegido para protagonizar su propia historia de ciencia ficción, y la ley tiene un papel que desempeñar.
“Si las tecnologías de inteligencia artificial generativa continúan en su trayectoria actual”, dice el profesor de derecho Stella W. e Ira S. Lillick, Paul Goldstein, “es probable que trastornen muchas de nuestras suposiciones sobre un sistema de derechos de autor”.
Hay dos suposiciones principales detrás de la ley de propiedad intelectual que la inteligencia artificial está en camino de alterar. Desde largometrajes y videojuegos con presupuestos de varios millones de dólares hasta un libro cuyo autor tardó cinco años en completar, se ha presumido que la ley de derechos de autor es necesaria para incentivar inversiones costosas. Ahora, la inteligencia artificial ha trastornado esa lógica.
“Cuando un videojuego que hoy requiere una inversión de $100 millones puede ser producido por inteligencia artificial generativa a un costo que es una o dos órdenes de magnitud menor”, dice Goldstein, “el argumento a favor del derecho de autor como incentivo para la inversión se debilitará significativamente en toda la cultura popular”.
La segunda suposición, que descansa en el lado del consumidor de la ecuación, tampoco es más estable. El derecho de autor, un sistema diseñado en parte para proteger a los creadores de obras originales, también se ha justificado durante mucho tiempo como maximizador de la elección del consumidor. Sin embargo, en una era de motores de recomendación impulsados por inteligencia artificial, la elección individual se vuelve menos importante y el argumento solo se debilitará a medida que los servicios de transmisión “mejoren mucho en averiguar qué se adapta a sus gustos y tomar decisiones por usted”, dice Goldstein.
Si estas suposiciones básicas detrás del derecho de autor van a ser “cada vez más irrelevantes” debido a la inteligencia artificial, ¿cuál es entonces la respuesta necesaria? Goldstein dice que debemos encontrar marcos legales que protejan mejor a los autores humanos.
“Creo que la autoría y la autonomía son valores independientes que merecen ser protegidos”, dice. Goldstein vislumbra un marco en el que las obras producidas por inteligencia artificial estén claramente etiquetadas como tales para garantizar que los consumidores tengan información precisa.
El enfoque de etiquetado puede tener la ventaja de la simplicidad, pero por sí solo no es suficiente. En un momento de interrupción sin precedentes, Goldstein argumenta que los legisladores deberían buscar formas adicionales de apoyar a los creadores humanos que se encontrarán compitiendo con inteligencias artificiales que pueden generar obras más rápido y por una fracción del costo. La solución, sugiere, podría implicar mirar las prácticas en países que tradicionalmente han pensado más en apoyar a los artistas, como los de Europa.
“Siempre habrá un apetito por la autenticidad, un gusto por lo real”, dice Goldstein. “¿Cómo más se explica que alguien pague $2,000 para ver a Taylor Swift desde un balcón distante, cuando podría transmitir las mismas canciones en su sala de estar por centavos?” En el caso de la ley de propiedad intelectual, ponerse al día con la tecnología puede significar atender nuestro impulso humano y tomar las medidas necesarias para facilitar la arraigada urgencia de crear y compartir obras de arte auténticas.
Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.