Novedades del derecho y las leyes argentinas para el ciudadano

El testigo que volvió a hablar: ¿puede declarar un muerto con IA?

La prueba con IA en el sistema procesal moderno

El salón del tribunal estaba en silencio. Pero no fue el juez quien lo rompió. Tampoco los abogados. Fue la víctima. O más bien, su imagen, su voz, su presencia… recreadas por una inteligencia artificial.

Christopher Pelkey, exmilitar y creyente devoto, murió en 2021, asesinado en un episodio de furia vial. Sin embargo, durante la audiencia de sentencia, fue él —o su representación digital— quien pidió la palabra.

“En otra vida, probablemente podríamos haber sido amigos”, dijo el avatar de Pelkey, con su imagen, su voz clonada, sus expresiones, dirigidas al hombre acusado de haberlo matado..

Su hermana, Stacey Wales, lo había hecho posible. Ayudada por herramientas de clonación de voz y generación de imágenes basadas en redes neuronales como Stable Diffusion, escribió un texto que su hermano nunca pronunció en vida, pero que, según ella, lo representaba.

Lo que dice la ley

Desde la óptica legal, el video fue admitido por el tribunal amparándose en la “Victim’s Bill of Rights” del estado de Arizona. Esta normativa permite a las víctimas o sus representantes elegir el formato de sus declaraciones en audiencias de sentencia. La abogada de la familia, Jessica Gattuso, remarcó que el uso del avatar fue transparente y explícitamente declarado como una creación artificial.
En Argentina, el artículo 53 del Código Civil y Comercial regula el derecho a la imagen, y en su último párrafo permite que los herederos autoricen su uso post mortem, siempre que no sea ofensivo. También el artículo 59 exige el consentimiento informado para actos médicos o investigaciones en salud, lo que podría extrapolarse a actos digitales con la voz o imagen de una persona. En esta línea, toda manifestación póstuma debe respetar la voluntad presunta o expresa del difunto.

¿Y qué dice la jurisprudencia?

No existen precedentes conocidos en Argentina donde una IA haya representado a una víctima fallecida en un juicio. Sin embargo,  el sistema judicial puede adaptarse a pruebas no convencionales como peritajes técnicos o registros audiovisuales, siempre que su autenticidad y autoría estén claramente establecidas.

El juez Todd Lang, visiblemente conmovido, admitió haber sido tocado por el gesto de perdón del avatar de Pelkey. La defensa también usó la declaración a su favor, subrayando el vínculo potencial entre víctima y victimario.

Pero aquí surge la gran pregunta: ¿es legítimo que una inteligencia artificial hable por alguien que ya no está? ¿Qué pasa si las palabras que pronuncia no reflejan su voluntad, sino la interpretación de un tercero?

Como advirtió Tim Wales, el cuñado de Pelkey y programador del avatar, el riesgo está en la manipulación. “Sin el guion correcto, esto puede ser plano y torpe. Y en malas manos, peligroso.”

Este caso abre la puerta a nuevos usos de la tecnología en el ámbito judicial, pero también nos obliga a repensar los límites entre homenaje y manipulación, entre justicia y espectáculo. ¿Es la IA una herramienta legítima para la expresión post mortem o una fantasía inquietante?
Como decía Borges, “la muerte es una vida vivida. La vida es una muerte que viene”. Y ahora, gracias a la inteligencia artificial, hasta esa muerte puede tener voz.

Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.