Un fallo histórico del Tribunal Superior de Bogotá alerta sobre el “reemplazo del juez humano”. La sentencia de primera instancia citaba libros que no existen, jurisprudencia falsa y artículos del Código Penal alterados por las “alucinaciones” de la IA. Se ordenó investigar a la magistrada.
La Inteligencia Artificial (IA) llegó a los tribunales para quedarse, pero un caso reciente en Colombia demuestra el peligro de usarla “en piloto automático”.
El pasado 2 de diciembre de 2025, la Sala Penal del Tribunal Superior de Bogotá anuló una sentencia condenatoria por abuso sexual agravado. ¿El motivo? La jueza del caso delegó la fundamentación del fallo en una IA (probablemente ChatGPT o similar) sin verificar nada. El resultado fue una sentencia llena de mentiras jurídicas.
Las “Alucinaciones” de la Sentencia
El Tribunal, al revisar la apelación, se encontró con una redacción “coherente a primera vista”, pero que al analizarla en detalle revelaba errores garrafales propios de lo que en tecnología se llama “alucinaciones” (cuando la IA inventa datos con total seguridad).
Las pruebas del desastre que encontró el Tribunal fueron:
-
Libros Fantasma: La sentencia citaba una obra llamada “Derecho Procesal Penal Colombiano” del reconocido autor Fernando Velásquez Velásquez. Ese libro no existe.
-
Jurisprudencia Falsa: La jueza fundamentó su decisión en fallos de la Corte Suprema (SP414-2023, SP1123-2018) que nunca existieron en la realidad.
-
Leyes Inventadas: La IA reescribió el Código Penal. Citó el artículo 211 con un texto que no corresponde a la ley vigente.
-
Citas Cruzadas: Usó sentencias de la Corte Constitucional sobre interrupción del embarazo para justificar valoración probatoria en un caso de abuso, mezclando conceptos de forma incoherente.
“Sustitución del Juez Natural”
El fallo del Tribunal (Ponencia del Magistrado Jarol Echeverry Giraldo) es una clase magistral sobre tecnología y derecho.
Los jueces superiores explicaron que no está mal usar tecnología como apoyo, pero lo que hizo la jueza fue una “sustitución de la racionalidad humana”. Al copiar y pegar lo que dijo la máquina sin chequear, la jueza abdicó de su función.
“Cuando el juez delega la construcción de las providencias a la IA sin ejercer un control riguroso… compromete las garantías fundamentales de las partes”, dice el fallo.
Básicamente, el acusado no fue juzgado por una persona razonando sobre la ley real, sino por un algoritmo inventando un sistema jurídico paralelo. Esto viola el Debido Proceso.
El antecedente Argentino (El “Copy-Paste” de Chubut)
Un dato de color interesante es que el Tribunal colombiano citó “Derecho Comparado” muy reciente. Mencionaron un caso de Esquel, Argentina (Octubre 2025), donde también se anuló una sentencia.
En ese caso argentino, el juez había copiado y pegado tan literalmente la respuesta de la IA que dejó en la sentencia la frase del chat: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”. Un blooper judicial que dio la vuelta al mundo.
Las Consecuencias
El Tribunal tomó dos medidas drásticas:
-
Nulidad: Se anuló todo lo actuado desde la sentencia. El juzgado debe emitir un nuevo fallo, esta vez fundamentado en leyes y libros que existan de verdad.
-
Investigación Disciplinaria: Se enviaron copias a la Comisión de Disciplina Judicial para investigar a la jueza, no solo por el uso irresponsable de la IA, sino porque el expediente tuvo demoras injustificadas que podrían llevar a que el delito prescriba (quede impune).
En resumen: La IA es una herramienta potente, pero si el piloto se duerme al volante, el choque es inevitable. En la justicia, ese choque se lleva puestas las garantías constitucionales.
Fuente: Tribunal Superior de Bogotá, Sala Penal, rad. 11 001 61 08105 2014-00222-01 (1714), decisión del 2 de diciembre de 2025.