Novedades del derecho y las leyes argentinas para el ciudadano

¿Quién audita a la inteligencia artificial?

Por Lorenzo Russo

 

Imaginá esto: un algoritmo revisa miles de facturas en segundos, detecta patrones raros y avisa “acá hay fraude”. El contador lo firma. La empresa toma decisiones. Todo parece impecable… hasta que alguien pregunta:
—Che, ¿y quién revisó al algoritmo?

La inteligencia artificial ya hace el trabajo que antes era de los auditores humanos: controla gastos, detecta desvíos, arma reportes. Pero la IA no jura decir la verdad. No tiene matrícula, ni puede ir a declarar si un juez la cita. Y, sin embargo, sus conclusiones pueden costar millones.

El nuevo desafío legal

Si un sistema de IA se equivoca, ¿quién responde?

  • El auditor que confió en él.
  • La empresa que lo compró.
  • ¿O la empresa que lo diseñó?

En tribunales, estas preguntas empiezan a aparecer. Ya hay juicios donde se discute si una evidencia generada por IA sirve como prueba. ¿Podés contrainterrogar a un algoritmo? ¿Y cómo se asegura la famosa “cadena de custodia” si la máquina aprende y cambia sola?

Transparencia… o caja negra

Los auditores tradicionales explican cada paso: qué muestra usaron, qué cálculo hicieron. Pero muchos modelos de IA son “cajas negras”: dan un resultado sin explicar por qué. En derecho eso incomoda: sin fundamentos no hay defensa posible.

Algunos proponen “auditorías de algoritmos”: una revisión independiente que garantice que el modelo no tenga sesgos ni errores. El problema es que esas auditorías también usan… más algoritmos. 

La privacidad en juego

Para entrenar un sistema así se necesitan datos, muchos datos: sueldos, consumos, movimientos bancarios. El auditor de IA es también un gran recolector de información personal. Acá entran las leyes de protección de datos y las preguntas clásicas: ¿para qué se usan esos datos?, ¿quién los borra?, ¿pueden viajar a otro país?

¿Qué dicen las leyes?

En paralelo al avance tecnológico, el derecho viene trazando sus propias líneas rojas.
La Unión Europea discute su Reglamento de Inteligencia Artificial, que prevé obligaciones de trazabilidad, documentación y evaluaciones de riesgo para los sistemas de “alto impacto”.
En Argentina, la Ley 25.326 de Protección de Datos Personales sigue siendo la referencia, aunque nació mucho antes de que existieran algoritmos capaces de reentrenarse solos. Y a nivel internacional, se empiezan a ensayar estándares ISO y guías para auditar sistemas automatizados, que podrían convertirse en referencias obligatorias para peritos y tribunales.

Lo que viene

La conclusión es simple y complicada a la vez: el derecho tiene que aprender a auditar la IA antes de que la IA audite todo. Nuevos contratos, regulaciones, cláusulas de responsabilidad y, sobre todo, profesionales que sepan de números y de código.

¿Qué pasa cuando la propia función de auditar  tradicionalmente humana, basada en juicio profesional se transfiere a la IA? Ese es justamente el punto de partida del libro “Auditoría – Aplicación de la Inteligencia Artificial: el próximo desafío” de Javier Klus, que invita a repensar el rol de los auditores en un contexto donde ya no alcanza con dominar balances: hay que entender algoritmos, código y los marcos jurídicos que empiezan a regularlos.

 

 

Si este tema te resultó interesante y querés profundizar en cómo la inteligencia artificial está transformando la auditoría, te recomendamos el libro ya mencionado “Auditoría – Aplicación de la Inteligencia Artificial: el próximo desafío” de Javier Klus, disponible en la Biblioteca Digital de Ediciones DyD.📚

 

Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.