Novedades del derecho y las leyes argentinas para el ciudadano

Multa récord por el uso ilegal de inteligencia artificial

La Autoridad de Protección de Datos de Hungría (Nemzeti Adatvédelmi és Információszabadság Hatóság, NAIH) publicó recientemente su informe anual en el que presenta un caso en el que la Autoridad impuso la multa más alta hasta la fecha: 670.000 euros.

El caso involucraba el procesamiento de datos personales de un banco (que actuaba como controlador de datos) que analizaba automáticamente el audio grabado de las llamadas de atención al cliente.

El banco usó los resultados del análisis para determinar a qué clientes se les debería devolver la llamada, utilizando un software de señales de voz basado en inteligencia artificial. Analizó automáticamente la llamada en función de una lista de palabras clave y el estado emocional de llamador.

Posteriormente, el software estableció una clasificación de las llamadas que sirve como una recomendación sobre a qué persona se la llama como prioridad.

Los fines de la actividad de procesamiento fueron determinados por el banco como el control de calidad en base a parámetros variables, la prevención de reclamos y migración de clientes, y el desarrollo de la eficiencia de su atención al cliente.

Sin embargo, según la Autoridad, el aviso de privacidad del banco se refería a estas actividades de procesamiento únicamente en términos generales, y no se puso a disposición información material sobre el análisis de voz en sí. Asimismo, el aviso de privacidad solo señalaba como finalidades del tratamiento el control de calidad y la prevención de reclamos.

El banco basó el procesamiento en sus intereses legítimos para retener a sus clientes y mejorar la eficiencia de sus operaciones internas. Sin embargo, las actividades de procesamiento de datos en relación con estos intereses no se separaron en el aviso de privacidad y en las pruebas de intereses legítimos se desdibujaron.

En el curso del procedimiento ante la Autoridad, se hizo evidente de las declaraciones del banco que durante años no había brindado a los titulares de los datos la debida notificación y el derecho a objetar, porque había determinado que no estaba en condiciones de hacerlo. . La Autoridad enfatizó que la única base legal para la actividad de procesamiento del análisis de voz basado en emociones solo puede ser el consentimiento informado y otorgado libremente por los interesados.

Además, la Autoridad destacó que, aunque el banco había llevado a cabo una evaluación de impacto de la protección de datos (DPIA) e identificado que el procesamiento es de alto riesgo para los interesados, capaces de perfilar y calificar, la DPIA no presentó soluciones sustanciales para abordar estos riesgos.

Además, la prueba de interés legítimo realizada por el banco no tuvo en cuenta la proporcionalidad, los intereses de las personas, simplemente estableció que el procesamiento de datos es necesario para lograr los fines que persigue.

La Autoridad enfatizó además que la base legal del interés no puede servir como “último recurso” cuando todas las demás bases legales son inaplicables y, como tales, los controladores de datos no pueden hacer referencia a esta base legal en ningún momento y por ningún motivo.

En conclusión, la Autoridad destacó que “ la inteligencia artificial es generalmente difícil de entender y monitorear debido a la forma en que funciona, e incluso las nuevas tecnologías plantean riesgos particulares para la privacidad. Esta es una de las razones por las que el uso de la inteligencia artificial en la gestión de datos requiere una atención especial, no solo en el papel sino también en la práctica”.


Fuente

Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.