La IA de Meta llega a Europa: disputas de privacidad ocultan preocupaciones por derechos de autor
Meta anuncia la implementación de Inteligencia Artificial en Europa. Genera controversia por la actualización de su política de privacidad y disputas sobre derechos de autor. Usuarios y organizaciones de privacidad plantean preocupaciones legales, mientras creadores de contenido expresan temor por el uso indebido de sus obras.
Desde el 22 de mayo de 2024, Meta notificó a los usuarios europeos de Instagram y Facebook, a través de notificaciones en la aplicación y correos electrónicos, una actualización de su política de privacidad, vinculada a la próxima implementación de tecnologías de inteligencia artificial (IA) en la región.
De hecho, la compañía ya ha desarrollado y puesto a disposición algunas funciones y experiencias de IA en otras partes del mundo, incluyendo un asistente llamado “Meta AI”, construido sobre un modelo de lenguaje grande (LLM) llamado “Llama”. En un comunicado oficial, Meta anunció su plan inminente de expandir su uso también en Europa.
Esta iniciativa ha resultado en algunas disputas de privacidad pendientes, que han polarizado el debate. Sin embargo, los datos parecen ser solo una cara de la moneda, ocultando preocupaciones mucho más profundas sobre derechos de autor. Dado el enfoque holístico requerido por los desafíos relacionados con la construcción de modelos de IA, es apropiado proceder en orden, comenzando con una visión general más amplia.
La nueva política de privacidad de Meta
Según la nueva política de privacidad, que entró en vigor el 26 de junio de 2024, Meta procesará, en particular, la actividad y la información proporcionada por los usuarios, incluyendo contenido creado, como publicaciones, comentarios o audio, para desarrollar y mejorar la tecnología de IA proporcionada en sus productos y a terceros, permitiendo la creación de contenido como texto, audio, imágenes y videos. Se invocan intereses legítimos conforme al Artículo 6(1)(f) del Reglamento General de Protección de Datos (GDPR) como base legal.
Una sección complementaria especifica que se utilizará una combinación de fuentes para fines de entrenamiento, incluyendo información públicamente disponible en línea, información con licencia de otros proveedores e información compartida en los productos y servicios de Meta, con la única exclusión explícita de mensajes privados con amigos y familiares.
La política de privacidad de WhatsApp no parece verse afectada, aunque también se están desarrollando nuevas herramientas de IA para este servicio. Lo mismo parece aplicar a los términos generales de uso.
El derecho a objetar
El usuario tiene el derecho a objetar el uso de su información para desarrollar y mejorar la tecnología de IA. Para este propósito, se requiere que el usuario complete un formulario en línea accesible desde un enlace – “derecho a objetar” – ubicado en la parte superior de la política de privacidad (aquí, por el momento, para Facebook e Instagram). Los formularios parecen estar disponibles solo después de iniciar sesión y solo dentro de la UE.
Curiosamente, no proporcionar una motivación, aunque se solicita como obligatoria, no parece socavar la aceptación de la solicitud, la cual – como el autor pudo verificar – generalmente se confirma por correo electrónico dentro de unos pocos segundos. En cualquier caso, dicha exclusión solo será efectiva de forma prospectiva y algunos datos aún podrían usarse si el usuario aparece en una imagen que alguien compartió o se menciona en las publicaciones o subtítulos de otro usuario.
El usuario también podrá enviar solicitudes para acceder, descargar, corregir, eliminar, objetar o restringir cualquier información personal de terceros que se esté utilizando para desarrollar y mejorar la IA en Meta. Para este propósito, se requiere que el usuario proporcione indicaciones que resulten en la aparición de información personal y capturas de pantalla de las respuestas relacionadas.
Las disputas de privacidad
Las notificaciones mencionadas aparentemente siguieron a una serie de consultas de la Comisión de Protección de Datos de Irlanda (DPC), que ralentizó – pero no bloqueó – el lanzamiento de la iniciativa.
En este contexto, el 4 de junio de 2024, la Autoridad de Privacidad de Datos de Noruega planteó dudas sobre la legalidad del procedimiento.
El 6 de junio de 2024, NOYB, una organización sin fines de lucro austriaca que se enfoca en problemas de privacidad comercial a nivel europeo, presentó quejas ante las autoridades de once países europeos (Austria, Bélgica, Francia, Alemania, Grecia, Italia, Irlanda, Países Bajos, Noruega, Polonia y España). Alegó varias violaciones del GDPR, incluyendo la falta de intereses legítimos, la vaguedad de los términos “tecnología de inteligencia artificial”, la disuasión en el ejercicio del derecho a objetar, la falta de información clara, la incapacidad de diferenciar adecuadamente entre sujetos y datos y la irreversibilidad del procesamiento. En consecuencia, solicitó una parada preliminar de cualquier actividad de procesamiento conforme al Artículo 58(2) del GDPR y el inicio de un procedimiento de urgencia conforme al Artículo 66 del GDPR.
El 10 de junio de 2024, Meta emitió un comunicado oficial destacando la mayor transparencia en comparación con iniciativas de entrenamiento anteriores de otras compañías y señaló que los europeos deberían “tener acceso a – o ser debidamente atendidos por – IA que el resto del mundo tiene” y que “serán mal atendidos por modelos de IA que no estén informados por las ricas contribuciones culturales, sociales e históricas de Europa”.
El 14 de junio de 2024, la DPC irlandesa informó la decisión de Meta de pausar sus planes de entrenamiento en toda la UE/EEE tras un compromiso intensivo entre la autoridad y la compañía.
Ese mismo día, NOYB respondió enfatizando la posibilidad de Meta de implementar tecnología de IA en Europa solicitando el consentimiento válido de los usuarios, en lugar de una exclusión. Además, subrayó que, hasta ese momento, no se había realizado ningún cambio oficial en la política de privacidad de Meta que hiciera este compromiso legalmente vinculante.
En la actualidad, por lo tanto, el caso parece estar en un punto muerto.
Las preocupaciones por derechos de autor
Mientras tanto, más allá de los problemas de privacidad, autores e intérpretes de todo el mundo – la fuerza impulsora detrás de estos servicios – están protestando contra la nueva política de IA de Meta. Muchos amenazan con abandonar las plataformas, aunque abandonar el capital social acumulado en estos servicios podría representar un obstáculo importante. Otros proponen el uso de programas que adoptan diferentes técnicas para obstruir el análisis de las obras y el entrenamiento de tecnologías de IA, como Nightshade y Glaze. Además, plataformas que se oponen abiertamente a la IA están ganando atención, como Cara, que actualmente no aloja arte generado por IA, utiliza una tecnología de detección para este propósito e implementa etiquetas “NoAI” destinadas a desalentar el scraping.
Incluso otros proveedores de servicios de Internet están enfrentando problemas similares y han tenido que proporcionar ciertas aclaraciones. Por ejemplo, Adobe, después de cierta incertidumbre sobre la interpretación de sus términos de uso actualizados que preveían una licencia para acceder a contenido a través de métodos automatizados y manuales, ha aclarado recientemente que el contenido de sus clientes no se utilizará para entrenar ninguna herramienta de IA generativa y confirmó su compromiso de continuar innovando para proteger a los creadores de contenido.
El mes pasado, en cambio, OpenAI, que es demandada en algunas reclamaciones pendientes de infracción de derechos de autor, publicó su enfoque sobre datos e IA, afirmando la importancia de un nuevo contrato social para el contenido en la era de la IA y anunció el desarrollo para 2025 de un Gestor de Medios, que “permitirá a los creadores y propietarios de contenido decirnos [a OpenAI] qué poseen y especificar cómo quieren que sus obras sean incluidas o excluidas del entrenamiento”.
Todo esto parece formar parte de una creciente falta de confianza de autores e intérpretes hacia las empresas tecnológicas y sus herramientas de IA, así como una fuerte demanda de garantías. Si bien el desarrollo de tecnologías de IA puede resultar en importantes instrumentos creativos, la cuestión de la consideración justa de los intereses de los autores e intérpretes de las obras subyacentes, incluida su remuneración a través de medios digitales y la sostenibilidad de las profesiones creativas, sigue abierta.
Para escapar de este interregno, se necesita un nuevo equilibrio. Quizás sea momento de volver a los fundamentos de los derechos de autor y, en particular, a quién está destinado a proteger el sistema. Si la respuesta será a los autores, ¿será solo a unas pocas superestrellas o también a la vasta mayoría restante? El riesgo es que las obras intelectuales sean consideradas solo como datos – como parece enfatizar este asunto – y que los autores e intérpretes sean etiquetados erróneamente como simples creadores de contenido.
Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.