Depuis le 22 mai 2024, Meta a notifié aux utilisateurs européens d’Instagram et de Facebook – via des notifications dans l’application et des e-mails – une mise à jour de sa politique de confidentialité, liée à la mise en œuvre prochaine des technologies d’intelligence artificielle (IA) dans le domaine.
En effet, l’entreprise a déjà développé et mis à disposition certaines fonctionnalités et expériences d’IA dans d’autres parties du monde, notamment un assistant appelé « Meta AI » (ici et ici), construit sur un grand modèle de langage (LLM) appelé « Llama » (ici et ici), et, dans un communiqué officiela annoncé le projet imminent d’étendre leur utilisation également en Europe.
Cette initiative a donné lieu à des conflits en cours concernant la protection de la vie privée, qui ont polarisé le débat. Cependant, les données semblent n’être qu’un côté de la médaille et cacher des préoccupations bien plus profondes en matière de droits d’auteur. Compte tenu de l’approche holistique requise par les défis liés à la construction de modèles d’IA, il convient de procéder dans l’ordre, en commençant par un aperçu plus large.
La nouvelle politique de confidentialité de Meta
Selon la nouvelle politique de confidentialitéqui entrera en vigueur le 26 juin 2024, Meta traitera notamment l’activité et les informations fournies par les utilisateurs – y compris le contenu créé, comme les publications, les commentaires ou l’audio – pour développer et améliorer la technologie d’IA fournie sur ses produits et à des tiers. permettant la création de contenu comme du texte, de l’audio, des images et des vidéos. Les intérêts légitimes conformément à l’article 6, paragraphe 1, point f), du règlement général sur la protection des données (RGPD) sont invoqués comme base juridique.
Une rubrique complémentaire précise qu’une combinaison de sources sera utilisée à des fins de formation, y compris des informations accessibles au public en ligne, des informations sous licence provenant d’autres fournisseurs et des informations partagées sur les produits et services de Meta, avec la seule exclusion explicite des messages privés avec les amis et la famille.
La politique de confidentialité de WhatsApp ne semble pas concerné, même si de nouveaux outils d’IA sont également en développement pour ce service. Il semble qu’il en soit de même pour les conditions générales d’utilisation.
Le droit de s’opposer
L’utilisateur a le droit de s’opposer à ce que les informations partagées soient utilisées pour développer et améliorer la technologie de l’IA. A cet effet, l’utilisateur est tenu de remplir un formulaire en ligne accessible à partir d’un lien – « droit d’opposition » – placé en haut de la politique de confidentialité (ici, pour le moment, pour Facebook et pour Instagram). Les formulaires ne sont disponibles qu’après connexion et uniquement au sein de l’UE.
Il est intéressant de noter que le défaut de motivation, même si celle-ci est demandée comme obligatoire, ne semble pas remettre en cause l’acceptation de la demande qui – comme l’auteur a pu le vérifier – est généralement confirmée par email en quelques secondes. Dans tous les cas, cette désinscription ne sera effective qu’à l’avenir et certaines données pourront toujours être utilisées si l’utilisateur apparaît dans une image partagée par quelqu’un ou est mentionné dans les publications ou les légendes d’un autre utilisateur.
L’utilisateur pourra également soumettre des demandes afin d’accéder, télécharger, corriger, supprimer, opposer ou restreindre toute information personnelle de tiers utilisée pour développer et améliorer l’IA chez Meta. À cette fin, l’utilisateur est tenu de fournir des invites qui ont entraîné l’apparition d’informations personnelles et des captures d’écran des réponses associées.
Les conflits en matière de vie privée
Les notifications mentionnées faisaient apparemment suite à un certain nombre d’enquêtes de la part de la Commission irlandaise de protection des données (DPC), qui a ralenti – mais n’a pas bloqué – le lancement de l’initiative.
Dans ce contexte, le 4 juin 2024, l’autorité norvégienne de protection des données a émis des doutes sur la légalité de la procédure.
Le 6 juin 2024, NOYB, une organisation autrichienne à but non lucratif qui se concentre sur les questions de confidentialité commerciale au niveau européen, a déposé une plainte. devant les autorités de onze pays européens (AutricheBelgiqueFranceAllemagneGrèceItalieIrlandeles Pays-BasNorvègePologne et l’Espagne). Plusieurs violations du RGPD sont alléguées, notamment l’absence d’intérêts légitimes, le flou des termes « technologie d’intelligence artificielle », la dissuasion dans l’exercice du droit d’opposition, le défaut de fournir des informations claires, l’impossibilité de différencier correctement les sujets et les données et l’irréversibilité du traitement. En conséquence, elle a demandé l’arrêt préliminaire de toute activité de traitement conformément à l’article 58, paragraphe 2, du RGPD et l’ouverture d’une procédure d’urgence conformément à l’article 66 du RGPD.
Le 10 juin 2024, Meta a publié une déclaration officielle soulignant la plus grande transparence que les précédentes initiatives de formation d’autres entreprises et soulignant que les Européens devraient «avoir accéder à – ou être correctement servi par – l’IA dont dispose le reste du monde » et cela « sera mal servi par Des modèles d’IA qui ne s’appuient pas sur les riches contributions culturelles, sociales et historiques de l’Europe».
Le 14 juin 2024, le DPC irlandais a signalé la décision de Meta de suspendre ses projets de formation dans l’ensemble de l’UE/EEE suite à un engagement intensif entre l’autorité et l’entreprise.
Le même jour, NOYB a répondu en soulignant la possibilité pour Meta de mettre en œuvre la technologie de l’IA en Europe en demandant un consentement valide des utilisateurs, au lieu d’un opt-out. En outre, il a souligné que, jusqu’à présent, aucune modification officielle n’a été apportée à la politique de confidentialité de Meta qui rendrait cet engagement juridiquement contraignant.
L’affaire semble donc actuellement au point mort.
Les préoccupations en matière de droit d’auteur
Pendant ce temps, au-delà des questions de confidentialité, les auteurs et les artistes du monde entier – la force motrice derrière ces services – protestent contre la nouvelle politique de Meta en matière d’IA. Beaucoup menacent de quitter les plateformesmême si abandonner le capital social accumulé sur ces services pourrait représenter un obstacle majeur. D’autres proposent l’utilisation de programmes qui adoptent différentes techniques pour entraver l’analyse des œuvres et la formation des technologies d’IA, comme Nightshade. et Glaçage. De plus, les plateformes ouvertement hostiles à l’IA attirent de plus en plus l’attention, comme Caraqui n’héberge actuellement pas d’art IA, utilise une technologie de détection à cet effet et implémente des balises « NoAI » destinées à décourager le scraping.
Même d’autres fournisseurs d’accès Internet sont actuellement confrontés à des problèmes similaires et ont dû apporter certaines précisions. Par exemple, Adobe, après une certaine incertitude sur l’interprétation de ses conditions d’utilisation mises à jour qui prévoyaient une licence pour accéder au contenu par des méthodes à la fois automatisées et manuelles, a récemment clarifié (ici et ici) que le contenu de ses clients ne sera pas utilisé pour former des outils d’IA générative et a confirmé son engagement à poursuivre l’innovation pour protéger les créateurs de contenu.
Le mois dernier, en revanche, Open AI, défendeur dans certaines poursuites en cours pour violation du droit d’auteur, a publié son approche des données et de l’IA, affirmant l’importance d’un nouveau contrat social pour les contenus à l’ère de l’IA et annonçant le développement d’ici 2025 d’un Media Manager, qui «permettra aux créateurs et aux propriétaires de contenu de dire [OpenAI] ce qu’ils possèdent et précisent comment ils souhaitent que leurs œuvres soient incluses ou exclues de la formation» (voir, pour une analyse sur ce blog, Jütte).
Tout cela semble s’inscrire dans le cadre d’un manque croissant de confiance des auteurs et des interprètes à l’égard des entreprises technologiques et de leurs outils d’IA, ainsi que d’une forte demande de garanties. Même si le développement des technologies de l’IA peut donner naissance à d’importants instruments de création, la question de la juste prise en compte des intérêts des auteurs et interprètes des œuvres sous-jacentes, y compris de leur rémunération via les médias numériques et de la durabilité des professions créatives, reste ouverte.
Pour sortir de cet interrègne, un nouvel équilibre s’impose. Il est peut-être temps de repartir des principes fondamentaux du droit d’auteur et, en particulier, de savoir qui le système est censé protéger. Si la réponse est d’être des auteurs, alors seulement quelques superstars ou même la grande majorité restante ? Le risque est que les œuvres intellectuelles soient considérées comme de simples données – comme cette affaire semble le souligner – et que les auteurs et interprètes soient étiquetés à tort comme de simples créateurs de contenu.