L'étude

Les plateformes de streaming ou plateformes de diffusion en flux continu (que ce soit en ce qui concerne la musique, les séries et les films) ont connu un essor fulgurant au cours de la dernière décennie. En effet, la pénétration d’Internet et la généralisation des réseaux et services de télécommunication sur le territoire canadien ont techniquement rendu possible l’avènement et l’adoption par une majorité de la population canadienne des services de diffusion de vidéos ou de musique sur demande, par abonnement (Lad et al., 2020).

Parallèlement à ces développements, la multiplication des appareils et des équipements numériques connectés – comme les téléphones intelligents, les tablettes, les télévisions intellgentes et les boîtiers IPTV– rend possible de nouveaux modes d’accès et de consommation de contenus culturels numériques, notamment en mobilité et hors du domicile. À titre d’exemple, la proportion de Canadiens disposant d’un téléphone intelligent est passé de 6% en 2007 à 81% en 2018 ; cette proportion atteignant 96% chez les milléniaux (Yale, 2020, p. 131). De même, les revenus des services de télécommunicadiens ont totalisé 54,1 milliards de dollars en 2019 (CRTC, 2020, p.32), illustrant le fait que les Canadiens utilisent des quantités de plus en plus volumineuses de données (incluant les données liées aux services de diffusion vidéo et audio en continu, tels que Netflix, Amazon Prime Vidéo, YouTube et Spotify) au moyen des services Internet fixes et d’appareils mobiles.

La notoriété des plateformes de diffusion en continu s’est corollairement accompagnée d’un mouvement de désabonnement au câble traditionnel (« Cord Cutting »)4. À titre indicatif, le nombre d’abonnés au câble traditionnel au Canada, qui était d’environ 11,3 millions de ménages canadiens en 2016, devrait se réduire d’environ 150 000 au cours de la même année. Par ailleurs, le nombre total de Canadiens abonnés à des services de câblo-distributeur devrait être déjà dépassé par la quantité de Canadiens disposant d’un abonnement à un service de diffusion sur demande par abonnement, au cours de l’année 2020 (Telecom et Media, 2019). Pour mettre en contexte ce phénomène, on note que Netflix, comptait à lui seul, près de 7 millions d’abonnés au Canada en 2019 ; ce qui en fait le service de diffusion vidéo en continu le plus populaire au pays (Norton Rose Fulbright, 2019). Les milléniaux comptent pour la part du lion en ce qui concerne les abonnements à Netflix, 76% d’entre eux ayant un abonnement, contre 54% pour l’ensemble des Canadiens et 33% pour les francophones (Yale, 2020, p. 131).

On note également que la popularité des services de diffusion sur demande se répercute sur le trafic Internet mondial. Les services de streaming vidéos représentent ainsi près de 60% du volume de téléchargement total sur Internet (Cullen, 2019), une bonne part de la bande passante mondiale étant ainsi accaparée par les activités de visionnement de films, de séries et de vidéos, principalement sur Netflix et YouTube.

Le désabonnement du câble traditionnel et l’hégémonie des plateformes numériques ont été renforcés durant la pandémie, notamment avec les mesures de confinement qui ont entraîné la fermeture des salles de cinéma, l’annulation des sorties de films ainsi que la déprogrammation des festivals, tournées et concerts de musique. Cette situation a obligé les consommateurs à se tourner vers l’offre culturelle exclusivement disponible et accessible en ligne (Vlassis, 2020 ; Tchéhouali, 2020). Les nouveaux fournisseurs de contenus à l’échelle mondiale bénéficient des importants effets-réseaux liés aux économies d’échelle qu’ils réalisent en comblant la demande et les besoins des utilisateurs de leurs services à l’échelle de la planète, à travers une offre de contenus culturels attrayante, créatrice de valeurs et de plus en plus diversifiée. Comme le rappelle Alexandre Bohas : « L’arrivée de ces entreprises intervient dans un contexte de crise des majors dont les taux de rentabilité baissent à la suite d’effets ciseaux provenant de l’augmentation des coûts de production et de la baisse du produit des ventes. […] Par ailleurs, les spectateurs se détournent des supports vidéo, de la télévision traditionnelle et des multiplexes pour se diriger vers la vidéo en streaming, ce qui réduit d’autant les sources de revenus et de rentabilité » (Bohas, 2019, p.73). L’auteur poursuit en affirmant que le centre de gravité de la nouvelle économie-monde « ne se trouve plus dans la distribution audiovisuelle, mais dans l’accès numérique aux spectateurs. Toutes les compagnies dépourvues d’une telle interface attractive seront reléguées aux périphéries, au rang de sous-traitants des plateformes Internet. » (Bohas, 2019, p.76).

Tout cela explique sans doute le fait que Netflix ait conforté sa position de leader du streaming vidéo payant avec près de 204 millions d’abonnésdans le monde en fin 2020 ; et ce malgré l’arrivée de nouveaux concurrents tels que Apple TV+, HBO Max et surtout Disney+ qui a, de son côté, réussi la prouesse de dépasser les 85 millions d’abonnés en un an.

En ce qui concerne le streaming musical, le géant suédois Spotify, a passé le cap des 300 millions d’utilisateurs actifs (dont 45% d.abonnés payants) en fin septembre 2020, dépassant également toutes les prévisions et les statistiques relatives au temps de consommation passé sur sa plateforme par rapport à la période pré-pandémie. En attirant autant d’abonnés à l’échelle mondiale et au Canada, ces plateformes démontrent leur popularité croissante et la place importante qu’elles occupent désormais dans les activités quotidiennes des internautes.

Les géants du streaming acquièrent ainsi de nombreuses données sur les goûts, préférences et habitudes de consommation de vidéos ou de musiques de leurs millions d’abonnés. Il s’agit notamment de données liées à la navigation sur la plateforme, aux horaires et au temps de lecture ou de visionnement par type de contenus, aux évaluations et commentaires sur le contenu, etc. Une fois agrégées et analysées pour la stratégiques aux niveaux marketing et commercial, ces données permettent d’une part d’aider à la prise de décisions stratégiques aux niveaux marketing et commercial et d’autre part de parfaire les algorithmes afin de faire des recommandations plus précises et plus personnalisées aux utilisateurs. Très souvent, ceux-ci ne donnent leur permission que de manière implicite (plutôt qu’explicite) pour les différents types d’exploitation et d’usage de leurs données, surtout à des fins de publicité ou de partage avec des entreprises tierces. Malgré leur facilité d’utilisation et leur adoption généralisée, les plateformes de streaming font donc encore preuve d’opacité dans leur fonctionnement et dans les conditions de collecte, de traitement et d’exploitation des données de leurs utilisateurs.

C’est cet ensemble de constats et de réflexions qui nous a permis de formuler plusieurs questions de recherche et de mener différentes investigations afin de mieux comprendre comment le fonctionnement des systèmes de recommandation algorithmiques des plateformes de streaming peut avoir des impacts sur la protection des données et de la vie privée des utilisateurs canadiens et comment ces derniers perçoivent les enjeux ou appréhendent les risques liés à la collecte, au traitement et à l’exploitation de leurs données par ces plateformes.

Méthodologie

Cette recherche sous-tend plusieurs questions, regroupées dans les trois principales catégories suivantes :

  1. Sur les perceptions des utilisateurs, leur sensibilité et leur degré de confiance : Quel est le niveau de conscience et de confiance des utilisateurs/abonnés canadiens des plateformes de streaming par rapport à l’utilisation qui est faite de leurs données personnelles et de leurs données d’usage ? Ont-ils des préoccupations, des appréhensions ou des craintes relatives aux processus automatisés de collecte, de traitement et d’exploitation de leurs données sur ces plateformes ? Comment apprécient-ils le fonctionnement des services de recommandation algorithmique ?
  2. Sur le fonctionnement des plateformes, leurs politiques de confidentialité et leurs systèmes de recommandation : Quels types de données sont collectés sur ces différentes plateformes et via quels processus ou modes opératoires ? Quelles sont les clauses des Conditions générales d’utilisation (CGU) de ces plateformes qui limitent leurs responsabilités en matière de transparence des algorithmes et de protection des données personnelles des utilisateurs ? Existe-il des procédés de partage des données entre ces plateformes et des plateformes tierces qui mettent en danger la protection de la vie privée des utilisateurs/abonnés canadiens ? Quels sont les limites, les conséquences, les biais et les dérives des pratiques de profilage algorithmique et des systèmes intelligents en ce qui concerne la personnalisation de l’expérience utilisateur ?
  3. Sur les défis et enjeux liés à l’accès et la découvrabilité d’une diversité de contenus culturels en ligne : Outre le phénomène des bulles de filtre, comment les logiques et mécanismes de recommandation personnalisée affectent la découverte, la visibilité et la consommation d’une diversité de contenus culturels sur les plateformes de streaming ?
  4. Sur les capacités d’intervention et d’encadrement : Comment les lois en matière de protection des données personnelles prennent-ils en compte les défis et risques posés par les activités des plateformes de streaming ? Quels types de mesures pourraient contribuer à renforcer ou améliorer la protection de la vie privée en ligne des utilisateurs canadiens des plateformes de streaming ?

L’approche méthodologique adoptée dans la réalisation de cette recherche s’appuie sur l’utilisation combinée de plusieurs outils et méthodes de collecte de données :

  1. Une recherche documentaire : Elle a permis de réaliser une revue critique de littérature en mobilisant des données actualisées extraites de travaux académiques, d’études ou de rapports officiels afin d’analyser et de mieux comprendre les mécanismes de recommandation algorithmique d’oeuvres culturelles (audiovisuelles/cinématographiques et musicales) en lien avec les pratiques de profilage et leurs effets ou répercussions sur la protection de l’identité (anonymisation/pseudonymisation), le respect de la vie privée et la traçabilité des activités en ligne des utilisateurs. Par ailleurs, la veille informationnelle et juridique sur les activités et les obligations des plateformes a permis de réaliser un audit comparatif des politiques de confidentialité, notamment des Conditions générales d’utilisation (CGU), proposées par les différentes plateformes étudiées, en tenant compte de leur conformité par rapport aux exigences de la loi, relativement aux aspects de l’éthique, de la responsabilité/imputabilité, de la transparence et de la reddition de comptes (en lien avec les processus de collecte et de traitements automatisés ainsi que la conservation et l’utilisation des données personnelles des utilisateurs).
  2. Une consultation citoyenne : Organisée sous forme d’atelier focus-group, cette consultation s’est déroulée le 23 octobre 2020. L’atelier, intitulé « Mes données, Mon identité numérique » s’est tenu dans le cadre de l’événement « Nous, l’Internet »6 et a mobilisé 30 participants qui ont identifié ensemble les principales préoccupations relatives à leurs interactions sur les plateformes numériques, en répondant aux questions suivantes : Quelles traces laissons-nous dans le cyberespace et quel type de données les plateformes collectent sur nous ? Comment nos données réflètent nos identités numériques ? Comment nos identités numériques et notre vie privée sont affectées par l’utilisation et l’exploitation de nos données personnelles collectées par les plateformes de streaming ? Quelles recommandations faire pour mieux contrôler ces données ?
  3. Une enquête pancanadienne : Cette enquête a été réalisée, en collaboration avec la firme de sondage CROP7, auprès de 3 0008 Canadiens âgés de 18 ans et plus qui utilisaient les plateformes de streaming vidéo et audio. Les plateformes ciblées dans l’étude sont : YouTube, Netflix, Amazon Prime Video, Disney+, Apple TV+, ICI Tou.Tv, Club Illico, Crave, CBS All Access, CBC Gem, ainsi que des plateformes sportives et spécialisées telles que DAZN, fubo TV, TSN Direct, Hayu, Britbox, etc. Quant aux plateformes audio, il s’agit de : Spotify, YouTube Music, Apple Music /iTunes, Google Play, Soundcloud, Pandora, Deezer et Tidal. La collecte des données en ligne s’est déroulée du 30 novembre au 11 décembre 2020 par le biais d’un panel Web représentatif de la population du Canada. Les résultats ont été pondérés afin de refléter la distribution de la population à l’étude selon le sexe, l’âge, le niveau de scolarité, l’occupation, la région. Les données sont croisées avec des variables sociodémographiques et de profil de clientèle afin d’observer les différences significatives.

Enquête pan-canadienne sur l'impact des algorithmes utilisés par les systèmes de streaming sur la vie privée des citoyens

Chargeur En cours de chargement…
Logo EAD Cela prend trop de temps ?

Recharger Recharger le document
| Ouvert Ouvrir dans un nouvel onglet

Analyse comparative RGPD vs législation canadienne.

Le RGPD encadre la collecte et le traitement des données à caractère personnel permettant la création de profils pour mieux comprendre la personnalité, les habitudes et les préférences de consommation ou, plus généralement, le comportement des consommateurs. Le profilage est ainsi défini à l’article 4 du RGPD comme se référant à

« toute forme de traitement automatisé de données à caractère personnel consistant à utiliser ces données à caractère personnel pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail, la situation économique, la santé, les préférences personnelles, les intérêts, la fiabilité, le comportement, la localisation ou les déplacements de cette personne physique ».

 

Il s’agit ainsi de construire un profil individualisé sur la base des données collectées sur une personne, que ce soit par décision entièrement automatisée ou uniquement en partie, lorsqu’accompagnée également d’intervention humaine. L’évaluation de certains aspects personnels étant un élément de la définition même du profilage, celui-ci ne se matérialise que si un certain jugement est appliqué sur une personne, c’est-à-dire, on utilise les données collectées pour tirer des conclusions sur cette personne, que ce soit pour prendre une décision sur elle ou pas.

Des précisions et clarifications utiles sur le sujet peuvent être trouvées dans les orientations en matière de profilage et décision automatisée du « Groupe de protection des personnes à l’égard du traitement des données à caractère personnel » institué par l’article 29 de la Directive 95/46/CE du Parlement européen et du Conseil du 24 octobre 1995 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données. Ce groupe consultatif et indépendant a adopté des orientations sur ce sujet en octobre 2017 dans le cadre de la mise en œuvre du RGPD et celles-ci ont été ensuite révisées et adoptées le 6 février 2018. Le Groupe explique le profilage comme suit :

« le profilage est une procédure qui peut impliquer une série de déductions statistiques. Il est souvent utilisé pour faire des prédictions sur des personnes, en utilisant des données provenant de diverses sources pour déduire quelque chose sur un individu, sur la base des qualités d’autres personnes qui semblent statistiquement similaires. » (Article 29 Data Protection Working Party 2018, p. 7, original en anglais)

 

Le profilage par mécanisme automatisé concerne manifestement l’activité des plateformes de streaming et le traitement des données de leurs utilisateurs pour déterminer les recommandations personnalisées mises en avant pour chacun d’entre eux. Par l’application exclusive de leurs algorithmes de recommandation (sans intervention humaine), les plateformes de contenu audiovisuel numérique personnalisent la page d’accueil de chaque utilisateur, comme le font d’ailleurs également les différents moteurs de recherche en ligne. Le contenu personnalisé implique que l’accès à chaque plateforme (tel que l’accès à l’Internet plus généralement, lorsque l’on vise les moteurs de recherche), n’est pas le même pour tous. Si ceci peut répondre à un besoin de filtrage d’un volume d’informations et de contenus de plus en plus important et qui peut être parfois bouleversant pour l’utilisateur, l’absence d’intervention humaine dans les choix de personnalisation rend ce processus opaque et peu compréhensif, sans compter les effets de ces décisions sur les consommateurs. Ces effets peuvent aller de l’enfermement d’un utilisateur dans ses préférences précédemment exprimées (cas typique des plateformes de streaming), jusqu’à la perpétuation de stéréotypes, la polarisation de vues, la ségrégation sociale, voire le refus d’un crédit dans le cas d’une banque ou l’exclusion d’un processus de recrutement lorsque le profilage est utilisé dans le cadre des ressources humaines.

En définissant des obligations pour les entreprises recourant au profilage et des droits spécifiques pour les personnes dont les données personnelles sont utilisées à des fins de profilage, le RGPD vise à limiter les risques découlant d’une analyse erronée de ces données, d’un refus injustifié à certains services, ou même de décisions prises sur la base de profils individualisés pouvant enfermer les personnes dans leurs choix précédents. Le Règlement considère que ces risques sont accrus lorsque les décisions sont entièrement automatisées, c’est-à-dire, lorsqu’elles sont prises par l’application d’algorithmes aux données personnelles collectées sans intervention humaine dans le processus. Le Règlement européen prévoit ainsi un ensemble de règles applicables au profilage et aux décisions automatisées, lesquelles sont ensuite complétées par des dispositions spécifiques lorsque les décisions sont exclusivement automatisées. L’objectif est de s’assurer que ni les décisions prises à la suite d’un traitement automatisé ou d’un profilage, ni la collecte de données pour la création de profils et l’application de ces profils aux personnes, n’impactent de manière injustifiée les droits des utilisateurs.

Les principes de l’article 5 du RGPD sont applicables aux plateformes de streaming comme à tout autre responsable du traitement de données personnelles. Il s’agit tout d’abord du principe de transparence du traitement des données, lequel acquiert une importance particulière dans le cas du profilage, processus complexe, souvent invisible et peu compris par les utilisateurs. Comme d’autres responsables du traitement des données, les plateformes de streaming doivent fournir à leurs utilisateurs une information concise, transparente, intelligible et facile d’accès sur les données collectées, comment ces données sont traitées, quels mécanismes automatisés sont appliqués, selon quelle logique sous-jacente et avec quelles conséquences, y compris le profilage et les décisions prises en fonction du profil créé (ex. la proposition de recommandations de contenus personnalisés).

Au titre d’autres principes imposés par le RGPD, on retrouve celui de la licéité et de la loyauté du traitement des données (par exemple, le traitement des données, y compris à des fins de profilage, ne doit pas créer de discrimination), ou celui de la limitation des finalités (par exemple, le profilage ne doit pas utiliser des données collectées initialement à d’autres fins non prévues par l’utilisateur). Le traitement des données n’est licite que s’il est consenti pour des finalités spécifiques. Par exemple, dans sa politique sur la vie privée, Netflix indique que les sélections de titres ou films/séries visionnés sont utilisées pour proposer un contenu personnalisé, mais ne sont pas partagées avec ses partenaires, y compris pour la publicité (Netflix 2021). Un autre principe applicable est celui de la minimisation des données (les données traitées doivent être adéquates, pertinentes et limitées à ce qui est nécessaire pour atteindre les finalités consenties). L’utilisateur doit être informé clairement des raisons justifiant la collecte de ses données et celles-ci doivent être autant que possible traitées de manière regroupée/agrégée, anonymisée, voire (si une protection suffisante est assurée) pseudonymisée, lorsqu’un profilage a lieu.

Les données collectées pour le profilage doivent également être exactes, sous peine de conduire à des prédictions ou conclusions erronées sur le comportement ou les préférences de l’utilisateur. Le traitement même à des fins de profilage semble particulièrement sujet à des erreurs, puisqu’il s’agit de déductions, de données tirées de contexte et combinées pour produire des prédictions. Attention doit donc être portée non seulement sur l’exactitude des données utilisées, mais également sur tout biais caché qui pourrait s’appliquer lors de leur analyse et qui peut naturellement découler de la perception fondamentalement humaine des « data scientists » à l’origine des algorithmes appliqués. Ceci accroît l’importance de l’information qui est donnée à l’utilisateur, afin qu’il puisse améliorer la qualité des données collectées, y compris et surtout lorsque celles-ci sont collectées indirectement. De même, les données utilisées sont soumises au principe de limitation de la conservation, ne pouvant être conservées que pendant la durée nécessaire au regard des finalités, et cela bien que le processus d’apprentissage automatique (« machine learning ») puisse être davantage enrichi par un volume continuellement grandissant de données.

Le devoir d’information doit s’appliquer lorsque l’utilisateur s’abonne ou crée un compte pour l’utilisation d’une plateforme de streaming audiovisuel proposant des recommandations personnalisées, mais également lors de mises à jour des politiques de protection des données personnelles, et à tout autre moment sur demande de l’utilisateur. A titre d’exemple, Google indique que « [s]i les modifications [à la politique de confidentialité] sont significatives, nous publions un avertissement mis en évidence (y compris, pour certains services, par le biais d’une notification par e-mail) » (Google 2021c). De même, pour Netflix, une notification est prévue en cas de changement de la politique de confidentialité, mais en principe l’utilisation des services après une telle notification configure, selon la politique de Netflix, acceptation des nouvelles conditions (Netflix 2021). Quant aux modifications des règles sur la protection des données personnelles, Disney+ indique que les utilisateurs seront avisés desdites modifications « si elles sont de nature importante » (concept assez subjectif) et leur consentement sera demandé « si la loi en vigueur l’exige » (Disney+ 2021a).

Les plateformes doivent également être en mesure de rendre compte à leurs utilisateurs de la manière dont chacun de ces principes est respecté. En effet, le traitement des données par traitement automatisé pour profilage dépend du consentement éclairé de l’utilisateur et le responsable du traitement des données doit pouvoir démontrer que l’utilisateur comprend exactement ce à quoi il consent. On pourrait soutenir qu’une grande transparence des critères utilisés par les algorithmes appliqués à l’information collectée par les plateformes de streaming découle ainsi de ce principe, sans que cela exige nécessairement une explication complexe des algorithmes utilisés ou la divulgation complète des algorithmes utilisés (ce que d’ailleurs la très grande majorité des personnes ne serait vraisemblablement pas en mesure de comprendre). Bien que les algorithmes soient de plus en plus complexes, ce que les « data scientists » derrière ces algorithmes prennent en compte pour les programmer (y compris les catégories et segments servant à définir les profils) doit être traduit de manière simple et intelligible aux utilisateurs.

Un tel degré de transparence et d’information semble toutefois peu respecté par l’échantillon de plateformes de streaming dont les politiques sur la vie privée ont été analysées dans le cadre de la présente étude/section (Netflix, YouTube, Disney+ et Spotify). Ces politiques sont d’ailleurs loin d’être concises et s’avèrent en général difficiles à comprendre pour un utilisateur sans aucune formation juridique. Parmi les quatre plateformes dont les politiques ont été examinées dans la présente étude, Google (YouTube) se démarque par ses efforts d’explication simplifiée, avec l’utilisation de vidéos ludiques et une présentation de texte plus facile à lire, bien que le texte demeure long, éparpillé sur une multitude de sites différents et parfois complexes à naviguer, et fournisse peu d’informations sur la logique sous-jacente aux algorithmes de personnalisation.

A titre d’illustration, à partir des Règles de confidentialité de Google (Google 2021c), on peut faire un « Check-up Confidentialité » qui permet, entre autres, de gérer son « Historique YouTube ». Il y est indiqué que

« Votre historique YouTube inclut les vidéos que vous regardez et les contenus que vous recherchez. Les données d’activité que vous conservez nous permettent d’améliorer votre expérience en vous rappelant ce que vous avez déjà regardé, par exemple, ou en vous proposant des recommandations plus pertinentes ou des créateurs susceptibles de vous plaire. »

 

L’utilisateur peut également modifier la gestion de son historique YouTube, en le suspendant ou en le supprimant. Les Règles de confidentialité de Google contiennent également des courtes vidéos qui expliquent simplement quelles informations sont collectées et les raisons pour lesquelles elles sont collectées, ainsi que les technologies de collecte et de stockage d’informations (ex. cookies, tags de pixel, stockage sur les navigateurs Web, caches de données d’application, bases de données, fichiers journaux de serveur). Ces explications ne concernent toutefois pas de manière systématisée les critères utilisés par les algorithmes de recommandation, une mention plus claire étant faite uniquement quant aux données de localisation de l’utilisateur.

Netflix offre également un « Privacy Statement » (Netflix 2021) qui indique les informations collectées automatiquement, parmi lesquelles l’activité sur le service (sélection de titres, recherches, films visionnés), les interactions de l’utilisateur avec les courriels et autres messages reçus de la part de Netflix, ainsi que ses données de localisation. Dans la section relative à l’utilisation de l’information collectée, Netflix explique que ces données sont utilisées, entre autres, pour fournir des recommandations personnalisées de films ou séries considérées comme étant dans l’intérêt de l’utilisateur. L’utilisateur ne peut pas y renoncer s’il souhaite recevoir les services de la plateforme. Des cookies nommés « non essentiels », comme les « performance and functionality cookies », servant à rappeler les préférences et habitudes de visionnage, ne peuvent pas être sélectionnés de manière permanente pour suppression sur la plateforme (différemment des cookies liés à de la publicité personnalisée, lesquels peuvent par ailleurs être également contrôlés par les choix sur les cookies des navigateurs Internet utilisés). La manière dont les conclusions sont tirées sur la base de ces cookies sur ce qui peut être dans l’intérêt d’un utilisateur n’est toutefois pas expliquée.

Un autre exemple intéressant figure dans les règles sur le respect de la vie privée de Disney+ (Disney+ 2021a). La suppression des « cookies Flash », indiqués comme étant responsables de la mémorisation des préférences des utilisateurs, est déconseillée : « [s]i vous désactivez les cookies Flash, vous n’aurez pas accès à de nombreuses fonctionnalités qui rendent votre expérience utilisateur plus efficace, et certains de nos services ne fonctionneront pas correctement. » Quant à la logique sous-jacente à l’application des algorithmes de recommandation et bien qu’on indique que le « contenu pertinent » proposé par Disney+ est « basée sur [les] préférences, [les] modes d’utilisation et [la] localisation de l’utilisateur » (Disney+ 2021), il n’est pas fourni plus de détail sur la façon dont ces critères sont combinés, sur la base de quelles catégories ou quels profils créés.

Quant à Spotify, sa politique de confidentialité (Spotify 2020) indique, dès son introduction, que les données à caractère personnel des utilisateurs sont collectées afin qu’ils puissent profiter pleinement des services proposés : « nous avons besoin de comprendre vos habitudes d’écoute afin de pouvoir vous offrir un service exceptionnel et personnalisé, spécialement conçu pour vous ». Un tableau peut-être moins facile à comprendre, mais offrant plus de détails sur les données collectées que les autres plateformes examinées, explicite les « données d’utilisation », lesquelles comprennent non seulement les informations sur les recherches, les titres écoutés, les playlists et l’historique de navigation, mais également les conclusions tirées des intérêts et préférences de l’utilisateur en fonction de son utilisation de Spotify, ainsi que l’« emplacement non-précis » de l’utilisateur permettant à Spotify de respecter les contrats de licence selon leur zone géographique et de fournir un contenu et de la publicité personnalisés. La finalité de l’utilisation de ces données est ensuite indiquée explicitement comme étant celle de fournir et personnaliser les services Spotify.

Le manque d’explications sur les critères utilisés par les algorithmes et sur les catégories dans lesquelles sont placés les utilisateurs à des fins de profilage acquiert une importance d’autant plus marquante que ces explications paraissent fondamentales pour répondre aux préoccupations en matière de diversité culturelle et de découvrabilité de nouveaux contenus proposés par les recommandations de ces plateformes.

Une question qui peut se poser est celle du fondement juridique du traitement des données collectées et traitées par les plateformes de streaming de contenu audiovisuel. L’utilisation d’un autre fondement que le consentement explicite de l’utilisateur pourrait-il éventuellement justifier que celui-ci reçoive moins d’informations sur le traitement de ses données, voire avec moins de régularité? Peut-on envisager un autre fondement juridique au vu du modèle de business de ces plateformes? En effet, un autre fondement acceptable selon le RGPD pour le traitement des données (outre l’exigence de consentement) est celui du traitement « nécessaire à l’exécution d’un contrat ». Le concept de « nécessaire » devant en principe être interprété de manière étroite (Article 29 Data Protection Working Party 2018, p. 13), l’on pourrait supposer que ce n’est pas parce que le fonctionnement de ces plateformes est prévu sur la base des recommandations personnalisées que l’exécution du service de streaming dépend nécessairement de telles recommandations.

En pratique, toutefois, la non-acceptation des Conditions d’utilisation et des politiques de confidentialité des données établies par ces plateformes implique souvent la non-utilisation de leurs services, comme le dit explicitement Google pour YouTube (« Si vous n’acceptez pas les conditions modifiées, vous devez supprimer tout Contenu mis en ligne sur le Service et cesser l’utilisation de ce dernier » – YouTube 2019). De même, Netflix indique expressément l’exécution de leur contrat de services avec chaque utilisateur parmi les fondements juridiques de la collecte et de l’utilisation des données personnelles. Il est par ailleurs indiqué que si l’utilisateur ne souhaite pas accepter les futures mises à jour de la politique de confidentialité, il peut simplement annuler l’utilisation des services de Netflix (Netflix 2021). De ce point de vue, les recommandations personnalisées sont considérées comme essentielles à la prestation des services de la plateforme. La liste des préférences et choix pouvant être exercés sur Disney+ ne concerne également pas la personnalisation des recommandations de contenus, étant davantage centrée sur la personnalisation de la publicité. Quant à Spotify, bien que des choix puissent être exprimés par les utilisateurs, la section 2 de la politique de confidentialité de Spotify (Spotify 2020) indique déjà que « [s]i vous n’êtes pas d’accord avec le contenu de la présente Politique, libre à vous d’utiliser le Service Spotify ou non ». Le traitement des données relatives aux préférences et à l’historique des recherches des utilisateurs, y compris leur profilage, est indiqué comme ayant pour finalité la fourniture des services par Spotify et fondé non seulement sur le consentement, mais également sur l’exécution du contrat de services avec Spotify et ses intérêts légitimes. L’utilisateur peut au mieux contacter le Délégué à la Protection des Données de Spotify pour obtenir de plus amples informations sur la mise en balance effectuée par cette plateforme entre ses intérêts légitimes et les droits des utilisateurs.

Enfin, l’attention mérite d’être accordée aux données personnelles appartenant à des « catégories particulières de données » telles que visées à l’article 9 du RGPD, c’est-à-dire des données qui « révèle[nt] l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale, ainsi que le traitement des données génétiques, des données biométriques aux fins d’identifier une personne physique de manière unique, des données concernant la santé ou des données concernant la vie sexuelle ou l’orientation sexuelle d’une personne physique ». Le profilage peut permettre de créer ce type de données à partir de la combinaison de données qui ne font pas partie de ces catégories. A titre d’exemple, le Groupe consultatif européen cite une « étude [ayant] combiné des « Like » sur Facebook avec des informations limitées provenant d’une enquête et [qui] a constaté que les chercheurs ont prédit avec précision l’orientation sexuelle d’un utilisateur masculin 88% du temps, l’origine ethnique d’un utilisateur 95% du temps, et si un utilisateur était chrétien ou musulman 82% du temps » (Kosinski, Stilwell et Graepel, apud Article 29 Data Protection Working Party 2018, p. 15, original en anglais). Lorsque des préférences ou caractéristiques appartenant à ces catégories particulièrement sensibles peuvent être déduites d’un profilage, le responsable du traitement de données doit non seulement être en mesure de démontrer que le traitement des données n’est pas incompatible avec ses finalités initiales, mais également le fondement de licéité du traitement (ex. consentement de l’utilisateur) et doit avoir informé l’utilisateur sur le traitement. Un exemple intéressant à ce sujet figure dans les Règles de confidentialité de Google (Google 2021c), lesquelles semblent exclure ces catégories de données uniquement des annonces publicitaires personnalisées (et non des recommandations personnalisées de contenu).

En contrepartie de ces obligations imposées aux plateformes en tant que responsables du traitement de données personnelles, le RGPD reconnaît des droits aux utilisateurs. Outre leur droit d’être informés sur les finalités, la(les) source(s) des données et la manière dont les données sont traitées, les utilisateurs ont un droit d’opposition, à tout moment, au traitement de leurs données, y compris à des fins de profilage. L’utilisateur doit être informé de ce droit d’opposition de manière explicite et claire, séparément d’autres informations, et doit pouvoir l’exercer facilement. Comme vu précédemment, sur les plateformes de streaming examinées, l’exercice d’un tel droit impliquerait simplement de renoncer à l’utilisation de leurs services.

Conformément au RGPD, l’utilisateur devrait également avoir accès aux données qui sont traitées afin non seulement de pouvoir corriger toute information erronée, voire effacer le profil ou certaines données ayant servi à le créer, mais également pour connaître dans quelles catégories ou segments d’utilisateurs ils ont été placés par le profilage. L’utilisateur peut souhaiter compléter ou corriger ses informations, ainsi que contester les catégories et segments qui lui ont été appliqués dans le cadre du profilage. Le considérant 63 du RGPD tente d’équilibrer ces droits avec l’intérêt du responsable du traitement en indiquant que « [c]e droit [d’accès aux données collectées] ne devrait pas porter atteinte aux droits ou libertés d’autrui, y compris au secret des affaires ou à la propriété intellectuelle, notamment au droit d’auteur protégeant le logiciel ». Toutefois « ces considérations ne devraient pas aboutir à refuser toute communication d’informations à la personne concernée » (un certain degré d’accès doit donc être toujours à la disposition de l’utilisateur) et c’est au responsable du traitement, qui doit mettre en balance ses intérêts et ceux de l’utilisateur, de démontrer « des motifs légitimes et impérieux » qui pourraient contrebalancer les droits de l’utilisateur (article 21.1 RGPD). Ceci conforte la thèse selon laquelle le consommateur des plateformes de streaming devrait pouvoir mieux comprendre comment la personnalisation des recommandations proposées est développée, sur la base de quelles données et dans quelles catégories il a été placé par chaque plateforme. Nous avons vu que cela n’est pas le cas en pratique.

Le cas des plateformes de streaming de contenus audiovisuels peut attirer d’autant plus l’attention, que le RGPD encadre de manière encore plus stricte les décisions entièrement automatisées lorsqu’elles produisent des effets juridiques concernant une personne (ex. annulation d’un contrat, refus d’un bénéfice social, refus de citoyenneté, etc.) ou lorsque ces décisions l’affectent « de manière significative de façon similaire » à un effet juridique. Cette dernière hypothèse se manifeste lorsqu’une décision automatisée « a pour conséquence d’influencer l’environnement de la personne, son comportement, ses choix ou d’aboutir à une forme de discrimination. » (CNIL 2018). La frontière entre ce qui peut causer cet « effet similaire à un effet juridique » et ce qui ne peut pas semble variable ou du moins discutable au cas par cas (Article 29 Data Protection Working Party 2018, pp. 21-22). Peut-on affirmer que les recommandations des plateformes de streaming ont un effet significatif similaire à un effet juridique ? Cela peut être contesté. La distinction est fondamentale, car dans ces deux hypothèses de l’article 22.1 (soit la production d’effets juridiques sur la personne, soit l’impact sur la personne de manière significative de façon similaire), il est « en principe interdit de prendre une décision au sujet d’une personne, si elle est entièrement informatisée » (CNIL 2018). Cette interdiction est d’ailleurs rappelée expressément par Spotify qui, dans sa politique de confidentialité (Spotify 2020), liste les droits des utilisateurs découlant du RGPD, en indiquant explicitement le

« droit de vous opposer à la prise de décision automatisée : le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques vous concernant ou vous affectant de manière significative de façon similaire. »

 

Cependant, lorsque l’utilisateur clique sur la rubrique « Centre de confidentialité » pour savoir comment exercer ce « droit », il est dirigé vers la même page contenant la politique de confidentialité et qui propose, en conclusion, l’adresse électronique de contact du Délégué à la Protection des Données de Spotify.

Quoi qu’il en soit, l’article 22.2 du RGDP prévoit quelques exceptions à cette interdiction des décisions entièrement automatisées, y compris lorsqu’elles sont accompagnées d’un profilage : (i) si la décision « est nécessaire à la conclusion ou à l’exécution d’un contrat »; (ii) si elle « est autorisée par le droit de l’Union ou le droit de l’État membre auquel le responsable du traitement est soumis et qui prévoit également des mesures appropriées pour la sauvegarde des droits et libertés et des intérêts légitimes de la personne concernée »; ou (iii) lorsqu’elle « est fondée sur le consentement explicite de la personne concernée ». Même dans le cas où l’on considérerait une situation (en principe exceptionnelle) où le profilage réalisé par les plateformes numériques de contenu audiovisuel pourrait avoir un effet juridique sur un utilisateur ou l’affecter de manière significative et similaire, ce profilage pourrait encore rentrer dans les exceptions de l’article 22.2 (i) et (iii), fondées sur l’exécution d’un contrat et le consentement explicite du consommateur des contenus de ces plateformes.

Dans les cas (i) et (iii), le RGPD exige toutefois que des mesures appropriées protègent les droits, libertés et intérêts de la personne concernée, y compris son droit d’obtenir une intervention humaine, « d’exprimer son point de vue et de contester la décision » prise à son égard (article 22.3). Une demande d’intervention humaine ne saurait être symbolique – la décision doit pouvoir être contrôlée de manière significative, par quelqu’un ayant le pouvoir de changer la décision et sur la base de l’analyse de toutes les données pertinentes. L’exercice de ces droits ne semble pas explicité ou proposé par les plateformes de streaming. Il est également à noter que, lorsque le traitement peut engendrer un risque élevé pour les droits et libertés des individus, le responsable du traitement doit procéder à une analyse d’impact permettant de démontrer le fondement sur l’une des exceptions de l’article 22.2, dans quelle mesure et à quel stade une éventuelle intervention humaine peut avoir lieu, ainsi que les mesures de sauvegarde appropriées adoptées (contrôles réguliers de l’exactitude des données, audit des algorithmes pour l’identification de biais, etc.). Ces dispositions renforcent la conclusion selon laquelle l’information à fournir au consommateur et les mesures permettant de protéger ses droits tels qu’examinés précédemment devraient être mises en place avec une attention particulière pour que le profilage puisse avoir lieu tout en respectant la vie privée des utilisateurs.

Les recommandations faisant partie du modèle de business des plateformes de streaming de contenus audiovisuels, il est pertinent de se demander dans quelle mesure ces recommandations algorithmiques sur la base du profilage contribuent ou pourraient contribuer à la découvrabilité de contenus audiovisuels culturellement divers par leurs utilisateurs.

Lorsqu’il est indiqué dans les politiques sur le respect de la vie privée de ces plateformes que les recommandations résultent des consommations et habitudes de consommation précédentes, ainsi que de la popularité des contenus dans une localisation donnée (ou sur la base d’informations collectées dans le réseau social d’un utilisateur), il est difficile d’entrevoir un quelconque effet de diversité. En appliquant une certaine catégorisation aux données traitées à des fins de profilage, la tendance serait au contraire à l’enfermement des utilisateurs dans des bulles définies par leurs choix précédents ou ceux de leur entourage. Par ailleurs, d’un point de vue économique, les plateformes n’auraient en théorie pas de motivation stratégique à élargir les options de contenu lorsqu’elles sont capables de prévoir les préférences des utilisateurs et de réduire ainsi l’incertitude sur les succès des contenus audiovisuels diffusés (Napoli 2020), sauf si elles venaient à considérer qu’une augmentation de la diversité serait appréciée par ses utilisateurs et pourrait en attirer d’autres (ce qui n’est pas impossible à promouvoir progressivement par des mesures de sensibilisation du public à la diversité culturelle).

La politique applicable à YouTube Music fournit un exemple explicite de ce risque de réduction de la diversité proposée à l’utilisateur sur la base de l’agrégation de ses données de localisation et son historique d’accès :

« YouTube Music utilise également les données de localisation agrégées pour vous proposer des fonctionnalités comme les titres les plus populaires par pays et dans le monde entier. Si vous avez précédemment accepté de recevoir des recommandations personnalisées en fonction de votre localisation, YouTube Music peut aussi utiliser des données de localisation plus précises. » (Check-up confidentialité – Gérer les paramètres de confidentialité – Principes fondamentaux de protection de la vie privée dans les applications YouTube, Google 2021c).

 

Le lien entre la localisation d’un utilisateur et la recommandation des contenus les plus populaires peut être clairement contestable dans une perspective de plus grande ouverture à des contenus nouveaux et culturellement divers. Sur YouTube, pour ne pas être enfermé dans les recommandations associées à du contenu visionné ou recherché précédemment, il est nécessaire de suspendre ou de supprimer son historique – ou de s’y rendre en mode navigation privée sur Google chrome, qui propose immédiatement l’acceptation de cookies pour que la personnalisation puisse avoir lieu par la suite. A des fins de promotion de la diversité, il aurait pu être intéressant de pouvoir conserver son historique de recherche, tout en choisissant de ne pas avoir de recommandation sur certains critères. Il faudrait à cette fin que du moins les principaux critères utilisés par les algorithmes et les catégories dans lesquelles sont placés les utilisateurs leur soient accessibles et qu’ils puissent, comme le prescrit le RGPD, contester leur inclusion dans une catégorie, voire indiquer certaines catégories qui pourraient à leur sens mieux les représenter.

Les algorithmes appliqués aux données collectées peuvent techniquement être programmés dans un objectif de promotion de la diversité de l’offre de contenus, en les employant précisément en faveur de la diversité et de la découvrabilité dans le cadre de ce qui pourrait être nommé la « gouvernance des algorithmes », en complément de la « gouvernance par algorithmes » exercé par les intermédiaires du numérique, dont les plateformes de streaming. Par exemple, des algorithmes de recommandation de contenus divers pourraient être conçus indépendamment des préférences déjà exprimées si un utilisateur avait la possibilité de décider de ne pas faire l’objet d’un profilage ou s’il pouvait exprimer de manière explicite ses intérêts. L’on sait d’ailleurs que certains titres de musique presque oubliés ont pu atteindre un grand succès grâce à l’intervention d’algorithmes sur Spotify (Carpentier 2021). Reste la question de savoir ce qui configure la diversité culturelle en ligne et comment s’assurer de la bonne compréhension de ce concept le plus largement possible, les algorithmes étant programmés en fin de compte, on le rappelle, par des personnes. La notion de diversité culturelle qu’a l’équipe de « data scientists » responsable de la création de tels algorithmes devient ainsi fondamentale dans toute tentative d’amélioration (du point de vue de la diversité et de la découvrabilité) des algorithmes appliqués aux recommandations des différentes plateformes numériques.

La possibilité de concevoir des algorithmes qui puissent être favorables à la diversité est d’ailleurs à l’origine des obligations imposées aux plateformes ciblant les citoyens européens par la Directive Service des médias audiovisuels (SMA) telle que revue en 2018, notamment en matière de mise en valeur ou de « proéminence » d’œuvres européennes. Cette directive exige que les plateformes de streaming attirent l’attention du consommateur aux œuvres européennes présentes dans leurs catalogues (article 13 de la Directive SMA), en fournissant une liste non exhaustive d’exemples de moyens dans le préambule de la directive modificative du 14 novembre 2018. Outre l’application d’algorithmes de recommandations spécifiques permettant de mettre en lumière les œuvres européennes tout en combinant la valorisation de ces contenus avec les goûts et préférences identifiés pour les utilisateurs sur la base de leur consommation précédente, on pourrait également en théorie concevoir des recommandations de nature plus aléatoire, sans nécessairement les attacher complètement aux préférences exprimées précédemment. La possibilité pour l’utilisateur de renoncer à un profilage réalisé par une plateforme de streaming conserve donc sa pertinence dans un tel contexte.

En somme, la plus grande visibilité de contenus européens ou de contenus plus divers, provenant de différentes origines, pourrait sans doute être promue de manière partiellement aléatoire et/ou après des consultations explicites des utilisateurs. Elle pourrait, par ailleurs, être combinée avec d’autres initiatives pour la promotion de la diversité par les plateformes de streaming. Une idée pourrait être de promouvoir certains titres de leurs catalogues par l’organisation de festivals audiovisuels en ligne affichés sur la page d’accueil de l’interface utilisateur de manière plus visible sur des périodes spécifiques (par exemple, 1 semaine ou 10 jours) et permettant aux utilisateurs de découvrir des contenus et artistes nouveaux, que ce soit en lien avec une origine spécifique ou d’autres thématiques. Par exemple, l’expérience de MyFrenchFilmFestival, festival en ligne très réussi, pourrait inspirer des initiatives similaires sur les plateformes de streaming. Disney+ propose également en France une rubrique « Made in France », contenant pour le moment peu de titres, mais qui pourrait certainement être étoffée et répliquée, même si de manière intermittente, pour d’autres origines comprises dans le catalogue.

Regards d'experts européens

L’accordéon ci-dessous contient une synthèse des réponses reçues dans le cadre d’entrevues écrites réalisées avec un certain nombre d’experts en plateformes numériques et/ou en vie privée en Europe.

Cliquez sur un titre pour en afficher le contenu.

  • Bien que les recommandations personnalisées des plateformes de streaming offrent aux consommateurs un gain de temps, la possibilité de choisir parmi une offre plus large et la possibilité de retrouver facilement des contenus que le consommateur apprécie, les plateformes proposent un contenu trop similaire à ce que les consommateurs ont déjà visionné ou écouté. Les recommandations finissent par enfermer le consommateur dans un style particulier, réduisant son ouverture à de nouveaux contenus et à d’autres cultures (création de « bulles de préférence »).

 

  • Les plateformes visant le profit, ce qui est présenté comme reflétant les préférences des consommateurs est essentiellement un système technique conçu pour orienter l’utilisation de manière fortement biaisée et souvent pour promouvoir du contenu produit par la plateforme.

 

  • L’utilisation des données personnelles des consommateurs a un impact non seulement sur leur droit à la vie privée, mais également sur leur liberté d’expression, car elle limite en pratique le droit à recevoir de l’information.

 

  • Beaucoup reste à faire pour améliorer la transparence des algorithmes utilisés, la responsabilisation des plateformes et pour garantir un plus grand contrôle des utilisateurs sur leurs données (y compris pour les modifier et les supprimer).
  •  
  • Le manque d’informations et de visibilité sur : la nature des données traitées, avec quelles conséquences, qui contrôle ces données, à qui elles sont transférées, leur lieu de stockage, les mesures de sécurité mises en place et la manière dont les personnes concernées peuvent exercer leurs droits.

 

  • Une asymétrie et un déséquilibre de pouvoir entre les plateformes et les individus résultant de ce manque de transparence et de la concentration des données collectées par les plateformes.

 

  • Le non-respect des exigences relatives au profilage, ainsi que des principes de nécessité ou de minimisation des données.

 

  • Le transfert de données vers des pays qui ne garantissent pas un niveau de protection adéquat des données à caractère personnel.

 

  • Une méconnaissance des mesures techniques visant à assurer la protection des données à caractère personnel.
  •  
  • L’adoption du RGPD a en général contribué à une plus grande sensibilisation à la protection des données personnelles en Europe, mais cela semble limité à certaines catégories plus instruites de la population.

 

  • Les connaissances des utilisateurs sur comment et dans quelle mesure leurs données peuvent être impactées par les plateformes de streaming restent très limitées. La majorité des consommateurs ne semble pas comprendre les risques liés au traitement de leurs données personnelles ou comment fonctionnent les plateformes.

 

  • Le fonctionnement même du traitement entièrement automatisé n’est pas compris et souvent les consommateurs ne se rendent pas compte des risques ou des difficultés pour l’exercice de leurs droits tels que reconnus par le RGPD, en partie en raison même de la difficulté de compréhension technique des algorithmes.

 

  • Il existe un certain degré de « privacy fatigue » résultant d’un bombardement de notifications sur les cookies avant toute consultation de contenus en ligne, alors que peu comprennent ce que font les cookies.

 

  • Les utilisateurs peuvent comprendre que leurs choix précédents ont un impact sur les recommandations personnalisées qu’ils reçoivent (et peuvent accepter de fournir leurs données en espérant avoir des recommandations de plus en plus adaptées à leur goût), mais ils ne comprennent pas quelles sont les autres utilisations faites de leurs données.

 

  • Les politiques sur la protection des données personnelles des utilisateurs des plateformes de streaming sont souvent longues, complexes, faisant référence à des normes et notions du droit américain. En pratique, elles sont acceptées sans être lues par la majorité des utilisateurs. Pour ceux qui les lisent et les comprennent, il est toutefois impossible de vérifier si ces politiques correspondent effectivement à la réalité du traitement des données opéré par les plateformes.

 

  • L’amélioration des politiques sur la protection des données personnelles pourrait passer par l’indication d’exemples concrets permettant aux consommateurs de comprendre les risques encourus dans l’utilisation de leurs données, la simplification de ces politiques, et l’utilisation de dessins ou pictogrammes pour expliquer le respect du RGPD et des règles du droit de la consommation.
  •  
  • Des audits réguliers pour vérifier l’utilisation des données personnelles par rapport au consentement recueilli (un expert ayant attiré toutefois l’attention sur le coût élevé de ce moyen, ce qui pourrait réduire son utilité).

 

  • aL plus grande transparence des plateformes quant à l’utilisation des données personnelles à des fins de recommandation.

 

  • Une plus grande prise de conscience générale et une réflexion critique sur les conséquences sociales des systèmes techniques employés par les plateformes, notamment par des campagnes d’information, de sensibilisation, d’alphabétisation médiatique et de renforcement des capacités, y compris dans les écoles et sur les lieux de travail, conduites entre autres par les autorités de régulation et utilisant des exemples concrets sur les risques encourus par les utilisateurs des plateformes.

 

  • Une plus grande intervention des autorités de contrôle, y compris par l’imposition d’amendes et de pénalités pour les violations des droits à la vie privée (intervention qui en pratique semble dépendre du moins en partie du point précédent, vu qu’une plus grande sensibilisation à ces sujets conduirait à plus de demandes dans le cadre de l’exercice de leurs droits par les utilisateurs).

 

  • La revue régulière par des experts des politiques de protection des données personnelles des plateformes.
  •  
  • La transparence des algorithmes est nécessaire tant du point de vue de la « transparence des processus » (ex. quelles sont les caractéristiques du consommateur qui sont prises en compte et de quelle manière sont-elles traitées ?), que de la « transparence des résultats » (ce que les algorithmes ont traité et filtré, et avec quelles conséquences) et de la « transparence des acteurs » (quels sont les responsables de la personnalisation des contenus ?).

 

  • Les consommateurs devraient pouvoir :
    • décider de se soumettre ou non à un profilage ;
    • consulter les critères et paramètres ayant conduit à la détermination de leur profil, ainsi que la pondération de tels paramètres ;
    • donner leur avis sur ce profilage et contester/modifier les catégorisations qui leur ont été attribuées, par des outils interactifs et faciles à comprendre.
  • Très peu d’experts ont considéré que les recommandations des plateformes de streaming permettent déjà de découvrir de nouveaux artistes ou titres, tandis que toutes les réponses reçues ont été unanimes sur l’enfermement des utilisateurs sur leurs choix précédents.

 

  • La directive SMA contient des dispositions utiles pour la diversité culturelle, avec le quota de 30% d’œuvres européennes dans le catalogue des fournisseurs de services et l’obligation de mettre ces œuvres en valeur, ainsi que la possibilité pour les Etats membres d’exiger des contributions à la production audiovisuelle nationale de la part de tous les opérateurs des médias, y compris les plateformes en ligne.

 

  • Toutefois, la transposition de la directive SMA et son application pratique par les Etats membres reste à être évaluée dans le temps, notamment pour vérifier sa contribution réelle à une diversité culturelle significative.

 

  • En termes pratiques, les interfaces d’accueil des différentes plateformes devraient clairement présenter des œuvres européennes, voire des œuvres représentatives d’une plus grande diversité de cultures.