Recommandations
Les résultats de cette étude démontrent un niveau de prise de conscience et de sensibilisation très moyen de la population canadienne (surtout chez les jeunes de 18 à 24 ans) quant aux risques et menaces liés à la collecte et l’exploitation de leurs données par les plateformes de streaming.
Bien qu’ils ne lisent pas généralement les conditions d’utilisation et les politiques de confidentialité, la majorité des utilisateurs canadiens des plateformes de streaming demeure fortement préoccupée par le manque de transparence lié au fonctionnement des plateformes par rapport à l’utilisation de leurs données personnelles et aux critères de recommandation automatisée de contenus.
On note une perplexité par rapport à la question du consentement libre et éclairé pour l’exploitation de leur historique d’utilisation et de leurs traces de navigation (données comportementales et d’usages) à des fins de suggestion de de contenus. Ceci s’accompagne d’un souhait manifeste de la plupart des utilisateurs canadiens à pouvoir exercer un droit d’accès et de contrôle sur les données qu’ils partagent avec les plateformes audiovisuelles et musicales en ligne.
L’étude Alter Algo a identifié des pistes de recommandations regroupées sous les trois axes présentés ci-dessous. Cliquez sur le titre de l’axe de recommandation pour en afficher le contenu.
- Mentionner dans les avis de confidentialité dans un langage accessible à tout public la prise de décision automatisée pour s’assurer que les usagers comprennent qu’ils peuvent être l’objet de recommandations et/ou de décision automatisée
- Effectuer des audits proactifs pour vérifier la conformité des entreprises exploitant les données personnelles
- Encourager des mesures préventives de vérification de la conformité qui pourront être mises en place par les entreprises
- Exiger la prise en compte des principes du Privacy by design dans la création des algorithmes de recommandations et de l’IA pour renforcer la protection des renseignements personnels des individus
- Encourager la production d’une Intelligence Artificielle explicable qui palliera la difficulté pour les développeurs de suivre la logique empruntée par une IA. Cette forme d’IA contribuera notamment à garantir des prises de décisions ou des recommandations plus inclusives
- Exiger l’évaluation de l’incidence algorithmique à des moments clés, soit avant la création de toute technologie impliquée dans le processus de prise de décision automatisée ou son utilisation si la plateforme n’en est pas propriétaire
- Une obligation de transparence plus complète envers les utilisateurs avant la collecte des données. Le projet de loi c-11 exige que les entreprises fournissent une explication seulement si le processus risque d’avoir une incidence importante sur les individus concernés. L’appréciation de l’expression incidence importante est laissée à l’appréciation des individus avec pour risque une renforcement de la perception de l’opacité du traitement des données par les utilisateurs
- Le devoir d’explication mieux orienté quant au contenu et au moment où il doit être donné. Dans l’état actuel, le droit canadien exige que l’explication quant au rôle joué par les algorithmes dans la prise de décision automatisée soit fournie à la demande de la personne intéressée or, cette présomption de consentement expresse nuit à la capacité de choix de l’usager. Ainsi, l’individu devrait être informé avant la collecte, par l’introduction d’informations simples et descriptives dans les avis de confidentialité sur la technologie utilisée. La décision devrait être par la suite justifiée à la demande de l’usager
- La possibilité de rectification des données qui ont servi à la construction du profil de l’usager devrait être reconnu aux usagers