Alors que le buzz autour du métaverse augmente, beaucoup s'inquiètent des risques potentiels dans un environnement où les frontières entre les mondes physique et virtuel continuent de s'estomper.
Le métaverse est un monde de réalité virtuelle caractérisé par une expérience tridimensionnelle et multisensorielle (par rapport à l'internet bidimensionnel actuel - textes et images sur écrans plats). Selon certains experts, la chose la plus proche du métaverse aujourd'hui peut être vue dans des jeux comme Fortnite et des expériences sur Roblox.
As-tu lu?
Construire des écosystèmes de confiance
Répondre à la nécessité de construire des écosystèmes fiables au sein des technologies développées pour le métaverse est une considération essentielle. Ces écosystèmes de confiance constitueront l'intégration d'algorithmes, de structures, de cadres, de réglementations et de politiques dans les cycles de développement matériel et logiciel pour traiter les éléments distincts de la sécurité, de la confidentialité et de la sécurité dans l'ADN de la technologie.
La manière dont les données sont partagées dans les mondes virtuels devra être examinée plus attentivement pour garantir la confidentialité. Une deuxième dimension à prendre en compte dans les considérations de confidentialité du développement du métaverse est l'élimination des biais qui conduiront à une adaptation non inclusive ou malveillante du monde réel. S'engager dans le métaverse constituera une utilisation des technologies émergentes intégratives. Cela nécessite un processus global de validation de la sécurité en boîte ouverte approfondie de la protection fournie dans les environnements contre la violation de la confidentialité, de l'intégrité ou d'autres aspects de la sécurité.
Ces écosystèmes de confiance contribueront à créer une existence stable, inclusive et utile d'une existence virtuelle et immersive.
Comment ces risques pourraient-ils se déployer dans le métaverse ?
Pour comprendre comment les risques pour la sécurité pourraient devenir plus répandus dans le métaverse, une construction clé de cet avenir numérique devrait être partagée : devenir le moyen de transformation de l'engagement humain. S'ils doivent devenir pratiques, ces environnements dépendront de l'adoption généralisée de la réalité étendue.
Même s'il ne s'agit pas d'une existence totalement immersive, il est probable que de nombreuses personnes passent plus de temps à mélanger les interactions hors ligne et virtuelles, évoluant vers une réalité mixte (MR). Les atteintes à la vie privée et à la sécurité sont des voies qui peuvent compromettre la sécurité des interactions et des utilisateurs. Par exemple, cela pourrait prendre la forme d'une personne se faisant passer pour un médecin afin d'avoir accès à la technologie de bloc opératoire pour les chirurgies effectuées numériquement.
Une bonne idée des risques potentiels peut être trouvée dans certaines applications existantes qui créent des «mondes virtuels», comme sur de nombreuses plates-formes de jeux. Il est clair que d'importants défis de sécurité se sont déjà présentés dans ces environnements. Par exemple, des recréations de la fusillade de la mosquée de Christchurch en 2019 visant de très jeunes enfants ont été trouvées à plusieurs reprises sur la plate-forme Roblox malgré les efforts importants de la société pour endiguer la marée de ce contenu.
Le contenu extrémiste violent et terroriste n'est pas le seul mal dans ces mondes virtuels. Récemment, sur le casque Oculus Quest VR de Facebook, un employé a subi une tirade raciste qui a duré plusieurs minutes alors qu'il jouait à Rec Room et n'a pas été en mesure d'identifier ou de signaler l'utilisateur. Le tâtonnement a également été un problème qui a émergé dans le métaverse, pour diverses raisons.
Où en est-on des risques numériques aujourd'hui ?
En prenant du recul et en regardant le contexte numérique actuel, les risques de préjudice augmentent déjà. Selon le dernier rapport d'évaluation des menaces mondiales de l'Alliance mondiale WEProtect, 1 répondant sur 3 (34 %) à son enquête mondiale Economist Impact a été invité à faire quelque chose de sexuellement explicite en ligne avec lequel il n'était pas à l'aise pendant son enfance. De plus, The Internet Watch Foundation a constaté une augmentation de 77 % du matériel sexuel « auto-généré » par les enfants entre 2019 et 2020.
Même avant COVID-19, plus de la moitié des filles et des jeunes femmes avaient été victimes d'abus en ligne, selon un sondage mondial réalisé l'année dernière par la Web Foundation, une organisation cofondée par l'inventeur du Web, Tim Berners-Lee. Le partage d'images, de vidéos ou d'informations privées sans consentement - connu sous le nom de doxxing - était le problème le plus préoccupant pour les filles et les jeunes femmes dans le monde, selon le sondage de la Web Foundation. Un Noir américain sur quatre et un Hispanique américain sur 10 ont été victimes de discrimination en ligne en raison de leur race ou de leur origine ethnique, contre seulement 3 % des Américains blancs. Les risques sont déjà élevés, en particulier pour les groupes vulnérables.
"Contribuer au métaverse de manière responsable nécessitera de la recherche, de la collaboration et des investissements dans la sécurité en ce qui concerne XR", explique Antigone Davis, responsable mondiale de la sécurité chez Meta . " Par exemple, nous investissons dans des contrôles qui permettent aux utilisateurs de gérer et de signaler les contenus et les comportements problématiques ainsi que dans des outils de sécurité conçus pour des expériences immersives. Mais nous ne pouvons pas le faire seuls. Afin d'aborder la sécurité de manière globale à mesure que le métaverse émerge , nous devons nous associer à d'autres au sein du gouvernement, de l'industrie, du milieu universitaire et de la société civile."
Cela est particulièrement important étant donné que les risques numériques dans le métaverse se sentiront plus réels en fonction de la façon dont notre cerveau interprète l'expérience immersive ; Mary Anne Franks, présidente de la Cyber Civil Rights Initiative , a noté dans son article sur la réalité virtuelle et augmentée que la recherche indique que les abus en réalité virtuelle sont "beaucoup plus traumatisants que dans d'autres mondes numériques".
Comment les risques pourraient-ils être exacerbés dans le métaverse ?
Il existe de nombreuses façons d'exacerber les risques actuels dans le métaverse. Premièrement, selon la manière dont ces espaces numériques sont gouvernés, il existe des risques de contacts indésirables dans un environnement multimodal plus intrusif. Aujourd'hui, si quelqu'un que nous ne connaissons pas ou avec qui nous ne voulons pas nous engager, nous contacte par messagerie, ami ou essaie de nous contacter sur des plateformes telles qu'Instagram, Facebook, etc., sa capacité à nous contacter est principalement limitée à étendre les messages textuels, les photos, les emojis, etc.
Cependant, imaginez qu'un individu indésirable puisse entrer dans l'espace virtuel de quelqu'un et "se rapprocher" de cette personne dans le métaverse. Sans mécanismes robustes pour signaler, prévenir et agir en temps réel, cela pourrait conduire à des comportements indésirables. Avec la technologie haptique, les risques qui nuisent dans le métaverse se sentiront plus "réels" ne sont pas exagérés étant donné que de nombreuses entreprises s'efforcent d'incorporer le toucher comme sensation supplémentaire dans une réalité immersive.
Par exemple, les gants haptiques développés par de nombreuses organisations visent à fournir une rétroaction tactile pour fournir une sensation plus précise et réaliste à tout mouvement. Bien sûr, cela peut créer un meilleur sens de la réalité et augmenter la connectivité dans un environnement virtuel, mais cela peut aussi potentiellement être abusé par de mauvais acteurs d'une manière qui peut ne pas encore être entièrement comprise.
Le contenu préjudiciable qui prolifère trop rapidement dans nos vies numériques actuelles peut également se traduire dans le métaverse par un contenu indésirable plus graphique, 3D et auditif qui semble plus intrusif et a un impact plus important en raison de la nature multisensorielle de l'environnement dans lequel il se propage.
L'essor des monnaies virtuelles peut souvent être un autre défi dans la prolifération de contenus et d'activités préjudiciables en ligne. Par exemple, il est prétendu que les enfants utilisent leurs avatars pour proposer des lap dances dans des clubs de strip-tease virtuels en échange de la monnaie virtuelle, "Robux". Les crypto-monnaies sont une option populaire pour ceux qui achètent du matériel d'abus sexuel d'enfants (CSAM), car leur contrôle décentralisé et leur indépendance vis-à-vis des institutions financières garantissent également l'anonymat, selon un rapport d'ActiveFence.
Compte tenu du rôle que les monnaies numériques sont censées jouer dans le métaverse, les incitations financières et les structures de paiement qui conduisent à la prolifération de contenus préjudiciables sont susceptibles d'augmenter en taille et en complexité avec le passage à ce Web 3.0.
Il existe un risque supplémentaire lié au suivi et à la conservation des données biométriques, fournissant aux plateformes "une nouvelle qualité d'informations composée de votre identité réelle combinée à des stimuli - indiquant ce que vous pensez, aimez et voulez de manière unique", selon la technologie. et l'expert des droits de l'homme Brittan Heller ; dans son article Reimagining Reality: Human Rights and Immersive Technology, elle invente le terme «psychographie biométrique» et discute des implications potentielles de la nouvelle collecte de données avec des technologies immersives pour les droits de l'homme, la vie privée et l'autocensure.
Alors, que peut-on faire?
De nombreuses entreprises, experts universitaires et de la société civile, régulateurs, plaident pour des lois et de nouvelles réglementations afin que les choses qui ne sont pas autorisées dans le monde réel soient également criminalisées dans les espaces en ligne. Par exemple, Bumble fait pression pour criminaliser le cyberflashing. Leur PDG, Whitney Wolfe Herd , a demandé aux législateurs : "Si l'attentat à la pudeur est un crime dans la rue, alors pourquoi n'est-ce pas sur votre téléphone ou votre ordinateur ?"
L'avocate des droits de l'homme Akhila Kolisetty a déclaré que l'Inde, le Canada, l'Angleterre, le Pakistan et l'Allemagne faisaient partie d'un petit nombre de pays qui ont interdit les abus sexuels basés sur l'image, où des photos privées sont partagées sans consentement. De nombreux pays n'ont pas de lois pour les formes émergentes d'abus numérique comme les « deepfakes », où le visage d'une femme peut être superposé à une vidéo porno et partagé sur des plateformes de messagerie.
Le commissaire australien à la sécurité électronique fournit un soutien à ceux qui subissent de tels abus, mais de nombreux autres pays sont à la traîne dans ces mécanismes et fonctions de réglementation. Il en va de même pour la protection des enfants en ligne. "Notre société dit que nous allons protéger les enfants dans le monde physique, mais nous n'avons pas encore vu cela de la même manière du côté numérique", a déclaré Steven J. Grocki , qui dirige la section sur l'exploitation et l'obscénité des enfants au Département de la justice. La mise à jour des lois à appliquer dans un contexte numérique sera un élément clé de la gouvernance du métaverse.
Hoda Alkhzaimi , professeure adjointe de recherche, génie informatique ; Le directeur du Centre de cybersécurité de NYU Abu Dhabi a ajouté qu'il y a une évolution constante dans les moyens de construire des mécanismes d'attaque sur une plate-forme virtuelle. Ce n'est jamais un cycle de développement fixe. Nous devons être attentifs à la manière dont nous construisons les éléments logiciels et matériels de la technologie pour inclure des éléments indigènes de considération de sécurité afin de protéger l'intégrité du contenu développé, les interactions créées par les utilisateurs dans l'environnement et, de manière holistique, la stabilité du monde virtuel présenté. Il n'y a pas un seul facteur à considérer ici car les aspects de confidentialité, d'intégrité, d'authenticité, d'accessibilité, de confidentialité et de sécurité doivent tous être développés. Les attaques contre les appareils virtuels ont été construites dans le passé via des plates-formes open source telles que la plate-forme OpenVR de Valve.
Comment s'assurer que ce ne sera pas un fait récurrent au sein d'une infrastructure virtuelle critique ?
Les organisations de la société civile telles que Access Now et EFF appellent les gouvernements et les autres parties prenantes à aborder les droits de l'homme dans le contexte de la réalité virtuelle et augmentée.
L'autre domaine majeur qui peut être amélioré concerne les politiques, l'application et les mécanismes généraux de modération adoptés par les plates-formes.
« Les plates-formes VR et AR ont besoin de conditions de service spécifiques pour les environnements immersifs, en fonction de la manière dont cette technologie interagit avec notre cerveau. Nous ne pouvons pas simplement appliquer les règles des médias sociaux existants au métaverse », déclare Heller , expert en technologie et en droits de l'homme. "C'est important", souligne Heller, "car la gouvernance des plateformes dans les mondes numériques doit réguler le comportement, en plus du contenu".
À l'heure actuelle, l'une des formes de gouvernance les plus courantes dans les mondes virtuels est une forme de modération réactive et punitive. Cela n'empêche pas les dommages de se produire en premier lieu et souvent les conséquences peuvent être contournées à mesure que les mauvais acteurs deviennent plus sophistiqués dans la façon dont ils suivent la ligne des politiques. Trouver des moyens d'encourager de meilleurs comportements et peut-être de récompenser les interactions positives peut devoir devenir une partie plus importante d'un avenir numérique plus sûr, en particulier compte tenu des risques de sécurité accrus dans le métaverse.