Les législateurs du monde entier adoptent la réglementation dès la conception

Une nouvelle forme de régulation émerge qui permettra de suivre le rythme des évolutions de l'intelligence artificielle

Il existe une nouvelle tendance mondiale dans l'approche législative de l'évolution des technologies, dirigée par des parties du règlement général sur la protection des données (RGPD), selon laquelle des cadres flexibles sont définis pour la conception de produits conformes plutôt que des règles rigides conçues pour être appliquées après coup. Nous le voyons dans certaines parties du RGPD, dans de grandes parties de la loi sur les services numériques dans la réglementation de la sécurité en ligne, et nous le voyons maintenant dans la réglementation de l'intelligence artificielle.

De plus, cette tendance a un effet culturel positif, en particulier dans l'industrie technologique où les leaders du marché cherchent à devancer la réglementation plutôt qu'à la traîner, en concevant leurs produits et services pour se conformer à une législation qui n'est qu'à l'état de projet.

Traditionnellement, les fournisseurs de technologie verraient leurs produits examinés ex post et après que le risque se soit matérialisé. Si et quand ils ont été reconnus responsables, ils auraient dû prendre des mesures pour corriger leurs processus et compenser tout préjudice. Ce modèle réactif, qui a toujours eu du mal à suivre les évolutions technologiques, devient obsolète. Au lieu de cela, les régulateurs et les législateurs poussent les entreprises à développer des équipes de conformité et de réglementation autour de "conseils sur les produits" et à anticiper les dommages et les risques posés par un produit donné dès le stade de la création.

Ce type de réglementation n'est bien sûr pas dépourvu de règles. Cependant, ces règles sont flexibles et imposent des normes telles que des "mesures techniques et organisationnelles appropriées" qui peuvent être adaptées en fonction de l'entreprise ou du produit/service en question. La confidentialité dès la conception et la confidentialité par défaut sont des concepts clés et constituent désormais le socle de la réglementation numérique. Les ingénieurs et les développeurs devront répondre aux contraintes légales et réglementaires dès la conception de leurs produits numériques.

Nulle part ce défi n'est plus pressant que lorsqu'il s'agit de l'utilisation de l'IA. Les produits utilisant n'importe quel type d'interface numérique ou de technologie de l'information sont de plus en plus susceptibles d'utiliser l'IA, ce qui signifie que les ensembles de données pour le logiciel d'IA sont un élément inextricable de leur conception et de leur utilisation. Cependant, les avantages de l'IA entraînent également des problèmes de biais et d'autres effets néfastes. En pratique, cela signifie que les fabricants et les distributeurs qui utilisent des systèmes informatiques, en particulier des algorithmes basés sur l'IA ou l'apprentissage automatique, doivent prendre en compte la réglementation dès les premières étapes du développement de produits utilisant des données numériques.

Legislators worldwide move to adopt regulation by design

Forcer pour le bien ?

L'Union européenne a été pionnière dans la réglementation de l'IA et plus largement dans la politique des données. Son approche ambitieuse et centrée sur l'humain est résumée dans le projet de texte législatif visant à harmoniser les règles de l'IA : "L'IA devrait être un outil pour les personnes et être une force pour le bien dans la société dans le but ultime d'accroître le bien-être humain". Ceci est similaire à l'approche de l'UE en matière de réglementation des données et de la vie privée dans le RGPD, la loi sur les services numériques et la loi sur les marchés numériques.

Le projet de texte indique clairement que "l'IA digne de confiance" est la pierre angulaire des plans de la Commission européenne visant à encourager l'innovation technologique en Europe. Et, pour que l'IA soit digne de confiance, elle doit apporter une valeur positive à la société et respecter les droits humains fondamentaux. Mais comment parvenir à une IA digne de confiance ? Le projet stipule que l'utilisation de l'IA doit être correctement conçue du "laboratoire au marché" et montre la même ténacité qui a été formalisée dans la réglementation GDPR. La violation de l'utilisation à haut risque de l'IA entraîne des sanctions potentielles de 30 millions d'euros ou 6 % du chiffre d'affaires mondial, avec des sanctions maximales inférieures pour les infractions à faible risque. L'ampleur ambitieuse de ces sanctions - qui s'appliquent également aux entreprises basées en dehors de l'UE qui fournissent des produits d'IA au sein de l'UE - encourage davantage la confidentialité et la conformité par conception ou par défaut.

Activité réglementaire internationale

Alors que le projet de loi était le premier du genre lors de sa publication en mai 2021, d'autres États et institutions ont déjà emboîté le pas - et le modèle européen a des implications mondiales pour les entreprises et le bien-être des consommateurs. Aux États-Unis, le Département du commerce et la Federal Trade Commission ont créé des comités et rédigé des textes visant à éliminer les biais de l'IA, à améliorer la surveillance des algorithmes et à offrir de la transparence aux consommateurs.

Pendant ce temps, le Royaume-Uni a publié son plan stratégique décennal pour l'intelligence artificielle en septembre 2021, soulignant le rôle important que l'IA jouerait dans l'innovation du marché et la nécessité de l'associer à une réglementation accrue pour protéger les consommateurs des risques associés à l'IA. .

En Chine, le Comité national de gouvernance pour l'intelligence artificielle de nouvelle génération, sous la tutelle du ministère de la Technologie, a publié en septembre 2021 les « Normes éthiques pour l'intelligence artificielle de nouvelle génération ». Le gouvernement chinois vise à intégrer l'éthique dans le cycle de vie de l'IA et a introduit six exigences principales comme fondement des normes éthiques de l'IA. Il s'agit notamment d'améliorer le bien-être des êtres humains, de protéger la vie privée et la sécurité, de renforcer l'équité et la justice, d'assurer la contrôlabilité et la fiabilité, et de renforcer la responsabilité.

Cela représente l'approche active de la Chine pour faire face aux transformations sociales à long terme et aux défis que l'IA apportera. En tant que nouvelle étape en réponse à l'inquiétude croissante de la société face aux défis accrus en matière de confidentialité posés par l'adoption de l'IA, la nouvelle loi sur la protection des informations personnelles - l'équivalent chinois du RGPD - introduit également des exigences spécifiques sur la prise de décision automatisée basée sur l'IA et appelle à la que les résultats soient transparents, justes et impartiaux.

Approche à deux volets

Les régulateurs européens s'efforcent de protéger les droits de l'homme et la confiance des consommateurs tout en encourageant simultanément l'investissement, l'innovation et la croissance du marché. Cette approche à deux volets offrira des opportunités aux développeurs et aux investisseurs qui ne reculent pas devant le défi du respect de la vie privée dès la conception. En modifiant la manière dont la technologie de l'IA est intégrée aux biens et services, les régulateurs espèrent créer un paysage social, politique et économique susceptible d'améliorer le potentiel de transformation de l'IA.

Articles populaires