Les États-Unis peuvent améliorer sa stratégie de gouvernance de l'IA en s'adressant aux biais en ligne Les États-Unis peuvent améliorer sa stratégie de gouvernance de l'IA en s'adressant aux biais en ligne

Les États-Unis travaillent à la codification de l'initiative nationale sur l'intelligence artificielle (IA) qui se concentre sur six piliers stratégiques : améliorer l'innovation en matière d'IA, faire progresser une IA fiable, créer de nouvelles opportunités d'éducation et de formation grâce à l'IA, en améliorant l'infrastructure existante grâce aux nouvelles technologies, en facilitant l'utilisation de l'IA par le secteur fédéral et le secteur privé pour améliorer les systèmes existants et en promouvant un environnement international qui soutient de nouvelles avancées en matière d'IA. En avril 2022, le département américain du commerce et le National Institute on Standards (NIST) ont annoncé les membres du premier comité consultatif national sur l'intelligence artificielle (NAIAC), qui sera chargé de conseiller l'administration Biden sur la manière de procéder avec la gouvernance nationale de l'IA. efforts. Lors de sa première réunion le 4 mai 2022, le NAIAC a discuté de l'utilisation de l'IA concernant la compétitivité des États-Unis, des questions liées à la main-d'œuvre et de la question de savoir s'il existe une surveillance nationale adéquate des systèmes d'IA. Pris ensemble, les objectifs de l'initiative nationale d'IA et la création du NAIAC garantiront des approches stratégiques et opportunes pour la conception et le déploiement de systèmes autonomes, ainsi que l'établissement de normes nationales.

Nicol Turner Lee

Associé principal - Études sur la gouvernance

Directeur - Centre d'innovation technologique

Twitter@nturnerlee

Samantha Lai

Assistante de recherche, Center for Technology Innovation - The Brookings Institution

Twitter_SamanthaLai_

Il est tout aussi important que la technologie doive être améliorée pour les cas d'utilisation domestique dans le cadre de cet effort national, en particulier dans les domaines susceptibles de créer un traitement différentiel ou un impact disparate pour les populations protégées par le gouvernement fédéral et les autres populations vulnérables. Si les États-Unis excluent ces considérations des discussions sur la gouvernance nationale, les inégalités historiques et systémiques se perpétueront, limitant l'intégration des besoins et des expériences vécues de certains groupes dans les innovations émergentes en IA. Des décisions médiocres ou inadéquates concernant les services financiers et la solvabilité, l'embauche, la justice pénale, les soins de santé, l'éducation et d'autres scénarios qui prédisent les mobilités sociales et économiques étouffent l'inclusion et sapent les valeurs démocratiques telles que l'équité et la justice. Ces préjudices potentiels et d'autres doivent être associés à des solutions pragmatiques, en commençant par une définition complète et universelle de la partialité ou du préjudice spécifique à traiter. De plus, le processus doit inclure des solutions pour des cadres lisibles et applicables qui apportent l'équité dans la conception, l'exécution et l'audit des modèles informatiques pour contrecarrer la discrimination historique et actuelle et d'autres résultats prédateurs.

Bien que la NAIAC soit la prochaine étape appropriée pour recueillir les contributions de diverses parties prenantes des secteurs privé et public, ainsi que des universités et des parties prenantes de la société civile, les représentants de groupes plus inclusifs et concernés sont également essentiels pour développer et mettre en œuvre une stratégie plus approche de gouvernance résiliente. En 2021, le Brookings Institution Center for Technology Innovation (CTI) a réuni un groupe de parties prenantes avant la formation de la NAIAC pour mieux comprendre et discuter de l'évolution des positions des États-Unis sur l'IA. Les dirigeants représentaient des organisations nationales et locales défendant diverses populations historiquement défavorisées et d'autres populations vulnérables.

L'objectif du dialogue de Brookings était d'approfondir les efforts fédéraux existants pour identifier les domaines d'échange plus délibéré pour la protection des droits civils et égaux. En fin de compte, les experts de la table ronde ont demandé qu'une attention accrue soit accordée aux conséquences prévues et imprévues de l'IA sur les populations les plus vulnérables. Les experts ont également constaté à une écrasante majorité que toute structure de gouvernance nationale doit inclure des analyses de cas d'utilisation sensibles qui sont exacerbés lorsque les systèmes d'IA exploitent des données de mauvaise qualité, se précipitent pour innover sans tenir compte des protections existantes des droits civils et ne tiennent pas compte des implications sociétales plus larges des inégalités qui encourager les systèmes d'IA à discriminer ou à surveiller certaines populations avec plus de précision.

À certains égards, la table ronde a convenu de la nécessité d'une « Déclaration des droits pour un monde propulsé par l'IA », un cadre introduit en 2021 par le Bureau de la politique scientifique et technologique (OSTP) de la Maison Blanche. Ici, l'OSTP appelle à la clarification des "droits et libertés que nous attendons des technologies basées sur les données" et à établir des garanties générales pour prévenir les abus aux États-Unis. Mais sans discussion directe sur la façon dont la partialité est définie dans le domaine public, et ce que les cas d'utilisation spécifiques doivent être priorisés, les États-Unis diminueront dans la protection et l'inclusion des groupes historiquement défavorisés à mesure que les systèmes d'IA évoluent.

Dans ce blog, nous offrons un bref aperçu des points clés de la table ronde et clarifions davantage les définitions de biais qui ont été partagées au cours de la table ronde. Nous proposons également des scénarios dans lesquels les États-Unis peuvent apporter des changements, notamment dans les domaines de l'application de la loi, de l'embauche, des services financiers, etc. Nous concluons avec les priorités qui pourraient être entreprises par le comité consultatif nouvellement créé, et le gouvernement fédéral dans son ensemble, pour faire des progrès sur des systèmes d'IA inclusifs, responsables et dignes de confiance pour les groupes plus vulnérables et leurs communautés.

Définir le biais de l'IA

Pour commencer, les États-Unis ont besoin d'une compréhension commune de l'IA et des problèmes connexes qu'elle peut générer, ce qui est important dans un espace où les significations peuvent être ambiguës et, dans certains cas, fragmentées. L'Initiative nationale sur l'intelligence artificielle a défini l'IA digne de confiance comme reflétant de manière appropriée "des caractéristiques telles que la précision, l'explicabilité, l'interprétabilité, la confidentialité, la fiabilité, la robustesse, la sécurité[,] . . . la sécurité ou la résilience aux attaques », tout en « s'assurant que les préjugés sont atténués ». Dans un rapport plus récent, le NIST a défini le biais comme "un effet qui prive un résultat statistique de sa représentativité en le déformant de manière systémique". À ces définitions s'ajoutent des définitions générales adoptées par le secteur privé qui assimilent l'atténuation des biais aux modèles d'équité. Un précédent rapport Brooking aborde la définition d'un point de vue plus comparatif, encadrant le biais comme "des résultats qui sont systématiquement moins favorables aux individus au sein d'un groupe particulier et où il n'y a pas de différence pertinente entre les groupes qui justifie de tels préjudices". De plus, les auteurs suggèrent que les biais algorithmiques dans les modèles d'apprentissage automatique peuvent conduire à des décisions qui peuvent avoir un impact collectif et disparate sur certains groupes de personnes, même sans l'intention du programmeur de discriminer.

À première vue, les définitions américaines ont tendance à être larges et quelque peu généralisées par rapport à celles de l'UE, qui a positionné l'IA en fonction de degrés de risque pratiques. Plus particulièrement, la loi sur l'intelligence artificielle de l'UE classe l'utilisation de l'IA en trois niveaux différents. Ceux qui présentent un risque inacceptable seraient interdits (en prenant, par exemple, l'utilisation de la reconnaissance faciale pour l'application de la loi), tandis que les systèmes à haut risque seraient autorisés mais soumis à un examen avant de pouvoir accéder au marché de l'UE (en prenant, par exemple, l'IA utilisé pour l'embauche et le calcul des cotes de crédit). Pendant ce temps, l'IA limitée et à risque minimal, comme les chatbots IA et l'utilisation de l'IA dans la gestion des stocks, sera soumise à de légères obligations de transparence. Les droits civils et humains sont pris en compte dans les définitions proposées par l'Organisation de coopération et de développement économiques (OCDE) et d'autres organismes internationaux. L'OCDE définit l'IA innovante et digne de confiance comme celle qui inclut : le respect des droits de l'homme et des valeurs démocratiques ; fixer des normes pour une croissance inclusive; valeurs centrées sur l'humain et équité; transparence et explicabilité; robustesse, sécurité et sûreté ; et responsabilité. Par rapport aux États-Unis, les entités internationales ont adopté une approche plus proactive, et peut-être prescriptive, pour définir les préjugés afin de garantir un consensus commun sur les préjudices traités.

Bien que les participants à la table ronde n'aient pas atteint un consensus total sur la définition la plus communément acceptée du biais de l'IA, ils ont offert des points de vue sur les résultats qui devraient être étudiés plus avant, en particulier ceux qui semblent entrer en conflit avec l'intérêt public et l'équité. En règle générale, la diversité et l'inclusion sont traitées après coup dans le développement et l'exécution de l'IA, et signalées lorsque les systèmes tournent mal, ce qui entraîne des solutions rapides qui ne tiennent pas compte de l'étendue de ces technologies nuisibles. Les experts de la table ronde ont également partagé que la plupart des biais se produisent en raison de la mauvaise qualité des données, ce qui sera discuté plus tard dans le blog. Les experts ont également souligné le manque de confidentialité à cette ère technologique, qui continue de rendre les groupes marginalisés plus vulnérables à une collecte de données sans faille à leur insu. En résumé, les participants à la table ronde ont constaté que les biais de l'IA reflètent des problèmes systémiques plus larges de discrimination sociétale, de mauvaise qualité des données et de manque de protection de la confidentialité des données. Il a également été mentionné que le manque de diversité de la main-d'œuvre dans l'informatique et les sciences des données entrave des approches plus inclusives.

Ces facteurs partagés lors de la table ronde expliquent en grande partie pourquoi les États-Unis ont besoin de conseils plus ciblés sur la manière d'atteindre une IA inclusive, équitable et juste. L'administration Biden a déjà centré l'équité entre les initiatives fédérales, y compris l'IA. Le décret exécutif 13985, Promouvoir l'équité raciale et le soutien aux communautés mal desservies par le biais du gouvernement fédéral, ordonne au département américain de la Défense de faire progresser l'IA équitable en "investissant dans le développement responsable de l'IA à l'échelle de l'agence et en investissant dans le développement d'une main-d'œuvre IA plus diversifiée, y compris grâce à des partenariats avec des collèges et universités historiquement noirs (HBCU) et des institutions au service des minorités (MSI). L'administration précédente a donné un bon départ à la gouvernance de l'IA lorsqu'elle s'est plongée dans des discussions et des stratégies sur la manière dont les agences fédérales pourraient exploiter les capacités de transformation de l'IA. La Commission pour l'égalité des chances en matière d'emploi (EEOC) a lancé ce processus dans son propre travail axé sur l'atténuation des disparités dans les outils d'embauche basés sur l'IA pour les personnes handicapées. Pourtant, il reste encore beaucoup à faire aux États-Unis pour reconnaître l'existence de biais de données en ligne et débusquer les domaines à modifier.

Les États-Unis peuvent améliorer leur stratégie de gouvernance de l'IA en s'attaquant aux préjugés en ligne Les États-Unis peuvent améliorer leur stratégie de gouvernance de l'IA en s'attaquant aux préjugés en ligne

Drapeau rouge, cas d'utilisation

Le fait est que si le gouvernement fédéral se trompe dans l'identification et l'atténuation des préjugés, cela érodera la confiance dans l'efficacité des systèmes autonomes, en particulier parmi les citoyens ordinaires dont des vies en dépendent de plus en plus. Vous trouverez ci-dessous certains des cas d'utilisation dans les domaines du logement, de l'embauche, de la justice pénale, de la santé, de la finance, de la désinformation politique et de la reconnaissance faciale qui soulèvent déjà des signaux d'alarme en raison d'une surveillance limitée.

IA et logement

Les États-Unis ont une longue histoire de politiques racistes en matière de logement et de prêt, rendues possibles par des politiques racialisées, notamment les lois sur le retrait des Indiens, la loi sur les esclaves fugitifs, la loi sur le rapatriement, etc. Aujourd'hui, les biais dans les évaluations des maisons et les approbations de prêts continuent de poser des problèmes systémiques dans les demandes de prêt hypothécaire et la propriété, car les ordonnances de zonage et les redlining creusent les écarts pour les candidats noirs. Alors que des lois telles que la loi sur le logement équitable de 1968 et la loi sur l'égalité des chances en matière de crédit de 1974 empêchaient la discrimination en matière de logement à grande échelle, la discrimination abonde avec l'IA créant une précision encore plus grande dans la promotion des inégalités. Il a été constaté que les systèmes automatisés de prêt hypothécaire facturent aux emprunteurs noirs et hispaniques des prix nettement plus élevés pour les prêts hypothécaires, à une différence d'environ 800 millions de dollars par an. Pendant ce temps, les prêteurs en ligne ont suivi les tendances de discrimination établies par les prêteurs en face à face, rejetant cumulativement un total de 1,3 million de candidats noirs et latinos solvables entre 2008 et 2015. Alors que certains affirment que les approbations basées sur les applications se sont avérées être de 40% moins susceptibles d'offrir des taux hypothécaires plus élevés aux emprunteurs de couleur et de ne pas rejeter la demande d'un individu en raison de sa seule race, la technologie continue d'enhardir les disparités en ce qui concerne les évaluations pour les propriétaires existants, ce qui fait que les maisons dans les quartiers à majorité noire sont évaluées à 23% moins que les propriétés dans les quartiers principalement blancs – même avec la technologie.

IA et embauche

Au fil des ans, de plus en plus d'entreprises utilisent l'IA pour réduire les coûts opérationnels et augmenter l'efficacité de l'embauche. Cependant, ces systèmes ne sont pas dissociés des différences que les hommes et les femmes vivent sur le lieu de travail, et il a été démontré que les algorithmes d'embauche favorisent positivement les Blancs par rapport aux personnes de couleur. Par exemple, une étude a révélé que les publicités ciblées sur Facebook pour les caissières des supermarchés étaient reçues par un public composé à 85 % de femmes, tandis que les emplois dans les compagnies de taxi étaient présentés à un public composé à 75 % de Noirs. Dans un autre cas, Amazon a annulé un algorithme d'embauche parce qu'il a rejeté les candidatures féminines ou tout CV faisant référence aux activités des femmes ; l'algorithme a été principalement formé sur un ensemble de données d'ingénieurs en grande partie masculin. À ces exemples d'IA dans le recrutement s'ajoute l'utilisation de la technologie de reconnaissance des émotions (ERT) pour évaluer les candidats lors du processus de recrutement. La recherche a révélé que les hommes noirs et hispaniques ont été ignorés pour l'emploi lorsqu'ils sont présélectionnés par de tels outils ERT. Les résultats disproportionnellement négatifs générés par l'IA ont entraîné leur disqualification au début du processus d'embauche.

IA et justice pénale

Une histoire de lois biaisées et discriminatoires a renforcé le racisme dans le système de justice pénale, qui surveille et incarcère de manière disproportionnée les personnes à faible revenu et les personnes de couleur. Les Noirs sont incarcérés cinq fois plus que les Blancs. Et l'introduction de l'IA dans cet espace n'a fait que créer un auteur supplémentaire d'injustices au sein du système. L'algorithme PATTERN, créé par le ministère de la Justice dans le cadre du First Step Act, a été utilisé pour prédire la récidive et raccourcir les peines pénales en fonction du bon comportement. Pourtant, il a été démontré que l'algorithme présentait des préjugés contre les personnes de couleur, surestimant la récidive parmi les détenus appartenant à des minorités à des taux de 2 à 8 % par rapport aux détenus blancs. D'autres algorithmes d'évaluation des risques ont présenté des biais similaires, en prenant par exemple l'algorithme COMPAS qui avait été utilisé dans les États de New York, du Wisconsin, de Californie, etc. Un article de ProPublica a révélé que les Noirs étaient deux fois plus susceptibles que les Blancs d'être étiquetés à haut risque mais de ne pas récidiver, tandis que les Blancs étaient plus susceptibles d'être étiquetés comme à faible risque mais de récidiver. Ces outils d'évaluation des risques sont largement utilisés dans l'ensemble du système de justice pénale, de la détermination de la peine initiale à la détermination des libérations anticipées, exacerbant les préjugés existants au sein du système avec peu de surveillance.

IA et soins de santé

Il a également été démontré que l'utilisation de l'IA dans les soins de santé exacerbe les inégalités sociales. Un algorithme utilisé pour déterminer le placement sur la liste des greffes avait un coefficient de race qui plaçait les patients noirs plus bas sur la liste que les patients blancs, même si les Noirs américains sont nettement plus susceptibles que les Américains blancs d'avoir une insuffisance rénale. Pendant ce temps, un algorithme utilisé par les hôpitaux pour prédire les patients nécessitant des soins de suivi a identifié un groupe de patients qui ne comprenait que 18% de patients noirs et 82% de patients blancs alors que les chiffres auraient dû suivre une répartition de près de 50/50 à la place. Notamment, une IA conçue pour la détection du cancer de la peau avait été principalement testée sur des patients blancs et n'avait pas réussi à produire des diagnostics précis pour les patients à la peau plus foncée. Beaucoup de ces questions de vie ou de mort sont laissées aux caprices d'une technologie biaisée, aggravant les inégalités de santé existantes auxquelles sont confrontées les personnes de couleur.

IA et services financiers

L'utilisation de l'IA dans les systèmes financiers perpétue un biais supplémentaire. Certains algorithmes FinTech perpétuent des modèles de prêt qui sont connus pour facturer aux emprunteurs Latinx 7,9 points de base et aux Afro-Américains 3,6 points de base de plus pour l'achat et le refinancement de prêts hypothécaires. Alors que les chercheurs ont découvert que la FinTech discrimine 40 % de moins que les prêteurs en face à face, les communautés historiquement marginalisées continuent d'être touchées de manière disproportionnée. Il y a aussi le problème de l'invisibilité du crédit, dont souffrent 44 millions d'Américains car ils sont "déconnectés des services financiers traditionnels et n'ont donc pas d'antécédents de crédit". Étant donné que la FinTech ne peut pas évaluer les futurs comportements d'emprunt ou de crédit parmi ces populations en raison du manque de données, elles sont toujours frappées par les écarts de richesse aux États-Unis qui limitent l'indépendance financière.

IA et désinformation politique

La collecte de données sans mesure, associée à l'utilisation de l'intelligence artificielle dans les algorithmes des médias sociaux, a permis à de mauvais acteurs de diffuser la désinformation ciblant les groupes marginalisés. Lors des élections présidentielles américaines de 2016, des agents russes ont profité des médias sociaux pour cibler les Noirs, diffusant des messages visant à inciter les conflits raciaux et à décourager les Noirs de se rendre aux urnes. La suppression des électeurs en ligne, menée grâce à des informations trompeuses sur la présence des forces de l'ordre dans les bureaux de vote ou la diffusion d'informations de vote incorrectes, a été utilisée pour cibler les minorités raciales et les empêcher de voter. La désinformation politique menace les droits civils des minorités raciales, dressant des barrières à leur pleine participation à la démocratie américaine.

Technologies de reconnaissance faciale

Beaucoup des cas d'utilisation mentionnés précédemment reposent sur les technologies de détection et de reconnaissance faciale, qui présentent des lacunes techniques en ce qui concerne l'identification et la classification de divers sujets. Dans les systèmes d'application de la loi ou de justice pénale, l'utilisation de technologies de reconnaissance faciale (FRT) inexactes a entraîné de multiples arrestations injustifiées, affectant de manière disproportionnée les populations noires et latino-américaines. Le FRT a également eu des conséquences sinistres similaires lorsqu'il est appliqué à la surveillance des résidents des logements sociaux, dont l'accès aux appartements a été dicté par les résultats du FRT.

La profondeur et l'étendue des préjugés de l'IA obligent le gouvernement fédéral à obtenir des conseils et des solutions fondés sur des principes. De plus, la compétitivité numérique ne peut être pleinement réalisée aux États-Unis sans un cadre qui aborde de manière proactive ces défis nationaux persistants et d'autres qui restreignent l'inclusivité des technologies émergentes. Mais avant de proposer plusieurs propositions sur la manière dont les États-Unis pourraient lutter de manière proactive contre les biais en ligne, les participants à la table ronde ont également souligné deux éléments supplémentaires qui exacerbent les biais de l'IA : la qualité des données et la diversité de la main-d'œuvre.

Données traumatisées

Les données existantes documentent le traitement historiquement injuste et la sous-représentation des communautés historiquement marginalisées. Par exemple, certaines annonces de recrutement supposent que les personnes de couleur, ou les femmes, sont moins qualifiées car elles sont moins représentées dans la main-d'œuvre par rapport aux populations majoritaires, ou aux hommes blancs. Aucune de ces hypothèses ne tient compte des facteurs sociétaux plus larges et plus larges et des injustices dans l'éducation et le marché du travail qui ont rendu difficile pour les femmes ou les personnes de couleur de participer équitablement au marché du travail. De même, les prêts au logement pour les communautés noires et brunes ont tendance à être disproportionnellement plus élevés, résultat de décennies de lois discriminatoires sur le logement et de redlining. Dans son travail, l'activiste de données en résidence et criminologue de l'Université de Virginie Renee Cummings qualifie ces disparités de «traumatisme des données», car elles imitent les héritages historiques qui sont intégrés aux ensembles de données existants et apparaissent dans les algorithmes d'apprentissage automatique. Et parce que ces nuances sont étroitement liées à la société dans laquelle nous vivons, les données deviennent plus difficiles à démêler de ces hypothèses explicites et inconscientes. Lorsqu'elles sont incorporées dans les modèles d'IA, le traumatisme des données est exercé et infligé aux générations futures sur lesquelles les modèles sont utilisés parmi une pléthore de cas d'utilisation qui déterminent la mobilité sociale, la justice économique et même les droits civils.

Diversité de la main-d'œuvre

Une autre considération importante soulevée par les participants à la table ronde de Brookings est le besoin de diversité de la main-d'œuvre dans l'IA. Facebook et Google ont une représentation nominale des femmes dans leur personnel de recherche à 15% et 10% respectivement, selon l'AI Now Institute. Ces chiffres vont encore plus bas pour les travailleurs de la technologie. Seuls 2,5 % des effectifs de Google sont noirs, et les chiffres de Facebook et Microsoft ne sont que de 4 %. Ces problèmes vont au-delà du vivier de talents, car «les travailleurs des entreprises technologiques rencontrent de profonds problèmes avec les cultures du lieu de travail, les asymétries de pouvoir, le harcèlement, les pratiques d'embauche exclusives, la rémunération injuste et la tokenisation qui les poussent à quitter ou à éviter complètement de travailler dans le secteur de l'IA. ” Le manque de diversité dans les espaces technologiques signifie que des algorithmes d'apprentissage automatique et d'autres systèmes autonomes sont développés sans les expériences vécues nécessaires pour éviter un mauvais traitement des données ou créer de bien meilleurs produits ou services.

Comment les États-Unis devraient donner la priorité à une égalité des chances accrue dans l'IA

Pour en revenir à ce que font les États-Unis actuellement, le nouveau NAIAC a créé cinq groupes de travail lors de sa première réunion, qui comprenait : le leadership dans une IA digne de confiance , leadership en recherche et développement, soutien à la main-d'œuvre américaine et offre des opportunités, un leadership en matière de compétitivité et de coopération internationale. En outre, ils ont également créé un sous-comité sur l'IA et l'application de la loi, chargé d'enquêter sur les problèmes de partialité et de sécurité des données. Bien qu'ils soient axés sur le commerce, la création des sous-groupes signale l'engagement de l'administration envers l'IA centrée sur l'humain et dans la lutte contre les biais existants que l'on trouve couramment dans les systèmes d'IA. L'IA centrée sur l'humain cherche à garantir l'utilisation équitable et responsable de la technologie tout en tenant compte de la façon dont les préjugés explicites façonnent les technologies existantes.

Contenu associé

TechTank

La transparence est le meilleur premier pas vers une meilleure gouvernance numérique

Mark MacCarthy
TechTank

La Déclaration pour l'avenir du Internet est pour les démocraties chancelantes, pas pour la Chine et la Russie

Alex Engler
Technologie & ; Innovation

Institutionnalisation de l'analyse des données dans la gouvernance fédérale allemande

Alex Engler

Bien que ces aspects de la NAIAC puissent potentiellement faire face à un traitement équitable et juste de groupes disparates, il existe toujours un besoin de militants des droits civiques et des experts interdisciplinaires pour participer à ces discussions. Nous suggérons également un ensemble de recommandations supplémentaires pour informer les groupes consultatifs et les sous-groupes plus larges lors de la conception et de la mise en œuvre d'une stratégie nationale de gouvernance de l'IA.

1. Les États-Unis doivent entreprendre une mise à jour du régime actuel des droits civils afin de déterminer l'interprétabilité de la gouvernance de l'IA.

Pendant des années, les militants des droits civiques se sont battus pour un accès équitable au logement, aux prêts, aux emplois, etc. Dans les exemples précédents, il est certain que les biais de l'IA retarderont ces progrès et laisseront les gens avec peu de recours pour remédier aux pratiques nuisibles et trompeuses. Le régime actuel des droits civils est mal équipé et obsolète. Par exemple, la loi sur le logement équitable interdit la discrimination en matière de logement fondée sur la race, le handicap, le sexe et d'autres facteurs. Cependant, il ne tient pas compte des algorithmes discriminatoires qui permettent aux locataires de rechercher des personnes de races et d'ethnies spécifiques. Les lois fédérales empêchant l'intimidation des électeurs ne parviennent pas à lutter contre la désinformation en ligne cherchant à aliéner et à effrayer les communautés de couleur. À l'heure actuelle, il est également difficile pour les particuliers d'intenter des poursuites contre des entreprises technologiques. Comme les expériences des gens diffèrent sur les plateformes de médias sociaux, il est difficile pour une personne de déterminer si les informations qu'elle consulte sont différentes des autres, en particulier celles qui sont prédatrices. Parmi une longue liste d'actions législatives au Congrès, il existe déjà des projets de loi en circulation visant à lutter contre les méfaits du numérique. Cela inclut la législation limitant la publicité ciblée, telle que la loi sur l'interdiction de la publicité sous surveillance, et la législation visant à prévenir l'intimidation des électeurs en ligne, telle que la loi de 2021 sur les pratiques trompeuses et la prévention de l'intimidation des électeurs. les préjudices feront partie intégrante de la protection des droits civils des groupes historiquement marginalisés. Pour créer une meilleure harmonisation autour de la réduction des méfaits, une évaluation du régime actuel des droits civils est un point de départ vers une IA plus responsable et une plus grande équité.

2. Les États-Unis devraient identifier et déterminer des cas d'utilisation spécifiques pour des recommandations de surveillance plus stricte et des mesures réglementaires potentielles, y compris dans les services financiers, les soins de santé, l'emploi et la justice pénale.

Lorsqu'on envisage le risque lié à l'IA, il est important de souligner et préciser quels cas d'utilisation nécessitent une surveillance et des mesures réglementaires strictes. La NAIAC pourrait être un moyen d'employer des cadres similaires à la loi de l'UE sur l'IA, en spécifiant et en classant les cas d'utilisation avec différents degrés de risque afin de déterminer les niveaux de réglementation appropriés. Il existe également plusieurs agences qui luttent contre les préjugés de l'IA dans différents secteurs, comme celle mentionnée précédemment à l'Equal Employment Opportunity Commission (EEOC) des États-Unis. Récemment, le NIST a également publié des directives sur la gestion de l'IA biaisée. Pour continuer, il devrait y avoir un inventaire, une évaluation et une coordination des zones d'alerte parmi les agences gouvernementales qui suscitent des discussions sur les remèdes et les mesures d'application potentielles pour traiter directement les scénarios à haut risque qui empêchent l'égalité des chances pour les populations vulnérables.

3. Les États-Unis doivent approfondir leur approche participative de la gouvernance de l'IA qui encourage la contribution du public, les meilleures pratiques de l'industrie et les divulgations aux consommateurs.

La gouvernance de l'IA doit être démocratisée pour permettre une contribution au-delà des technologues. Un cadre participatif devrait être créé pour permettre la contribution du public, intégrer les meilleures pratiques de l'industrie et fournir des informations aux consommateurs afin de maximiser la transparence pour les personnes les plus touchées par ces nouvelles technologies. Les audits et les évaluations d'impact seront également essentiels dans le déploiement de nouvelles technologies, en se concentrant en particulier sur la détermination de l'impact disparate et la qualité des données utilisées et de la documentation conservée. Les algorithmes particulièrement sensibles – en particulier ceux utilisés par le gouvernement fédéral – devraient faire l'objet d'examens réguliers pour évaluer leurs impacts à long terme sur les groupes les plus vulnérables. Et la contribution des consommateurs devrait être plus valorisée. Dans le statu quo, les consommateurs disposent de moyens limités pour fournir des suggestions et des commentaires à ceux qui créent des algorithmes. Par exemple, la création de bacs à sable réglementaires et de boucles de rétroaction des consommateurs pour les modèles d'IA qui présentent un risque substantiel pour les citoyens et les consommateurs pourrait être utilisée dans des efforts délibératifs et débiaisés.

4. Pour parvenir à une véritable équité, les États-Unis devraient envisager et utiliser une approche antiraciste des systèmes d'IA, de la conception à la mise en œuvre.

Une grande partie des préjugés flagrants de l'IA émane des inégalités systémiques existantes qui sont enracinées dans le racisme. Bien que la diversification des équipes de développeurs, l'examen minutieux des biais de données et la contribution généralisée des consommateurs aideront à uniformiser les règles du jeu dans la conception et l'exécution de l'IA, cela ne suffit pas toujours. Comprendre et identifier les biais fait partie intégrante de l'efficacité et de l'utilité d'un algorithme. C'est pourquoi les États-Unis ont besoin de meilleures pratiques qui maintiennent l'intégrité des processus de conception et d'exécution algorithmiques, et évitent les pratiques discriminatoires et prédatrices explicites qui sont innées sur le plan institutionnel. Ce que la table ronde a révélé, c'est qu'un cadre antiraciste qui incite les décideurs politiques à assurer une représentation inclusive en s'attaquant aux défis structurels est nécessaire, ce qui comprend des dotations de recherche limitées pour les institutions au service des minorités, y compris les HBCU, les HSI et même les collèges communautaires, ou ayant des garde-fous sur Les systèmes d'IA qui reproduisent potentiellement les inégalités en personne, comme dans les applications d'application de la loi. Le thème principal ici est que l'IA n'annulera pas les circonstances historiques et structurelles qui ont conduit à de telles disparités si elles ne sont pas intentionnellement reconnues et traitées.

Conclusion

Le dialogue national sur la gouvernance de l'IA offre l'opportunité d'établir de nouvelles normes sur la manière dont les États-Unis s'attaquent aux biais de l'IA. Avoir des discussions sur des questions importantes crée la possibilité de clarifier les définitions et d'adopter des changements de politique avec une probabilité significative d'atténuer les préjugés et de se rapprocher d'une économie plus inclusive. Alors que le processus a commencé avec l'administration Trump, la Maison-Blanche Biden peut le terminer, en mettant à profit les considérations non techniques des technologies émergentes.

Au-delà de ces considérations importantes, les acteurs de ces technologies émergentes doivent remonter aux racines des problèmes, qui résident dans le manque de diversité dans les équipes de conception et les données qui continuent de perpétuer les traumatismes et la discrimination du passé. En examinant le régime actuel des droits civils, en décrivant les cas nécessitant une surveillance, en encourageant une participation plus démocratique à la gouvernance de l'IA et en incorporant des principes antiracistes dans chaque aspect du processus de conception algorithmique, il est possible qu'avec les efforts conjoints des entreprises technologiques , les institutions gouvernementales, les groupes de défense des droits civiques et les citoyens, les préjugés existants en matière d'IA pourraient être bouleversés. Plus important encore, les protections des groupes historiquement marginalisés peuvent être mieux intégrées dans la gouvernance nationale, rapprochant les États-Unis des objectifs d'égalité des chances pour tous à l'ère numérique.


Les auteurs sont reconnaissants de la contribution des experts de la réunion de 2021 et des discussions qui ont suivi la réunion formelle.

Amazon, Apple, Facebook, Google et Microsoft sont des donateurs généraux et sans restriction de la Brookings Institution. Les découvertes, interprétations et conclusions publiées dans cet article sont uniquement celles des auteurs et ne sont influencées par aucun don.

Articles populaires