À l'ère numérique d'aujourd'hui, l'intelligence artificielle (IA) et l'apprentissage automatique (ML) émergent partout : les algorithmes de reconnaissance faciale, la détection et l'atténuation des épidémies pandémiques, l'accès au crédit et les soins de santé ne sont que quelques exemples. Mais, ces technologies qui reflètent l'intelligence humaine et prédisent-elles les résultats de la vie réelle créent-elles un consensus avec l'éthique humaine ? Pouvons-nous créer des pratiques réglementaires et de nouvelles normes en matière d'IA ? Au-delà de tout, comment pouvons-nous tirer le meilleur parti de l'IA et atténuer les effets néfastes potentiels ? Nous sommes à la poursuite des réponses.
Les technologies AI/ML viennent avec leur part de défis. Des marques mondiales telles qu'Amazon, Apple, Google et Facebook ont été accusées de biais dans leurs algorithmes d'IA. Par exemple, lorsque Apple a lancé l'Apple Card, ses utilisateurs ont remarqué que les femmes se voyaient proposer des marges de crédit plus petites que les hommes. Ce biais a gravement affecté la réputation mondiale d'Apple.
Dans un cas extrême avec de graves répercussions, les systèmes judiciaires américains utilisent des algorithmes d'IA pour prononcer des peines de prison et des conditions de libération conditionnelle. Malheureusement, ces systèmes d'IA sont construits sur des données criminelles historiquement biaisées, amplifiant et perpétuant les biais intégrés dans les systèmes d'IA. En fin de compte, cela conduit à remettre en question l'équité offerte par les algorithmes ML dans le système de justice pénale.
Table des matières
Le combat pour une IA éthique
Les gouvernements et les entreprises se sont activement lancés dans le développement et l'adoption de l'IA à l'échelle mondiale. Aujourd'hui, la disponibilité d'outils d'IA que même des non-spécialistes peuvent mettre en place entre de plus en plus sur le marché.
Au milieu de cette frénésie d'adoption et de développement de l'IA, de nombreux experts et défenseurs du monde entier sont devenus sceptiques quant à l'impact et aux implications à long terme des applications d'IA. Ils s'inquiètent de la façon dont les progrès de l'IA affecteront notre productivité et l'exercice du libre arbitre ; en bref, ce que signifie être "humain". La lutte pour une IA éthique n'est rien d'autre que la lutte pour un avenir dans lequel la technologie peut être utilisée non pas pour opprimer mais pour élever les humains.
Les géants mondiaux de la technologie tels que Google et IBM ont étudié et corrigé ces biais dans leurs algorithmes d'IA/ML. L'une des solutions consiste à créer une documentation pour les données utilisées pour former les systèmes AI/ML.
Après la question des biais dans les systèmes d'IA, une autre préoccupation la plus médiatisée est le manque de visibilité sur la façon dont les algorithmes d'IA arrivent à une décision. Il est également connu sous le nom d'algorithmes opaques ou de systèmes de boîte noire. Le développement de l'IA explicable a atténué l'impact négatif des systèmes de boîte noire. Bien que nous ayons surmonté certains défis éthiques liés à l'IA, plusieurs autres problèmes, tels que la militarisation de l'IA, restent à résoudre.
Il existe de nombreuses organisations gouvernementales, à but non lucratif et d'entreprises concernées par l'éthique et la politique de l'IA. Par exemple, le Partnership on AI to Benefit People and Society, une organisation à but non lucratif créée par Amazon, Google, Facebook, IBM et Microsoft, formule les meilleures pratiques sur les technologies de l'IA, fait progresser la compréhension du public et sert de plate-forme pour l'IA. . Apple a rejoint cette organisation en janvier 2017.
Aujourd'hui, les gouvernements nationaux et transnationaux et les organisations non gouvernementales déploient de nombreux efforts pour garantir l'éthique de l'IA. Aux États-Unis, par exemple, la feuille de route de l'administration Obama pour la politique de l'IA de 2016 a constitué un pas important vers une IA éthique, et en janvier 2020 , l'administration Trump a publié un projet de décret sur les "Conseils pour la réglementation des applications d'intelligence artificielle". La déclaration souligne la nécessité d'investir dans le développement de systèmes d'IA, de renforcer la confiance du public dans l'IA, d'éliminer les obstacles à l'IA et de maintenir la compétitivité de la technologie américaine d'IA sur le marché international.
De plus, le groupe d'experts de haut niveau sur l'intelligence artificielle de la Commission européenne a publié des « Lignes directrices en matière d'éthique pour une intelligence artificielle digne de confiance », le 8 avril 2019, et le 19 février 2020, l'unité d'innovation et d'excellence en robotique et en intelligence artificielle de la Commission européenne a publié un livre blanc sur l'excellence et la confiance dans l'innovation en intelligence artificielle.
Sur le plan académique, l'Université d'Oxford abrite trois instituts de recherche qui se concentrent principalement sur l'éthique de l'IA et promeuvent l'éthique de l'IA en tant que domaine d'étude et d'applications structuré. L'AI Now Institute de l'Université de New York (NYU) étudie également les implications sociales de l'IA, en se concentrant sur les préjugés et l'inclusion, le travail et l'automatisation, les libertés et les droits, ainsi que les infrastructures civiles et la sécurité.
Lisez aussi : L'IA souffre de biais, mais ce n'est pas nécessaire
Quelques inquiétudes et espoirs clés concernant le développement éthique de l'IA
Des soucis
Espoirs
Lisez aussi : Utiliser une IA responsable pour pousser la transformation numérique
La responsabilité de l'IA éthique
Des géants de la technologie comme Microsoft et Google pensent que les gouvernements devraient intervenir pour réglementer efficacement l'IA. Les lois ne sont bonnes que dans la mesure où elles sont appliquées. Jusqu'à présent, cette responsabilité est tombée sur les épaules de chiens de garde privés et d'employés d'entreprises technologiques qui ont l'audace de s'exprimer. Par exemple, après des mois de protestations de ses employés, Google a mis fin à son projet Maven, un projet d'IA de drone militaire.
Nous pouvons choisir le rôle que nous voulons que l'IA joue dans nos vies et nos entreprises en posant des questions difficiles et en prenant des mesures de précaution strictes. En conséquence, de nombreuses entreprises nomment des éthiciens de l'IA pour les guider sur ce nouveau terrain.
Nous avons encore un long chemin à parcourir avant que l'intelligence artificielle ne fasse corps avec l'éthique. Mais, jusqu'à ce jour, nous devons contrôler nous-mêmes la façon dont nous utilisons la technologie de l'IA.
Lire ensuite : Top 8 des tendances IA et ML à surveiller en 2022