La crise mondiale COVID-19 a agi comme un accélérateur mondial pour le déploiement des initiatives d'IA. Les technologies qui auraient eu lieu sur cinq ans ont eu lieu sur six mois.
Alors que la pandémie a intégré l'IA dans nos vies à la vitesse de la lumière, elle a également amplifié l'urgence de comprendre les règles et l'éthique qui la concernent. Par exemple, les entreprises technologiques, chargées du suivi biométrique et des applications de traçage, sont maintenant en possession de quantités massives de nos biodonnées personnelles et ne disposent d'aucun ensemble de règles claires sur ce qu'il faut en faire et comment les protéger.
En conséquence, les entreprises et les parties prenantes se retrouvent à éteindre des incendies, tels que les défaillances de la cybersécurité, la propagation prolifique de dis- et de désinformation et les ventes aveugles de données, tous des problèmes facilement évitables.
Avez lu
Avec des enjeux aussi élevés, pourquoi les règles et la gouvernance des systèmes d'IA ne sont-elles pas plus claires?
Ce n'est pas par manque d'effort. Au cours des dernières années, une vague de principes et d'orientations pour soutenir le développement et l'utilisation responsables de l'IA est apparue sans changement significatif.
Pour ce qui est de l'impact, nous devons approfondir trois questions principales:
1. élargir les dialogues existants autour de l'éthique et des règles de la route pour l'IA.
La conversation sur l'IA et l'éthique doit être ouverte pour comprendre les subtilités et le cycle de vie des systèmes d'IA et leurs impacts à chaque étape.
Trop souvent, ces discussions manquent d'une portée suffisante et se concentrent uniquement sur les étapes de développement et de déploiement du cycle de vie, bien que bon nombre des problèmes surviennent au cours des premières étapes de la conceptualisation, de la recherche et de la conception.
Ou bien, ils ne comprennent pas quand et si un système d'IA fonctionnera à un stade de maturité nécessaire pour éviter une défaillance au sein de systèmes adaptatifs complexes.
Un autre problème est que les entreprises et les parties prenantes peuvent se concentrer sur le théâtre de l'éthique, semblant promouvoir l'IA pour de bon tout en ignorant les aspects plus fondamentaux et problématiques. C'est ce qu'on appelle le « lavage éthique », ou créer un sentiment superficiellement rassurant mais illusoire que les questions éthiques sont abordées pour justifier la mise en avant de systèmes qui finissent par approfondir les schémas problématiques.
Que la transparence dicte l'éthique. Il y a beaucoup de compromis et de zones grises dans cette conversation. Penchons-nous dans ces zones grises complexes.
Alors que le « discours éthique » consiste souvent à souligner les différents compromis qui correspondent aux différents plans d'action, une véritable surveillance éthique repose sur la prise en compte de ce qui n'est pas pris en compte par les options choisies.
Cette partie vitale-et souvent négligée-du processus est une pierre d'achoppement pour ceux qui essaient de s'attaquer à l'éthique de l'IA.
2. Le discours sur l'éthique de l'IA n'est pas traduit en action significative.
Trop souvent, les responsables du développement, de l'intégration et du déploiement des systèmes d'IA ne comprennent pas comment ils fonctionnent ou quel potentiel ils pourraient avoir pour transférer le pouvoir, perpétuer les inégalités existantes et en créer de nouvelles.
Exagérer les capacités de l'IA est un problème bien connu dans la recherche sur l'IA et l'apprentissage automatique, et cela a conduit à une complaisance dans la compréhension des problèmes réels qu'ils ont été conçus pour résoudre, ainsi que l'identification des problèmes potentiels en aval. La croyance qu'un système d'IA incompétent et immature une fois déployé peut être remédié par un humain en boucle ou l'hypothèse qu'un antidote existe, en particulier compatible avec la cybersécurité, est une illusion erronée et potentiellement dangereuse.
Nous voyons ce manque de compréhension démontré chez nos décideurs, qui tombent pour un récit myope, tech-déterministe et appliquent des approches tech-solutionnistes et d'optimisation aux défis mondiaux, industriels et sociétaux. Ils sont souvent aveuglés par ce qui est proposé plutôt que de se concentrer sur ce que le problème nécessite réellement.
Pour avoir une véritable compréhension de l'éthique de l'IA, nous devons écouter un groupe d'experts et de parties prenantes beaucoup plus inclusif, y compris ceux qui comprennent les conséquences et les limites potentielles en aval de l'IA, telles que l'impact environnemental des ressources nécessaires pour construire, former et faire fonctionner un système d'IA, son interopérabilité avec d'autres systèmes et la faisabilité d'interrompre un système d'IA en toute sécurité.
3. Le dialogue sur l'IA et l'éthique se limite à la tour d'Ivoire.
Des concepts tels que l'éthique, l'égalité et la gouvernance peuvent être considérés comme nobles et abstraits. Nous devons fonder la conversation sur l'IA pour discerner la responsabilité et la culpabilité significatives.
Quiconque suppose que les systèmes d'IA sont apolitiques par nature serait incorrect, en particulier lorsque les systèmes sont intégrés dans des situations ou confrontés à des tâches pour lesquelles ils n'ont pas été créés ou formés.
Les inégalités structurelles sont monnaie courante, comme dans les algorithmes prédictifs utilisés dans le maintien de l'ordre qui sont souvent clairement biaisés. De plus, les personnes les plus vulnérables aux impacts négatifs ne sont souvent pas habilitées à s'engager.
Une partie de la solution et du défi consiste à trouver un langage commun pour reconceptualiser l'éthique pour des tensions et des compromis inconnus et implicites. Les transformations technologiques à grande échelle ont toujours conduit à de profonds changements sociétaux, économiques et politiques, et il a toujours fallu du temps pour comprendre comment en parler publiquement et établir des pratiques sûres et éthiques.
Cependant, nous sommes pressés à l'heure.
Travaillons ensemble pour repenser l'éthique à l'ère de l'information et transcender la pensée cloisonnée afin de renforcer l'intelligence et le discours latéraux et scientifiques. Notre seule voie viable est une éthique pratique et participative, qui garantit la transparence, attribue la responsabilité et empêche l'IA d'être utilisée de manière à dicter des règles et potentiellement causer de graves dommages.
Anja Kaspersen et Wendell Wallach sont membres principaux du Carnegie Council for Ethics in International Affairs. Ensemble, avec un Conseil consultatif international, ils dirigent la Carnegie Artificial Intelligence and Equality Initiative (AIEI), qui cherche à comprendre les innombrables façons dont l'IA influe sur l'égalité, et en réponse, propose des mécanismes potentiels pour assurer les avantages de l'IA pour tous.