Au cours des six derniers mois, le gouvernement chinois a déployé une série de documents politiques et de déclarations publiques qui mettent enfin de la viande sur l'os du régime de gouvernance du pays pour l'intelligence artificielle (IA). Compte tenu des antécédents de la Chine en matière d'utilisation de l'IA pour la surveillance de masse, il est tentant de considérer ces initiatives comme un peu plus qu'une feuille de vigne pour couvrir les violations généralisées des droits de l'homme. Mais cette réponse risque d'ignorer les changements réglementaires ayant des implications majeures pour le développement mondial de l'IA et la sécurité nationale. Quiconque souhaite concurrencer, coopérer ou simplement comprendre l'écosystème chinois de l'IA doit examiner ces mouvements de près.
Ces initiatives récentes montrent l'émergence de trois approches différentes de la gouvernance de l'IA, chacune défendue par une branche différente de la bureaucratie chinoise, et chacune à un niveau de maturité différent. Leurs bailleurs de fonds emballent également des poinçons bureaucratiques très différents. Il vaut la peine d'examiner les trois approches et leurs bailleurs de fonds, ainsi que la manière dont elles se complèteront et se concurrenceront, pour mieux comprendre où se dirige la gouvernance de l'IA en Chine.
Trois approches de la gouvernance chinoise de l'IA | ||
Organisme | Orientation de l'approche | Documents pertinents |
Administration du cyberespace de Chine | Règles pour les algorithmes en ligne, avec un accent sur l'opinion publique | - Dispositions relatives à la gestion des recommandations algorithmiques des services d'information sur Internet - Avis d'orientation sur le renforcement de la gouvernance globale des algorithmes des services d'information sur Internet |
Académie chinoise des technologies de l'information et des communications | Outils de test et de certification de systèmes « d'IA dignes de confiance » | - Livre blanc sur l'IA digne de confiance - Plan de protection et d'applications de reconnaissance faciale digne de confiance |
Ministère de la science et de la technologie | Établir des principes d'éthique de l'IA et créer des comités d'éthique technologique au sein des entreprises et des instituts de recherche | - Avis d'orientation sur le renforcement de la gouvernance éthique de la science et de la technologie - Normes éthiques pour l'intelligence artificielle de nouvelle génération |
Les mesures les plus fortes et les plus immédiatement influentes en matière de gouvernance de l'IA ont été prises par l'Administration du cyberespace de Chine (CAC), un régulateur relativement nouveau mais très puissant qui rédige les règles régissant certaines applications de l'IA. L'approche du CAC est la plus mature, la plus fondée sur des règles et la plus concernée par le rôle de l'IA dans la diffusion de l'information.
Le CAC a fait la une des journaux en août 2021 lorsqu'il a publié un projet d'ensemble de trente règles pour réglementer les algorithmes de recommandation Internet, le logiciel alimentant tout, de TikTok aux applications d'actualités et aux moteurs de recherche. Certaines de ces règles sont spécifiques à la Chine, comme celle stipulant que les algorithmes de recommandation « diffusent vigoureusement une énergie positive ». Mais d'autres dispositions font leur entrée dans les débats internationaux en cours, comme l'exigence que les fournisseurs d'algorithmes soient en mesure de "donner une explication" et de "remédier" aux situations dans lesquelles les algorithmes ont porté atteinte aux droits et intérêts des utilisateurs. Si elles sont mises en pratique, ces types de dispositions pourraient inciter les entreprises chinoises à expérimenter de nouveaux types de divulgation et de nouvelles méthodes d'interprétabilité algorithmique, un domaine émergent mais très immature de la recherche sur l'apprentissage automatique.
Peu de temps après avoir publié ses règles d'algorithme de recommandation, le CAC a présenté un effort beaucoup plus ambitieux : une feuille de route de trois ans pour régir tous les algorithmes Internet. Le suivi de cette feuille de route nécessitera la contribution d'un grand nombre des neuf régulateurs qui ont cosigné le projet, y compris le ministère de l'Industrie et des Technologies de l'information (MIIT).
La deuxième approche de la gouvernance de l'IA a émergé de l'Académie chinoise des technologies de l'information et des communications (CAICT), un groupe de réflexion influent relevant du MIIT. Actif dans la formulation de politiques et dans de nombreux aspects des tests et de la certification des technologies, le CAICT a distingué sa méthode en mettant l'accent sur la création d'outils de mesure et de test des systèmes d'IA. Ce travail n'en est qu'à ses balbutiements, tant du point de vue technique que réglementaire. Mais en cas de succès, cela pourrait jeter les bases d'un régime de gouvernance de l'IA plus large en Chine, garantissant que les systèmes déployés sont robustes, fiables et contrôlables.
Matt Sheehan
Matt Sheehan est membre du Carnegie Endowment for International Peace, où ses recherches portent sur les problèmes technologiques mondiaux, avec une spécialisation dans l'écosystème de l'intelligence artificielle en Chine.Plus >En juillet 2021, le CAICT s'est associé à un laboratoire de recherche du géant chinois du commerce électronique JD pour publier le premier livre blanc du pays sur «l'IA digne de confiance». Déjà populaire dans les discussions européennes et américaines, l'IA digne de confiance fait référence à de nombreux aspects plus techniques de la gouvernance de l'IA, tels que les systèmes de test de robustesse, de biais et d'explicabilité. La façon dont le CAICT définit une IA digne de confiance dans ses principes fondamentaux ressemble beaucoup aux définitions issues des institutions américaines et européennes, mais le document se distingue par la rapidité avec laquelle ces principes sont convertis en actions concrètes.
Le CAICT travaille avec l'AI Industry Alliance de Chine, un organisme industriel parrainé par le gouvernement, pour tester et certifier différents types de systèmes d'IA. En novembre 2021, il a publié son premier lot de certifications d'IA fiables pour les systèmes de reconnaissance faciale. Selon la rigueur technique de la mise en œuvre, ces types de certifications pourraient contribuer à accélérer les progrès en matière d'interprétabilité algorithmique ou simplement se transformer en une forme de recherche de rente bureaucratique. En ce qui concerne l'impact politique, le CAICT est souvent considéré comme représentant les points de vue du puissant MIIT, mais la direction du MIIT n'a pas encore publié ses propres documents de politique sur une IA digne de confiance. Que ce soit le cas sera un indicateur fort de l'élan bureaucratique derrière cette approche.
Enfin, le ministère de la Science et de la Technologie (MOST) a adopté la plus légère des trois approches de la gouvernance de l'IA. Ses publications les plus médiatisées se sont concentrées sur l'établissement de lignes directrices éthiques, s'appuyant sur les entreprises et les chercheurs pour se superviser dans l'application de ces principes à leur travail.
En juillet 2021, MOST a publié des lignes directrices qui appelaient les universités, les laboratoires et les entreprises à mettre en place des comités d'examen internes pour superviser et trancher les questions d'éthique technologique. Deux mois plus tard, le principal comité d'experts en IA opérant sous MOST a publié son propre ensemble de normes éthiques pour l'IA, avec un accent particulier sur l'intégration de l'éthique dans l'ensemble du cycle de vie du développement. Depuis lors, MOST encourage les grandes entreprises technologiques à créer leurs propres comités d'éthique et à auditer leurs propres produits.
L'approche de MOST est similaire à celles d'organisations internationales telles que l'Organisation des Nations Unies pour l'éducation, la science et la culture et l'Organisation de coopération et de développement économiques, qui ont publié les principes de l'IA et encouragé les pays et les entreprises à les adopter. Mais dans le contexte chinois, cette tactique semble tout à fait en décalage avec l'approche de plus en plus pratique du pays en matière de gouvernance technologique, une déconnexion qui pourrait saper l'impact des efforts de MOST.
Une question sans réponse est de savoir comment ces trois approches vont s'articuler. Les ministères et les organes administratifs chinois sont notoirement compétitifs les uns avec les autres, se bousculant constamment pour faire passer leurs initiatives favorites devant la direction centrale du pays dans l'espoir qu'elles deviennent les politiques choisies du parti-État. Dans ce concours, l'approche du CAC semble avoir clairement le dessus : c'est la plus mature, la plus en phase avec l'air du temps réglementaire, et elle vient de l'organisation avec le plus de poids bureaucratique. Mais son approche ne peut réussir à elle seule. Le CAC exige que les entreprises soient en mesure d'expliquer le fonctionnement de leurs algorithmes de recommandation, et les outils ou certifications de ce qui constitue une IA explicable proviendront probablement du CAICT. De plus, étant donné la nature tentaculaire et en évolution rapide de la technologie, de nombreux aspects pratiques d'une IA digne de confiance apparaîtront pour la première fois dans les comités d'éthique les plus inspirés des entreprises individuelles.
La feuille de route de trois ans pour la gouvernance algorithmique offre un aperçu d'une certaine collaboration bureaucratique. Bien que le CAC en soit clairement l'auteur principal, le document comprend de nouvelles références à des algorithmes dignes de confiance et à des entreprises mettant en place des comités d'examen éthique, des ajouts probablement faits à la demande des deux autres ministères. Il peut également y avoir des changements substantiels dans le pouvoir bureaucratique à mesure que la gouvernance de l'IA s'étend pour couvrir de nombreuses applications industrielles et sociales de l'IA. Le CAC est traditionnellement un régulateur axé sur Internet, et les futures réglementations sur les véhicules autonomes ou l'IA médicale pourraient créer une ouverture pour qu'un ministère comme le MIIT prenne les rênes de la réglementation.
L'impact potentiel de ces courants réglementaires s'étend bien au-delà de la Chine. Si le CAC respecte certaines exigences de transparence et d'explicabilité algorithmiques, la Chine mènera certaines des plus grandes expériences réglementaires au monde sur des sujets dont les régulateurs européens débattent depuis longtemps. La capacité des entreprises chinoises à répondre à ces nouvelles exigences pourrait éclairer des débats analogues en Europe sur le droit à l'explication.
Analyse connexe de CarnegieDu côté de la sécurité, alors que les systèmes d'IA sont profondément ancrés dans les tissus des armées du monde entier, les gouvernements veulent s'assurer que ces systèmes sont robustes, fiables et contrôlables dans l'intérêt de la stabilité internationale. Les expériences actuelles de la CAICT en matière de certification des systèmes d'IA ne sont probablement pas prêtes pour ce type de décisions de déploiement à enjeux élevés. Mais développer une compréhension précoce de la manière dont les institutions et les technologues chinois abordent ces questions pourrait s'avérer précieux pour les gouvernements qui pourraient bientôt se retrouver à négocier sur des aspects des armes autonomes et du contrôle des armements.
Alors que 2022 marque une année majeure dans le calendrier politique chinois, le peuple et les bureaucraties qui élaborent la gouvernance chinoise de l'IA continueront probablement de se bousculer pour se positionner et influencer. Les résultats de cette bousculade méritent une attention particulière de la part des experts en intelligence artificielle et des observateurs de la Chine. Si les tentatives de la Chine pour freiner les algorithmes s'avèrent fructueuses, elles pourraient imprégner ces approches d'une sorte de soft power technologique et réglementaire qui façonne les régimes de gouvernance de l'IA dans le monde entier.