Avez-vous manqué une session du Future of Work Summit?Rendez-vous dans notre bibliothèque Future of Work Summit à la demande pour diffuser.
Il ne fait aucun doute que l'IA modifie le paysage commercial et offre des avantages concurrentiels qui l'embrassent.Il est cependant temps d'aller au-delà de la simple implémentation de l'IA et de s'assurer que l'IA se fait de manière sûre et éthique.C'est ce qu'on appelle l'IA responsable et servira non seulement de protection contre les conséquences négatives, mais aussi comme un avantage concurrentiel en soi.
Qu'est-ce que l'IA responsable?
L'IA responsable est un cadre de gouvernance qui couvre les conducteurs éthiques, juridiques, de sécurité, de confidentialité et de responsabilité.Bien que la mise en œuvre d'une IA responsable varie selon l'entreprise, la nécessité en est claire.Sans les pratiques d'IA responsables en place, une entreprise est exposée à de graves risques financiers, de réputation et d'legal.Du côté positif, les pratiques responsables de l'IA deviennent des conditions préalables à même soumissionner sur certains contrats, en particulier lorsque les gouvernements sont impliqués;Une stratégie bien exécutée aidera grandement à gagner ces offres.De plus, l'adoption d'IA responsable peut contribuer à un gain de réputation à l'entreprise dans son ensemble.
Valeurs par conception
Une grande partie du problème de mise en œuvre de l'IA responsable se résume à la prévoyance.Cette prévoyance est la capacité de prédire les problèmes éthiques ou juridiques qu'un système d'IA pourrait avoir pendant son développement et son déploiement.À l'heure actuelle, la plupart des considérations d'IA responsables se produisent après un produit de l'IA est développé - une manière très inefficace de mettre en œuvre l'IA.Si vous souhaitez protéger votre entreprise contre les risques financiers, juridiques et de réputation, vous devez démarrer des projets en pensant à une IA responsable.Le besoin de votre entreprise a des valeurs par conception, et non par tout ce que vous vous retrouvez à la fin d'un projet.
Implémentation de valeurs par conception
L'IA responsable couvre un grand nombre de valeurs qui doivent être prioritaires par le leadership de l'entreprise.Bien que tous les domaines soient importants dans tout plan d'IA responsable, le montant de l'effort que votre entreprise dépense en chaque valeur dépend des dirigeants de l'entreprise.Il doit y avoir un équilibre entre la vérification de l'AIAND responsable en réalisation de l'IA.Si vous dépensez trop d'efforts sur une IA responsable, votre efficacité Maysuffer.D'un autre côté, ignorer l'IA responsable est imprudent avec les ressources de l'entreprise.Le Bestway pour lutter contre ce compromis commence par une analyse approfondie au début du projet, et pas un effort après le fait.
La meilleure pratique consiste à établir un comité d'IA responsable pour examiner vos projets d'IA avant qu'ils aillent périodiquement pendant les projets et à la fin. Le but de ce comité est d'évaluer le projet contre les valeurs d'IA responsables et d'approuver, de désapprouver ou de désapprouver des actions pour apporter le projet en conformité. Cela peut inclure une demande de plus en plus d'informations ou des choses qui doivent être modifiées fondamentalement. Comme un comité d'examen institutionnel qui est utilisé pour surveiller l'éthique dans la recherche biomédicale, ce comité devrait contenir à la fois des experts en IA et des membres non techniques. Les membres non techniques peuvent provenir de n'importe quel contexte et servir de vérification de la réalité sur les experts de l'IA. Les experts en IA, en revanche, peuvent mieux comprendre les difficultés et les réglages possibles, mais peuvent devenir trop utilisés pour les normes institutionnelles et de l'industrie qui peuvent ne pas être suffisamment sensibles pour les préoccupations de la communauté plus grande. Ce comité devrait être convoqué au début du projet, périodiquement pendant le projet et à la fin du projet d'approbation finale.
Quelles valeurs le comité d'IA responsable devrait-il considérer?
Les valeurs sur lesquelles se concentrer doivent être prises en compte par l'entreprise pour s'adapter à son énoncé de mission global. Votre entreprise choisira probablement des valeurs spécifiques à souligner, mais tous les principaux domaines de préoccupation devraient être informés.Il existe de nombreux frameworks que vous pouvez choisir d'utiliser pour l'inspiration tels que Google et Facebook.Pour cet article, cependant, nous allons fonder la discussion sur les recommandations énoncées par le groupe d'experts de haut niveau sur l'intelligence artificielle créée par la Commission européenne dans la liste d'évaluation des indices artificielles fiables.Ces recommandations comprennent sept domaines.Nous explorerons chaque zone et suggérerons les questions à demander sur chaque zone.
1. Agence humaine et surveillance
Les projets d'IA devraient respecter l'agence humaine et la prise de décision.Ce principe implique la façon dont l'AIProject influencera ou soutiendra les humains dans le processus de prise de décision.Cela implique également la façon dont ces sous-projets de l'IA seront informés de l'IA et mettront confiance à ses résultats.Certaines questions qui doivent être posées incluent:
2. Robustesse et sécurité techniques
La robustesse et la sécurité techniques exigent que les projets d'IA répondent de manière préventive aux préoccupations concernant les risques associés à l'IA effectuant sans fiabilité et minimisent l'impact de cela.Les résultats du projet d'IA devraient inclure la capacité de l'IA à effectuer de manière prévisible et cohérente, et il devrait couvrir les besoins de l'IA pour être protégés contre les problèmes de cybersécurité.Certaines questions qui doivent être posées en apprend:
3. Confidentialité et gouvernance des données
L'IA doit protéger la confidentialité individuelle et de groupe, à la fois dans ses entrées et ses sorties.L'algorithme ne doit pas inclure des données qui ont été recueillies d'une manière qui viole la vie privée, et elle ne devrait pas donner de résultats qui violent la vie privée des sujets, même lorsque de mauvais acteurs tentent de forcer de telles erreurs.Pour ce faire efficacement, la gouvernance des données doit également être une préoccupation.Les questions appropriées à poser comprennent:
4. Transparence
La transparence couvre les préoccupations concernant la traçabilité dans les résultats individuels et l'explication globale des algorithmes d'IA.La traçabilité permet à l'utilisateur de comprendre pourquoi une décision individuelle a été prise.Il fait également référence à la capacité de l'utilisateur à comprendre quels facteurs sont impliqués dans le processus de prise de décision pour leur prédiction spécifique.Les questions à poser sont:
5. Diversité, non-discrimination
Afin d'être considéré comme une IA responsable, le projet d'IA doit fonctionner pour tous les sous-groupes de personnes aussi bien que possible.Bien que le biais d'IA puisse rarement être éliminé entièrement, il peut être géré efficacement.Cette atténuation peut avoir lieu pendant le processus de collecte de données - pour inclure un contexte plus diversifié de personnes dans l'ensemble de données de formation - et peut également être utilisée au moment de l'inférence pour aider à équilibrer la précision entre différents groupes de personnes.Les questions courantes comprennent:
6. Bien-être sociétal et environnemental
Un projet d'IA doit être évalué en termes d'impact sur les sujets et les utilisateurs ainsi que son impact sur l'environnement.Les normes sociales telles que la prise de décision démocratique, le maintien des valeurs et la prévention de la toxicomanie aux projets de l'IA devraient être confirmés.En outre, les résultats des décisions du projet d'IA sur l'environnement doivent être pris en compte le cas échéant. Un facteur applicable dans presque tous les cas est une évaluation de la quantité d'énergie nécessaire pour former les modèles requis.Questions qui peuvent être posées:
7. Responsabilité
Une personne ou une organisation doit être responsable des actions et des décisions prises par l'AIProject ou rencontrées pendant le développement.Il devrait y avoir un système pour assurer une possibilité adéquate de réception dans les cas où des décisions préjudiciables sont prises.Il devrait également y avoir un certain temps et une attention à la gestion des risques et à l'atténuation.Les questions appropriées comprennent:
La ligne de fond
Les sept valeurs d’IA responsables décrites ci-dessus fournissent un point de départ pour l’initiative d’IA responsable d’une organisation.Les organisations qui choisissent qui poursuivent une IA responsable constateront qu'elles ont de plus en plus accès à plus d'opportunités - comme les soumissions sur les contrats gouvernementaux.Les organisations qui ne mettent pas en œuvre ces pratiques s'exposent aux risques juridiques, éthiques et de réputation.
David Ellison est scientifique des données de l'IA senior chez Lenovo.
La mission de VentureBeat est d'être une place numérique pour les décideurs techniques pour acquérir des connaissances sur la technologie transformatrice des entreprises et les transactions.Apprendre encore plus