Des chercheurs de l'Université de Toronto et de l'Université de Cambridge se penchent sur la façon dont l'âgisme-préjugé contre les individus en fonction de l'âge-peut être codé dans des technologies telles que l'intelligence artificielle, que beaucoup d'entre nous rencontrent maintenant quotidiennement.
Ce biais lié à l'âge dans l'IA, également appelé « âge numérique », est exploré dans un nouvel article dirigé par Charlene Chu, une scientifique affiliée à la branche de recherche sur le cerf-volant du Toronto Rehabilitation Institute, qui fait partie du University Health Network (Uhn), et professeure adjointe à la Lawrence S. Bloomberg Faculty of Nursing.
L'article a récemment été publié dans The Gerontologist, le principal journal de gérontologie.
« la pandémie de COVID-19 a accru notre prise de conscience de la dépendance de notre société à l'égard de la technologie », explique M. Chu. « un grand nombre d'adultes âgés se tournent vers la technologie dans leur vie quotidienne, ce qui a créé un sentiment d'urgence pour les chercheurs d'essayer de comprendre l'âgisme numérique et les risques et les inconvénients associés aux biais de l'IA. »
Chu et son équipe de recherche composée de juristes, d'informaticiens, de philosophes et de spécialistes des sciences sociales en bioéthique et en gérontologie, notent que les stéréotypes sont profondément enracinés dans les algorithmes d'IA, des recherches récentes se concentrant sur des exemples de préjugés raciaux et sexistes. Les solutions pour traiter le biais de l'IA, cependant, ne sont pas simples, dit Chu. Elle et son équipe suggèrent qu'il y a une série de « cycles d'injustice » qui se produisent dans le développement de la technologie, de la conception au stade précoce à la mise à l'essai et à la mise en œuvre.
« cumulativement, ces cycles produisent un biais implicite qui est cuit dans la fonction de la technologie qui exclut les personnes âgées d'une manière disproportionnée », dit-elle.
Rebecca Biason de Bloomberg Nursing a récemment parlé avec Chu de son travail et des implications de l'âgisme numérique pour les personnes âgées.
Comment la technologie ou les applications pourraient-elles perpétuer l'âgisme numérique?
Il y a plusieurs façons que la technologie alimentée par l'IA peut prendre sur les biais liés à l'âge-certains sont plus évidents que d'autres. La plupart des applications créées pour les personnes âgées ont tendance à se concentrer sur les maladies chroniques et la gestion des soins de santé, et sont rarement associées au plaisir ou aux loisirs. Au lieu de cela, la technologie créée pour les personnes âgées a tendance à les voir avec une lentille biomédicale, générant une technologie axée sur un besoin lié à la santé.
Cette représentation âgiste des personnes âgées se répercute dans la conception de la technologie. Les aspects normaux du vieillissement, tels que les différences dans la fonction motrice ou la perception, ne sont pas pris en considération. C'est l'un des « cycles d'injustice » qui perpétue les préjugés liés à l'âge décrits dans mon article et qui sous-tend l'exclusion des voix et des données des personnes âgées.
Comment l'exclusion des personnes âgées contribue-t-elle à l'âgisme numérique?
Les données utilisées pour construire divers modèles et algorithmes ont ensuite un impact sur les performances de l'algorithme. Spécifiques aux biais liés à l'âge, les personnes âgées sont le groupe d'individus à la croissance la plus rapide utilisant la technologie, mais une grande partie des données utilisées pour construire des systèmes d'IA sont basées sur des personnes plus jeunes. Ceci, à son tour, génère des applications et des technologies qui ne sont pas conçues pour les personnes âgées, de sorte qu'elles ne les utilisent pas.
Cette inadéquation dans la conception et la technologie contribue à un manque de données des personnes âgées, ce qui amplifie leur exclusion tout au long du pipeline de la création technologique.
L'âgisme est le parti pris le plus socialement accepté malgré le fait que c'est une éventualité pour nous tous. Au fur et à mesure que la démographie des populations commence à changer, de plus en plus d'adultes âgés se tourneront vers une technologie qui n'est pas conçue pour eux.
Une partie de nos travaux futurs consiste à illustrer efficacement à quel point l'âgisme est intégré dans l'IA et le développement technologique et à suggérer des moyens de l'atténuer.
Quelles sont certaines de vos premières recommandations pour aborder l'âgisme numérique pour les personnes âgées?
La prise de conscience de l'âgisme numérique est la première étape-et est essentielle pour aller de l'avant. L'âge croise d'autres dimensions de la vulnérabilité et devrait être abordé. Une recommandation structurelle est de discuter de la nécessité d'une co-conception interdisciplinaire-c'est-à-dire d'inclure les personnes âgées dans la conception de la technologie dès le début et non à la fin, et des ensembles de données plus représentatifs des personnes âgées.
Une chose que mon équipe a fait a été de passer au peigne fin l'inventaire mondial des lignes directrices en matière d'éthique de l'IA, qui est un référentiel qui compile des documents de recommandation sur la façon dont les systèmes d'IA peuvent mener une prise de décision automatisée éthique. Bon nombre de ces lignes directrices ont souligné l'équité comme un principe éthique clé, ainsi que la nécessité de réduire les préjugés. Parmi ces près de 150 documents créés par des organisations établies, des gouvernements et des groupes internationaux, nous avons trouvé très peu de mention de l'âge, des préjugés d'âge ou de l'âgisme par rapport aux préjugés raciaux ou sexuels.
Maintenant, mon équipe essaie de déterminer les implications sociétales et éthiques, ainsi que le degré de préjudice causé actuellement en ce qui concerne l'âgisme numérique. Le travail est fondamental pour attirer l'attention sur cette question alors que nous avons entrepris de définir le problème.