Passer au contenu principal

Votre navigateur n’est malheureusement pas entièrement pris en charge. Si vous avez la possibilité de le faire, veuillez passer à une version plus récente ou utiliser Mozilla Firefox, Microsoft Edge, Google Chrome, ou Safari 14 ou plus récent. Si vous n’y parvenez pas et que vous avez besoin d’aide, veuillez nous faire part de vos commentaires.

Nous vous serions reconnaissants de nous faire part de vos commentaires sur cette nouvelle expérience.Faites-nous part de votre opinion(S’ouvre dans une nouvelle fenêtre)

Elsevier
Publier avec nous
Connect

Éléments clés du la culture de l'IA dans votre établissement

16 janvier 2024 | Lecture de 7 min

Two women sit at a computer talking

Les documentalistes sont indispensables pour façonner un avenir où l'information générée par l'IA est non seulement abondante, mais aussi crédible, fiable et accessible à tous.

À une époque où l'information est abondamment générée et diffusée, l'essor de l'intelligence artificielle (IA) a considérablement transformé la manière dont nous accédons à l'information et interagissons avec elle. Toutefois, à mesure que la dépendance à l'égard du contenu généré par l'IA s'accroît, la question cruciale de la confiance des utilisateurs dans l'authenticité et la crédibilité des informations générées par l'IA se pose avec acuité. Le contenu généré par l'IA présente souvent aux utilisateurs un réseau complexe d'informations dans lequel il peut être difficile de naviguer.

En outre, l'opacité des algorithmes d'IA et le manque de transparence des processus décisionnels peuvent susciter le scepticisme et le doute chez les utilisateurs. Quelle est la fiabilité des informations produites par l'IA ? Quels sont les cadres permettant d'évaluer la crédibilité des technologies de l'IA ?

Dans ce contexte, les documentalistes, réputés pour leur expertise en matière de conservation, de vérification et de diffusion de l'information, sont particulièrement bien placés pour combler le fossé entre les utilisateurs et l'information générée par l'IA. Les documentalistes peuvent servir d'interprètes et de médiateurs, en facilitant une meilleure compréhension des subtilités des technologies de l'IA et de leur impact sur la recherche d'informations. Les documentalistespeuvent également renforcer la confiance des utilisateurs en soutenant la formation à l'IA et en plaidant pour la transparence des systèmes d'IA.

Éduquer les utilisateurs : L'éducation à l'IA sur les campus

Pour commencer à évaluer l'IA, les utilisateurs doivent d'abord la comprendre ou se familiariser avec elle. La maîtrise de l'IA consiste à connaître, comprendre, utiliser et évaluer l'IA, ainsi qu'à prendre en compte les questions éthiques (Ng, et al, 2021). Les personnes compétentes en matière d'IA comprennent également les concepts fondamentaux de l'IA tels que l'apprentissage automatique, le traitement du langage naturel et les réseaux neuronaux. Afin de doter les étudiants, les chercheurs et les enseignants des compétences nécessaires pour naviguer dans ce paysage complexe, les bibliothèques doivent donner la priorité au développement de ressources de formation qui permettent aux individus d'examiner minutieusement les informations fournies par les applications de l'IA. Lorsque les utilisateurs des bibliothèques comprennent les capacités et les freins de l'IA, ils peuvent évaluer correctement les outils et les ressources basés sur l'IA.

Les concepts de la maîtrise de l'IA peuvent être enseignés dans de nombreux domaines traditionnels de la littératie, tels que la maîtrise de l'information, la maîtrise des médias et la littératie numérique. N'oubliez pas qu'il n'est pas nécessaire d'être un expert en informatique pour créer ou participer à des ateliers d'initiation à l'IA. L'essentiel de la maîtrise de l'IA ne réside pas dans l'expertise technique, mais dans la promotion de la pensée critique.

Outre une compréhension fondamentale des concepts de l'IA, la culture de l'IA implique également la capacité d'évaluer de manière critique les technologies de l'IA. L'utilisation d'une approche structurée ou de stratégies de questionnement spécifiques pour l'évaluation peut jouer un rôle central en facilitant des discussions plus significatives, conduisant finalement à une meilleure compréhension et à une évaluation critique. Vous trouverez ci-dessous quelques techniques pour entamer ce processus, ainsi que des questions structurées conçues pour guider les personnes non techniques.

Two women looking at a computer screen

Le test ROBOT

Une ressource particulièrement utile est connue sous le nom de test ROBOT (Wheatley et Hervieux, 2020). Il a été développé par deux documentalistes de l'Université McGill, Amanda Wheatley et Sandy Hervieux, afin d'offrir un cadre structuré permettant aux personnes qui ne connaissent pas l'IA d'évaluer les nouvelles informations relatives à la technologie de l'IA.

ROBOT, acronyme de reliability, objective, bias, ownership, and type( fiabilité, objectif, partialité, propriétéet type), définit des critères clés pour l'évaluation des informations sur les outils d'IA. Chaque mot de l'acronyme comprend une série de questions qui guident les utilisateurs dans un processus d'évaluation complet. Par exemple, pour discerner le type d'outil d'intelligence artificielle, les utilisateurs peuvent poser des questions comme celles-ci :

  • À quelle catégorie spécifique d'IA appartient-elle ?

  • La technologie relève-t-elle davantage d'un concept ou d'une utilisation pratique ?

  • De quel type de système d'information dépend-il ?

  • Nécessite-t-il une implication humaine ?

Une présentation complète du test ROBOT et des questions qu'il invite l'utilisateur à poser est disponible sur le site AI Literacy de la bibliothèque de McGill(S'ouvre dans une nouvelle fenêtre)(S’ouvre dans une nouvelle fenêtre).

Évaluation et développement de l'explicabilité

La maîtrise de l'IA implique également d'être capable d'évaluer et d'expliquer ces technologies. Les nouveaux utilisateurs sont susceptibles de considérer un système d'IA comme une "boîte noire" dans laquelle des informations sont introduites dans le système et une réponse en ressort sans que l'on comprenne comment le système est parvenu à cette réponse. Une meilleure explication permet aux utilisateurs de voir dans la boîte noire et d'examiner comment les données d'entrée sont utilisées pour créer les données de sortie. Il s'agit d'une étape essentielle dans la construction de la confiance des utilisateurs. Les documentalistes peuvent et doivent plaider en faveur d'une plus grande transparence des systèmes d'IA et encourager les développeurs et les entreprises technologiques à divulguer le fonctionnement interne des contenus générés par l'IA.

Woman standing in front of a group of students leading a class

Cependant, la nature complexe des systèmes d'IA pose souvent un problème lors des dialogues entre les développeurs et les utilisateurs finaux. Les personnes non spécialisées, en particulier, peuvent éprouver des difficultés à formuler efficacement leurs demandes, même lorsqu'elles ont la possibilité de demander des explications. Après tout, vous ne savez pas ce que vous ne savez pas. Si vous ne connaissez pas bien le sujet, il est difficile de prévoir les questions appropriées. Cela souligne la nécessité pour les utilisateurs de se familiariser avec les concepts de base de l'IA avant d'évaluer les systèmes d'IA plus complexes.

Dans les deux sections suivantes, nous présentons les types d'explications et les éléments clés de l'explicabilité, ainsi que des questions exemplaires destinées à guider les utilisateurs dans leur exploration et leur évaluation des systèmes d'IA.

Types d'explications des systèmes d'IA

L'explication commence par la compréhension des capacités des systèmes d'apprentissage automatique (Cabitza et al, 2023). Il s'agit notamment de reconnaître ce que ces systèmes peuvent ou ne peuvent pas offrir aux utilisateurs et de reconnaître les domaines dans lesquels les décideurs humains doivent encore faire preuve d'interprétation et de jugement.

Les utilisateurs peuvent alors commencer à examiner la fonctionnalité du système d'IA, ses résultats et bien d'autres choses encore. Dans un article récent, Cabitza et al. ont présenté une vue d'ensemble complète identifiant les différents types d'explications des systèmes d'IA et les critères d'évaluation de leur qualité (2023). Ils ont proposé les questions clés suivantes dans la recherche d'explications pour les systèmes d'IA : "

  • Explication computationnelle : Comment l'algorithme A produit-il une sortie O quelconque ?

  • Explication mécaniste : Pourquoi l'algorithme A a-t-il produit la sortie O ?

  • Explication justificative : Pourquoi la sortie O est-elle correcte ?

  • Explication causale : Quel est le phénomène physique à l'origine de O ?

  • Explication informative : Que signifie la sortie O ?

  • Explication de prudence : Quelle est l'incertitude qui se cache derrière la sortie O ?"

En parcourant ces différents domaines d'explication, les utilisateurs peuvent commencer à démystifier la "boîte noire" d'un système d'IA et gagner en confiance dans l'utilisation des systèmes d'IA en tant qu'outils pour naviguer dans leurs recherches ou leurs travaux de cours.

Les éléments clés de l'explicabilité

Qu'est-ce qui constitue une bonne explication de l'IA ? Pour aider à établir les critères d'explication des systèmes d'IA, Balasubramaniam et ses collègues (2023) ont proposé un cadre décrivant les composantes clés de l'explicabilité. Ce modèle sert de guide aux praticiens, les aidant à déterminer les exigences spécifiques en matière d'explicabilité en répondant à des questions cruciales :

  • Destinataires (demandez-vous à qui l'explicateur tente d'expliquer ?)

  • Aspects (Que faut-il expliquer ?)

  • Contexte (quelles sont les situations contextuelles nécessitant une explication ?)

  • Explicatif (Qui explique ? )

Encouragez les utilisateurs à chercher des réponses à chacun de ces éléments lorsqu'ils posent des questions pour expliquer les systèmes d'IA.

Elsevier reconnaît que la transparence et l'explicabilité sont devenues des exigences de qualité émergentes pour les systèmes d'IA. Dans le cadre de son système Explainable AI, la vidéo complète ci-dessous explique la technologie qui sous-tend l'IA de Scopus.

Regardez la vidéo ci-dessous ↓

Conseil : essayez d'appliquer les cadres d'évaluation et les questions clés ci-dessus dans l'article lorsque vous regardez la vidéo

The technology behind Scopus AI

The Technology behind Scopus AI

Les documentalistes peuvent renforcer la confiance dans les technologies d'IA

En s'engageant activement dans des initiatives de formation à l'IA, les documentalistes peuvent jouer un rôle déterminant pour permettre aux utilisateurs de prendre des décisions éclairées sur la crédibilité des informations générées par l'IA. Grâce à leur expertise en matière de maîtrise de l'information et à leur engagement à promouvoir des pratiques d'information transparentes et éthiques, les b documentalistes peuvent inspirer un sentiment de confiance dans la fiabilité des technologies de l'IA.

Pour favoriser la confiance des utilisateurs dans les technologies d'IA, la collaboration entre les documentalistes, les développeurs d'IA et les décideurs politiques est essentielle. L'établissement d'une approche multidisciplinaire qui donne la priorité à la transparence, à l'éducation et aux considérations éthiques peut ouvrir la voie à un écosystème de l'IA plus fiable et plus responsable. Les documentalistes sont indispensables pour façonner un avenir où l'information générée par l'IA est non seulement abondante, mais aussi crédible, fiable et accessible à tous.

BIBLIOGRAPHIE

Abedin, B., Meske, C., Rabhi, F. et Klier, M. (2023). Introduction au minitrack sur l'intelligence artificielle explicable (XAI).

Balasubramaniam, N., Kauppinen, M., Rannisto, A., Hiekkanen, K. et Kujala, S. (2023). Transparence et explicabilité des systèmes d'IA : Des lignes directrices éthiques aux exigences.information and Software Technology,159, 107197.

Borrego-Díaz, J., et Galán-Páez, J. (2022). L'intelligence artificielle explicable en science des données : From Foundational Issues Towards Socio-technical Considerations.minds and Machines,32(3), 485-531.

Buijsman, S. (2022). Définir l'explication et la profondeur explicative dans l'IAO.minds and Machines,32(3), 563-584.

Cabitza, F., Campagner, A., Malgieri, G., Natali, C., Schneeberger, D., Stoeger, K., & Holzinger, A. (2023). Quod erat demonstrandum?-Towards a typology of the concept of explanation for the design of explainable AI (Vers une typologie du concept d'explication pour la conception d'une IA explicable).expert Systems with Applications,213, 118888.

Kangra, K. et Singh, J. (2022). Intelligence artificielle explicable : Concepts et progrès actuels. DansExplainable Edge AI : A Futuristic Computing Perspective(pp. 1-17). Cham : Springer International Publishing.

Kasinidou, M. (2023, juin). L'alphabétisation AI pour tous : Une approche participative. InProceedings of the 2023 Conference on Innovation and Technology in Computer Science Education V. 2(pp. 607-608). https://doi.org/10.1145/3587103.3594135(S'ouvre dans une nouvelle fenêtre)(S’ouvre dans une nouvelle fenêtre)

Kong, S. C., Cheung, W. M. Y. et Zhang, G. (2022). Évaluation des cours d'initiation à l'intelligence artificielle pour favoriser l'apprentissage conceptuel, l'alphabétisation et l'autonomisation des étudiants universitaires : Recentrage sur la construction conceptuelle. Computers in Human Behavior Reports, 7, 100223. https://doi.org/10.1016/j.chbr.2022.100223(S'ouvre dans une nouvelle fenêtre)(S’ouvre dans une nouvelle fenêtre)

Nagahisarchoghaei, M., Nur, N., Cummins, L., Nur, N., Karimi, M. M., Nandanwar, S., ... & Rahimi, S. (2023). Enquête empirique sur les technologies de l'intelligence artificielle explicable : Recent trends, use-cases, and categories from technical and application perspectives.electronics,12(5), 1092.

Ng, D. T. K., Leung, J. K. L., Chu, K. W. S. et Qiao, M. S. (2021). Connaissance de l'IA : Définition, enseignement, évaluation et questions éthiques.proceedings of the Association for Information Science and Technology,58(1), 504-509. https://doi.org/10.1002/pra2.487(S'ouvre dans une nouvelle fenêtre)(S’ouvre dans une nouvelle fenêtre)

Hervieux, S. et Wheatley, A. (2020). Le test ROBOT [Outil d'évaluation]. The LibrAIry. https://thelibrairy.wordpress.com/2020/03/11/the-robot-test(S'ouvre dans une nouvelle fenêtre)(S’ouvre dans une nouvelle fenêtre)

Quakulinski, L., Koumpis, A. et Beyan, O. D. (2023). Transparence dans les systèmes d'intelligence artificielle médicale.international Journal of Semantic Computing.