跳到主要內容

很遺憾,我們無法支援你的瀏覽器。如果可以,請升級到新版本,或使用 Mozilla Firefox、Microsoft Edge、Google Chrome 或 Safari 14 或更新版本。如果無法升級,而且需要支援,請將你的回饋寄給我們。

我們衷心感謝你對這個新體驗的回饋。告訴我們你的想法(打開新的分頁/視窗)

Elsevier
與我們共同出版
Connect

在您的機構中培養人工智慧素養的關鍵組成部分

2024年1月16日 | 7 最小讀取時間

Two women sit at a computer talking

在未來,人工智慧產生的資訊不僅豐富,而且可信、可靠,人人都能獲取,圖書館員在塑造這樣的未來中不可或缺。

在一個資訊豐富且廣泛傳播的時代,人工智慧(AI)的崛起顯著改變了我們獲取和與資訊互動的方式。 然而,隨著對 AI 產生的內容的依賴增加,使用者對於 AI 生成資訊的真實性和可信度的關鍵問題也成為了一個亟待解決的問題。 人工智慧產生的內容往往會為使用者帶來複雜的資訊網絡,瀏覽起來具有挑戰性。

此外,人工智慧演算法的不透明性和決策過程缺乏透明度也會讓使用者產生懷疑和疑慮。 人工智慧產生的資訊有多可靠? 評估人工智慧技術可信度的框架是什麼?

在這種情形背景下,圖書館員以其在資訊管理、驗證和傳播方面的專業知識而聞名,在彌合用戶和人工智慧生成資訊之間的差距方面具有獨特的優勢。 圖書館員可以充當解釋者和調解者,促進更深入地了解人工智慧技術的複雜性及其對資訊檢索的影響。 圖書館員還可以透過支援人工智慧素養和倡導人工智慧系統的透明度來增強用戶信任。

教育使用者:校園人工智慧素養

要開始對人工智慧進行評估,使用者首先必須了解人工智慧或具備人工智慧素養。 人工智慧素養包括認識、理解、使用和評估人工智慧,以及考慮倫理問題(Ng 等人,2021 年)。 具備人工智慧素養的人也了解機器學習、自然語言處理和神經網路等人工智慧基本概念。 為了讓學生、研究人員和教職員工掌握駕馭這一複雜局面的必要技能,圖書館需要優先開發培訓資源,使個人能夠仔細研究與人工智慧應用相關的資訊。 當圖書館使用者掌握了人工智慧的能力和限制後,他們就能正確評估人工智慧驅動的工具和資源。

人工智慧素養概念可以透過許多傳統的素養途徑來教授,例如資訊素養、媒體素養和數位素養。 請記住,您無需成為電腦專家即可建立或參加人工智慧素養研討會。 人工智慧素養的關鍵不在於技術專業知識,而是培養批判性思考。

除了對人工智慧概念的基本掌握之外,人工智慧素養還涉及批判性評估人工智慧技術的能力。 使用結構化方法或特定的提問策略進行評估可以在促進更有意義的討論中發揮關鍵作用,最終提高理解和批判性評估。 以下是開始此過程的一些技巧,以及為指導非技術人員量身定制的結構化問題。

兩個女人看著電腦螢幕

機器人測試

一種特別有用的資源被稱為機器人測試(Wheatley 和 Hervieux,2020)。 它由麥吉爾大學的兩位圖書館員 Amanda Wheatley 和 Sandy Hervieux 開發,為人工智慧新手評估與人工智慧技術相關的新資訊提供結構化框架。

ROBOT 是可靠性、客觀性、偏見、所有權和類型的縮寫,它描述了評估人工智慧工具資訊的關鍵標準。 首字母縮寫中的每個單字都包含一組問題,引導使用者完成全面的評估過程。 例如,要辨別人工智慧工具的類型,使用者可以提出以下問題:

  • 它屬於人工智慧的哪個具體類別?

  • 該技術更多的是一個概念還是實際應用的東西?

  • 它依賴於什麼類型的資訊系統?

  • 是否需要人類參與?

機器人測試的完整大綱及其提示使用者提出的問題可以在麥吉爾圖書館人工智慧素養網站(打開新的分頁/視窗)上找到。

評估和發展可解釋性

人工智慧素養還包括評估和解釋這些技術的能力。 新使用者可能會把人工智慧系統看成一個 "黑盒子",資訊進入系統後,系統會給出答案,而使用者並不了解系統是如何得出答案的。 有了更好的解釋,使用者就能看到黑盒子裡的訊息,並思考輸入的資訊是如何被用來產生結果的。 這是建立使用者信任的重要一步。 圖書館員可以而且應該倡導提高人工智慧系統的透明度,鼓勵開發人員和科技公司揭露人工智慧生成內容的內部運作。

一位女士站在一群正在上課的學生面前

然而,人工智慧系統的複雜性往往會在開發人員與最終使用者的對話中構成挑戰。 尤其是非技術人員,他們可能會發現,即使有機會尋求解釋,要有效地表達自己的疑問也很困難。 畢竟,你不知道自己不知道什麼。 如果對主題不甚了解,就很難預測適當的問題。 這凸顯了使用者在評估更複雜的人工智慧系統之前熟悉基本人工智慧概念的必要性。

在接下來的兩個單元中,我們將介紹解釋的類型和可解釋性的關鍵組成部分,並提出一些示例性問題,以指導使用者探索和評估人工智慧系統。

人工智慧系統的解釋類型

解釋首先要了解機器學習(ML)系統的能力(Cabitza et al, 2023)。 這包括認識到這些系統能為使用者提供什麼或不能提供什麼,並認識到在哪些領域仍需要人類決策者提供解釋和判斷。

然後,使用者可以開始研究人工智慧系統的功能、產出結果等。 在最近的一篇論文中,Cabitza 等人全面概述了人工智慧系統的各類解釋及其品質評估標準(2023 年)。 他們提出了尋求人工智慧系統解釋的以下關鍵問題:

  • Computational explanation: How does the algorithm A produce any output O? 

  • Mechanistic explanation: Why does the algorithm A have produced the output O? 

  • Justificatory explanation: Why is the output O right? 

  • Causal explanation: What is the physical phenomenon that causes O? 

  • Informative explanation: What does the output O mean? 

  • Cautionary explanation: What is the uncertainty behind the output O?” 

  • 計算解釋: 演算法 A 如何產出 O?

  • 機制解釋: 演算法 A 為什麼會產出 O?

  • 合理性解釋: 為什麼產出 O 是正確的?

  • 因果解釋: 導致產出的物理現像是什麼?

  • 資訊性解釋: 產出 O 代表什麼?

  • 警示性解釋: 產出 O 背後的不確定性是什麼?

透過這些不同領域的解釋,使用者可以逐漸揭開人工智慧系統的“黑盒子”,並增加在使用人工智慧系統作為研究或課程指導工具時的信心。

Key components of explainability

What counts as a good explanation for AI? To aid in establishing the criteria for explaining AI systems, Balasubramaniam and colleagues (2023) proposed a framework outlining the key components of explainability. This model serves as a guide for practitioners, helping them pinpoint the specific requirements for explainability by addressing crucial inquiries:   

  • Addressees (Ask yourself to whom the explainer tries to explain?)   

  • Aspects (What to explain?) 

  • Context (What are the contextual situations requiring explanation?) 

  • Explainer (Who explains?) 

Encourage users to seek answers to each of these components when asking questions to explain AI systems. 

Elsevier 認為,透明度和可解釋性已成為人工智慧系統的新品質要求。 在其 "可解釋的人工智慧"(Explainable AI)系統中,下面這段綜合影片解釋了 Scopus AI 背後的技術。

請觀看下面的影片

提示:觀看影片時,請嘗試應用文章中的評估框架和關鍵問題。

The technology behind Scopus AI

The Technology behind Scopus AI

圖書館員可以建立對人工智慧技術的信任

透過積極參與人工智慧素養計劃,圖書館員可以發揮重要作用,幫助使用者就人工智慧產生資訊的可信度做出明智的決策。 透過他們在資訊素養方面的專業知識以及對促進透明和道德資訊實踐的承諾,圖書館員可以灌輸對人工智慧技術可靠性的信任感和信心。

為了培養使用者對人工智慧技術的信任,圖書館員、人工智慧開發者和政策制定者之間的合作至關重要。 建立一種優先考慮透明度、教育和道德因素的多學科方法,可以為建立一個更值得信賴、更負責任的人工智慧生態系統鋪平道路。 在塑造人工智慧產生的資訊不僅豐富,而且可信、可靠、人人可獲得的未來方面,圖書館員是不可或缺的

參考文獻

Abedin, B., Meske, C., Rabhi, F., & Klier, M. (2023). Introduction to the minitrack on explainable artificial intelligence (XAI). 

Balasubramaniam, N., Kauppinen, M., Rannisto, A., Hiekkanen, K., & Kujala, S. (2023). Transparency and explainability of AI systems: From ethical guidelines to requirements. Information and Software Technology, 159, 107197. 

Borrego-Díaz, J., & Galán-Páez, J. (2022). Explainable Artificial Intelligence in Data Science: From Foundational Issues Towards Socio-technical Considerations. Minds and Machines, 32(3), 485-531. 

Buijsman, S. (2022). Defining explanation and explanatory depth in XAI. Minds and Machines, 32(3), 563-584. 

Cabitza, F., Campagner, A., Malgieri, G., Natali, C., Schneeberger, D., Stoeger, K., & Holzinger, A. (2023). Quod erat demonstrandum?-Towards a typology of the concept of explanation for the design of explainable AI. Expert Systems with Applications, 213, 118888. 

Kangra, K., & Singh, J. (2022). Explainable Artificial Intelligence: Concepts and Current Progression. In Explainable Edge AI: A Futuristic Computing Perspective (pp. 1-17). Cham: Springer International Publishing. 

Kasinidou, M. (2023, June). AI Literacy for All: A Participatory Approach. In Proceedings of the 2023 Conference on Innovation and Technology in Computer Science Education V. 2 (pp. 607-608). https://doi.org/10.1145/3587103.3594135(打開新的分頁/視窗)

Kong, S. C., Cheung, W. M. Y., & Zhang, G. (2022). Evaluating artificial intelligence literacy courses for fostering conceptual learning, literacy and empowerment in university students: Refocusing to conceptual building. Computers in Human Behavior Reports, 7, 100223. https://doi.org/10.1016/j.chbr.2022.100223(打開新的分頁/視窗)

Nagahisarchoghaei, M., Nur, N., Cummins, L., Nur, N., Karimi, M. M., Nandanwar, S., ... & Rahimi, S. (2023). An empirical survey on explainable ai technologies: Recent trends, use-cases, and categories from technical and application perspectives. Electronics, 12(5), 1092. 

Ng, D. T. K., Leung, J. K. L., Chu, K. W. S., & Qiao, M. S. (2021). AI literacy: Definition, teaching, evaluation and ethical issues. Proceedings of the Association for Information Science and Technology, 58(1), 504-509. https://doi.org/10.1002/pra2.487(打開新的分頁/視窗)

Hervieux, S. & Wheatley, A. (2020). The ROBOT test [Evaluation tool]. The LibrAIry. https://thelibrairy.wordpress.com/2020/03/11/the-robot-test(打開新的分頁/視窗)

Quakulinski, L., Koumpis, A., & Beyan, O. D. (2023). Transparency in Medical Artificial Intelligence Systems. International Journal of Semantic Computing