跳到主要內容

很遺憾,我們無法支援你的瀏覽器。如果可以,請升級到新版本,或使用 Mozilla Firefox、Microsoft Edge、Google Chrome 或 Safari 14 或更新版本。如果無法升級,而且需要支援,請將你的回饋寄給我們。

我們衷心感謝你對這個新體驗的回饋。告訴我們你的想法(打開新的分頁/視窗)

Elsevier
與我們共同出版

負責任的人工智慧原則

Elsevier 為全球研究人員和醫療專業人員提供資訊為基礎的分析和決策工具,幫助他們推動科學發展,改善醫療成果,造福社會。

十多年來,Elsevier 一直在我們的產品中負責任地使用人工智慧和機器學習技術,結合我們無與倫比的同儕審查內容、廣泛的數據集和複雜的分析技術,幫助研究人員、臨床醫生和教育

我們負責任的人工智慧原則

  1. 工作者發現、推廣和應用可信賴的知識。

  2. 我們考慮我們的解決方案在現實世界中對人們的影響。

  3. 我們採取行動,防止產生或強化不公平的偏見。

  4. 我們可以解釋我們的解決方案是如何運作的。

  5. 我們透過人工監督建立問責制。

  6. 我們尊重隱私,倡導健全的資料管理。

Elsevier 負責任的人工智慧原則 

我們的解決方案,無論是內在的還是外在的,都能增強人類的決策能力。 這種方法以我們對企業責任的承諾為基礎,我們將企業責任定義為我們開展業務的方式,積極主動地努力增加我們的正面影響並防止負面影響。 在提供更高價值解決方案的過程中,我們正在使用越來越先進的分析和技術。 雖然日益複雜的技術、接近決策和對人的潛在影響交織在一起帶來了新的挑戰,但同時也創造了許多造福社會的機會。

負責任的人工智慧原則目的和範圍

.一般而言,我們使用人工智慧(AI)一詞來描述基於機器的系統,這些系統能夠推斷出既定任務的解決方案,並且具有一定程度的自主性。 但是,這些原則的範圍比人工智慧更廣,包括數據科學領域的工具和技術所產生的任何機器驅動的見解。 這些原則為 Elsevier 從事機器驅動洞察力的設計、開發和部署工作的人員提供了高水準的指導。

這些原則提供了一個基於風險的框架,並借鑒了本公司和其他組織的最佳實踐。 各個業務領域負責具體實施這些原則。 Elsevier 擁有適用於人工智慧解決方案的健全政策和流程。 負責任的人工智慧原則旨在對這些原則進行補充。 人工智慧是一個以前所未有的速度和規模不斷發展的領域。 這些原則將根據同事和客戶的回饋,以及行業和立法趨勢不斷更新。 這將使我們能夠未雨綢繆,確保我們的解決方案符合我們的價值觀,並維持我們作為市場思想領導者的地位。

1. 我們考慮解決方案對人們的實際影響

這種程度的反思使我們能夠根據公司的價值觀創造出值得信賴的解決方案。

在認識到我們的解決方案可以幫助客戶做出決策的同時,我們也注意到我們的解決方案可能對人們產生的潛在影響。 人工智慧是為我們的客戶和我們自己的公司解決業務問題的一種方法,意味著一系列假設和特定的現實世界背景。 對背景理解得越透徹,對我們的假設認識得越清楚,我們創造的解決方案就越好,為客戶帶來的附加價值就越高。

我們不僅要問"我們要建造什麼,客戶是誰?我們力求確定從我們的解決方案中受益的人群範圍和受益方式,以及可能受到影響的人群和影響的原因。為此,我們要界定解決方案 的影響範圍。除直接客戶外,我們還繪製利益相關者地圖,並思考解決方案適用的領域--人們的健康、生計(包括職業前景)或權利是否會受到任何影響?這些見解使我們能夠考慮 特定解決方案的影響。

2. 我們採取行動,防止產生或強化不公平的偏見

這樣才能取得高品質的成果,避免歧視。

身為《聯合國全球契約》的支持者,促進公平和非歧視是我們經營理念和價值的核心。 我們知道,數學上的準確性並不能保證沒有偏見,因此我們會採取行動,防止產生或強化不公平的偏見。 如果不採取這些措施,就可能透過資料輸入和/或機器處理或演算法無意中引入偏見。 一旦引入偏見,就會透過數據科學、產品管理和技術領域的人類決策複製。

這會導致結果出現偏差,進而降低產出的價值。 它還可能導致基於性別、種族、社會經濟地位和其他個人屬性的個人或群體的不利結果。 我們為防止產生或強化不公平的偏見而採取的行動包括實施程序、廣泛的審查和記錄過程,以及使用可用的自動偏見檢測工具等。

3. 我們可以解釋我們的解決方案如何運作

適當的透明度可為使用者和監管機構帶來可信度。

這項原則並不規定建立和使用什麼模型,也不禁止使用 "封閉式 "模型。 其目的是為每種應用程式和用例提供適當的透明度,以確保不同的使用者能夠理解和信任產出結果。

不同的環境和受眾需要不同的解釋。 作為設計流程的一部分,我們會考慮解決方案中哪些元素需要解釋,需要向誰解釋,以及如何解釋。 我們也會評估解決方案的可靠性,並明確其預期用途。

4. 我們透過人工監督建立問責制

我們的技術可以幫助我們的客戶在決策過程中做出明智的選擇。

我們的技術有助於客戶的決策過程。 重要的是,人類對人工智慧系統的開發、使用和結果擁有自主權並承擔責任。 我們在解決方案的整個生命週期中實行人工監督。 這是確保我們解決方案的品質和適當性能的核心。

一旦解決方案離開我們的掌控,這意味著客戶將成為最終決策者。 我們解決方案的使用受一系列商定的條款和條件以及適用法律的控制。 我們要求客戶對這些要求負責。 客戶支援同事在確保客戶理解預期用途和內部團隊妥善處理品質問題方面發揮重要作用。

5. 我們尊重隱私,倡導穩健的資料管理

這確保我們繼續被公認為值得信賴的資訊解決方案提供者。

資料的適當收集、再現、使用和保護對我們作為資訊和分析企業的長期成功至關重要。 隨著我們對資料資產的維護和擴展,以及對產生洞察力的新方法的探索,我們認識到強大的資料管理至關重要。 人工智慧系統在獲得大量高品質數據的情況下,才能更準確地運行,而且有些數據集是跨解決方案、多用途使用的。 我們需要確保制定強有力的資料管理和安全政策與程序。

某些資料集包括個人資訊。 我們承諾按照所有適用的隱私法律法規以及我們自己的隱私原則處理個人訊息,這些原則要求我們始終以負責任的方式管理個人資訊。