人工智能必須具有包容性。我們認識到,在數據集和人工智能模型中,知識、文化遺產和文化價值的缺乏存在被濫用和歪曲的風險。我們重申構建合乎倫理的、透明的和負責的框架具有重要意義,例如聯合國教科文組織提出的《人工智能倫理問題建議書》。人工智能系統的研發必須充分尊重各國語言、文化、種族、地理及人口多樣性。我們為此應開展國際合作,來訓練全面、多語種、包容的優質數據集,并培育本土人工智能人才。
必須著力減輕歧視性偏見。我們需要有力工具識別并減少錯誤及負面算法偏差,確保獨立審計機制以維護公平,制定針對偏見風險的評估標準,避免歧視性和排他性現象。使用歧視性數據訓練的人工智能系統,往往對女性、少數族裔、殘障人士以及兒童、青少年、老年人等弱勢群體影響最為嚴重。推動不同背景人員開展跨學科合作對制定標準、提升模型運行與輸出的可解釋性、制定切實可行的治理策略至關重要,有助于防范負面偏見,支持負責任、公平地開發人工智能系統。
必須將公共利益置于首位。我們將秉持以人為本的理念,構建和諧的人機交互關系,始終將人工智能作為提升人類自身能力的有力工具,確保人類對人工智能的最終控制權和監督權。我們將構建人類監督機制、提升人工智能決策透明度和健全有效的問責體系作為優先事項,以負責任且安全的方式推進技術研發與應用,降低相關風險,實現社會效益最大化。
必須堅持以事實為基礎。人工智能生成的虛假文本、圖像、音頻及視頻內容對信息真實性和完整性構成嚴峻威脅,可能引發輿論操控、社會動蕩,影響公共機構公信力。我們將采取多維治理方式,提升信息完整性,強化媒體教育策略和地方傳播工作,包括研發快速識別虛假信息和錯誤信息的工具,提升個體數字素養與批判性思維以增強網絡內容鑒別力,制定明確的倫理準則與法規,在保護隱私權與數據安全的同時,滿足人工智能在信息傳播領域的開發和應用。
人工智能系統必須堅守安全與信任。我們認識到,需要實現人工智能安全、符合倫理、可信賴且負責任的發展,造福全人類。各國必須在遵循本國政策與安全考量的前提下,協同推動人工智能技術創新與可及性,同時應對人工智能技術引發的即時與長期風險。我們重申,攜手應對并防范人工智能技術惡意應用的有關風險的重要性。應審慎設計人工智能系統及其他信息通信技術,使其能有效檢測并防止技術濫用,例如欺詐、計算機攻擊、網絡犯罪或數據操縱等。
版權申明:本內容來自于互聯網,屬第三方匯集推薦平臺。本文的版權歸原作者所有,文章言論不代表鏈門戶的觀點,鏈門戶不承擔任何法律責任。如有侵權請聯系QQ:3341927519進行反饋。