• <blockquote id="yoygm"></blockquote>
    <nav id="yoygm"></nav>
  • <dd id="yoygm"><optgroup id="yoygm"></optgroup></dd>
    首頁 報告正文

    聯合國教科文組織發布《人工智能倫理建議書》

      近日,聯合國教科文組織在法國巴黎發布了《人工智能倫理建議書》,這是全球首個針對人工智能倫理制定的規范框架。

      《人工智能倫理建議書》明確了規范人工智能技術的10大原則和11個行動領域,是迄今為止全世界在政府層面達成的最廣泛的共識,是全球人工智能發展的共同綱領,并將為進一步形成人工智能有關的國際標準、國際法等提供強有力的參考。

      據悉,《人工智能倫理建議書》于2018年春季立項,由全球遴選的24人專家團撰寫,經歷了193個成員國之間超過100小時的多邊談判修訂完成,于今年在聯合國教科文組織第41屆大會上獲得通過。

      建議書給出了一個人工智能的定義:

      “將人工智能系統視為有能力以類似于智能行為的方式處理數據和信息的系統,通常包括推理、學習、感知、預測、規劃或控制等方面?!?/p>

      宗旨和目的

      該建議書旨在讓人工智能系統可以造福人類、個人、社會、環境和生態系統,同時防止危害。它還旨在促進和平利用人工智能系統。

      目的是在全球現有人工智能倫理框架之外,再提供一部全球公認的規范性文書,不僅注重闡明價值觀和原則,而且著力于通過具體的政策建議切實落實這些價值觀和原則,同時著重強調包容、性別平等以及環境和生態系統保護等問題。

      并強調人工智能有關的倫理問題復雜性,需要多方合作、共同承擔責任。

    《人工智能倫理問題建議書》草案文本

    (注:已在聯合國教科文組織第41屆大會上獲得會員國通過)

    序言

      聯合國教育、科學及文化組織(教科文組織)大會于2021年11月9日至24日在巴黎召開第四十一屆會議,

      認識到人工智能(AI)從正負兩方面對社會、環境、生態系統和人類生活包括人類思想具有深刻而動態的影響,部分原因在于人工智能的使用以新的方式影響著人類的思維、互動和決策,并且波及到教育、人文科學、社會科學和自然科學、文化、傳播和信息,

      憶及教科文組織根據《組織法》,力求通過教育、科學、文化以及傳播和信息促進各國間之合作,對和平與安全作出貢獻,以增進對正義、法治及所確認之世界人民均享人權與基本自由之普遍尊重,

      深信在此提出的建議書,作為以國際法為依據、采用全球方法制定且注重人的尊嚴和人權以及性別平等、社會和經濟正義與發展、身心健康、多樣性、互聯性、包容性、環境和生態系統保護的準則性文書,可以引導人工智能技術向著負責任的方向發展,

      遵循《聯合國憲章》的宗旨和原則,

      考慮到人工智能技術可以對人類大有助益并惠及所有國家,但也會引發根本性的倫理關切,例如:人工智能技術可能內嵌并加劇偏見,可能導致歧視、不平等、數字鴻溝和排斥,并對文化、社會和生物多樣性構成威脅,造成社會或經濟鴻溝;算法的工作方式和算法訓練數據應具有透明度和可理解性;人工智能技術對于多方面的潛在影響,包括但不限于人的尊嚴、人權和基本自由、性別平等、民主、社會、經濟、政治和文化進程、科學和工程實踐、動物福利以及環境和生態系統,

      又認識到人工智能技術會加深世界各地國家內部和國家之間現有的鴻溝和不平等,必須維護正義、信任和公平,以便在公平獲取人工智能技術、享受這些技術帶來的惠益和避免受其負面影響方面不讓任何國家和任何人掉隊,同時認識到各國國情不同,并尊重一部分人不參與所有技術發展的意愿,

      意識到所有國家都正值信息和通信技術及人工智能技術使用的加速期,對于媒體與信息素養的需求日益增長,且數字經濟帶來了重大的社會、經濟和環境挑戰以及惠益共享的機會,對于中低收入國家(LMIC)——包括但不限于最不發達國家(LDC)、內陸發展中國家(LLDC)和小島嶼發展中國家(SIDS)而言尤為如此,需要承認、保護和促進本土文化、價值觀和知識,以發展可持續的數字經濟,

      還認識到人工智能技術具備有益于環境和生態系統的潛能,要實現這些惠益,不應忽視而是要去應對其對環境和生態系統的潛在危害和負面影響,

      注意到應對風險和倫理關切的努力不應妨礙創新和發展,而是應提供新的機會,激勵合乎倫理的研究和創新,使人工智能技術立足于人權和基本自由、價值觀和原則以及關于道義和倫理的思考,

      又憶及教科文組織大會在2019年11月第四十屆會議上通過了第40C/37號決議,授權總干事“以建議書的形式編制一份關于人工智能倫理問題的國際準則性文書”,提交2021年大會第四十一屆會議,

      認識到人工智能技術的發展需要相應提高數據、媒體與信息素養,并增加獲取獨立、多元、可信信息來源的機會,包括努力減少錯誤信息、虛假信息和仇恨言論的風險以及濫用個人數據造成的傷害,

      認為關于人工智能技術及其社會影響的規范框架應建立在共識和共同目標的基礎上,以國際和國家法律框架、人權和基本自由、倫理、獲取數據、信息和知識的需求、研究和創新自由、人類福祉、環境和生態系統福祉為依據,將倫理價值觀和原則與同人工智能技術有關的挑戰和機遇聯系起來,

      又認識到倫理價值觀和原則可以通過發揮指引作用,幫助制定和實施基于權利的政策措施和法律規范,以期加快技術發展步伐,

      又深信全球公認的、充分尊重國際法特別是人權法的人工智能技術倫理標準可以在世界各地制定人工智能相關規范方面起到關鍵作用,

      銘記《世界人權宣言》(1948年);國際人權框架文書,包括《關于難民地位的公約》(1951年)、《就業和職業歧視公約》(1958年)、《消除一切形式種族歧視國際公約》(1965年)、《公民及政治權利國際公約》(1966年)、《經濟社會文化權利國際公約》(1966年)、《消除對婦女一切形式歧視公約》(1979年)、《兒童權利公約》(1989年)和《殘疾人權利公約》(2006年);《反對教育歧視公約》(1960年);《保護和促進文化表現形式多樣性公約》(2005年);以及其他一切相關國際文書、建議書和宣言,又注意到《聯合國發展權利宣言》(1986年);《當代人對后代人的責任宣言》(1997年);《世界生物倫理與人權宣言》(2005年);《聯合國土著人民權利宣言》(2007年);2014年聯合國大會關于信息社會世界峰會審查的決議(A/RES/70/125)(2015年);聯合國大會關于“變革我們的世界:2030年可持續發展議程”的決議(A/RES/70/1)(2015年);《關于保存和獲取包括數字遺產在內的文獻遺產的建議書》(2015年);《與氣候變化有關的倫理原則宣言》(2017年);《關于科學和科學研究人員的建議書》(2017年);互聯網普遍性指標(2018年獲得教科文組織國際傳播發展計劃認可),包括立足人權、開放、人人可及和多利益攸關方參與原則(2015年獲得教科文組織大會認可);人權理事會關于“數字時代的隱私權”的決議(A/HRC/RES/42/15)(2019年);以及人權理事會關于“新興數字技術與人權”的決議(A/HRC/RES/41/11)(2019年),

      強調必須特別關注中低收入國家,包括但不限于最不發達國家、內陸發展中國家和小島嶼發展中國家,這些國家具備能力,但在人工智能倫理問題辯論中的代表性不足,由此引發了對于地方知識、文化多元化、價值體系以及應對人工智能技術的正負兩方面影響需要實現全球公平的要求受到忽視的關切,

      又意識到在人工智能技術的倫理和監管方面,目前存在許多國家政策以及由聯合國相關實體、政府間組織(包括地區組織)和由私營部門、專業組織、非政府組織和科學界制定的其他框架和倡議,

      還深信人工智能技術可以帶來重大惠益,但實現這些惠益也會加劇圍繞創新產生的矛盾沖突、知識和技術獲取不對稱(包括使公眾參與人工智能相關議題的能力受限的數字和公民素養赤字)以及信息獲取障礙、能力亦即人員和機構能力差距、技術創新獲取障礙、缺乏適當的實體和數字基礎設施以及監管框架(包括與數據有關的基礎設施和監管框架)的問題,所有這些問題都需要解決,

      強調需要加強全球合作與團結,包括通過多邊主義,以促進公平獲取人工智能技術,應對人工智能技術給文化和倫理體系的多樣性和互聯性帶來的挑戰,減少可能的濫用,充分發揮人工智能可能給各個領域特別是發展領域帶來的潛能,確保各國人工智能戰略以倫理原則為指導,

      充分考慮到人工智能技術的快速發展對以合乎倫理的方式應用和治理人工智能技術以及對尊重和保護文化多樣性提出了挑戰,并有可能擾亂地方和地區的倫理標準和價值觀,

      1.通過本人工智能倫理問題建議書;

      2.建議會員國在自愿基礎上適用本建議書的各項規定,特別是根據各自國家的憲法實踐和治理結構采取適當步驟,包括必要的立法或其他措施,依照包括國際人權法在內的國際法,使建議書的原則和規范在本國管轄范圍內生效;

      3.又建議會員國動員包括工商企業在內的所有利益攸關方,確保他們在實施本建議書方面發揮各自的作用;并提請涉及人工智能技術的管理部門、機構、研究和學術組織、公共、私營和民間社會機構和組織注意本建議書,使人工智能技術的開發和應用做到以健全的科學研究以及倫理分析和評估作為指導。

    一、適用范圍

      1.本建議書述及與人工智能領域有關且屬于教科文組織職責范圍之內的倫理問題。建議書以能指導社會負責任地應對人工智能技術對人類、社會、環境和生態系統產生的已知和未知影響并相互依存的價值觀、原則和行動構成的不斷發展的整體、全面和多元文化框架為基礎,將人工智能倫理作為一種系統性規范考量,并為社會接受或拒絕人工智能技術提供依據。

      建議書將倫理視為對人工智能技術進行規范性評估和指導的動態基礎,以人的尊嚴、福祉和防止損害為導向,并立足于科技倫理。

      2.本建議書無意對人工智能作出唯一的定義,這種定義需要隨著技術的發展與時俱進。

      建議書旨在探討人工智能系統中具有核心倫理意義的特征。因此,本建議書將人工智能系統視為有能力以類似于智能行為的方式處理數據和信息的系統,通常包括推理、學習、感知、預測、規劃或控制等方面。這一方法有三個重要因素:

     ?。╝)人工智能系統是整合模型和算法的信息處理技術,這些模型和算法能夠生成學習和執行認知任務的能力,從而在物質環境和虛擬環境中實現預測和決策等結果。

      在設計上,人工智能系統借助知識建模和知識表達,通過對數據的利用和對關聯性的計算,可以在不同程度上實現自主運行。人工智能系統可以包含若干種方法,包括但不限于:

     ?。╥)機器學習,包括深度學習和強化學習;

     ?。╥i)機器推理,包括規劃、調度、知識表達和推理、搜索和優化。

      人工智能系統可用于信息物理系統,包括物聯網、機器人系統、社交機器人和涉及控制、感知及處理傳感器所收集數據的人機交互以及人工智能系統工作環境中執行器的操作。

     ?。╞)與人工智能系統有關的倫理問題涉及人工智能系統生命周期的各個階段,此處系指從研究、設計、開發到配置和使用等各階段,包括維護、運行、交易、融資、監測和評估、驗證、使用終止、拆卸和終結。此外,人工智能行為者可以定義為在人工智能系統生命周期內至少參與一個階段的任何行為者,可指自然人和法人,例如研究人員、程序員、工程師、數據科學家、終端用戶、工商企業、大學和公私實體等。

     ?。╟)人工智能系統引發了新型倫理問題,包括但不限于其對決策、就業和勞動、社交、衛生保健、教育、媒體、信息獲取、數字鴻溝、個人數據和消費者保護、環境、民主、法治、安全和治安、雙重用途、人權和基本自由(包括表達自由、隱私和非歧視)的影響。此外,人工智能算法可能復制和加深現有的偏見,從而加劇已有的各種形式歧視、偏見和成見,由此產生新的倫理挑戰。其中一些問題與人工智能系統能夠完成此前只有生物才能完成、甚至在有些情況下只有人類才能完成的任務有關。這些特點使得人工智能系統在人類實踐和社會中以及在與環境和生態系統的關系中,可以起到意義深遠的新作用,為兒童和青年的成長、培養對于世界和自身的認識、批判性地認識媒體和信息以及學會作出決定創造了新的環境。

      從長遠看,人工智能系統可能挑戰人類特有的對于經驗和能動作用的感知,在人類的自我認知、社會、文化和環境的互動、自主性、能動性、價值和尊嚴等方面引發更多關切。

      3.秉承教科文組織世界科學知識與技術倫理委員會(COMEST)在2019年《人工智能倫理問題初步研究》中的分析,本建議書特別關注人工智能系統與教育、科學、文化、傳播和信息等教科文組織核心領域有關的廣泛倫理影響:

     ?。╝)教育,這是因為鑒于對勞動力市場、就業能力和公民參與的影響,生活在數字化社會需要新的教育實踐、倫理反思、批判性思維、負責任的設計實踐和新的技能。

     ?。╞)科學,系指最廣泛意義上的科學,包括從自然科學、醫學到社會科學和人文科學等所有學術領域,這是由于人工智能技術帶來了新的研究能力和方法,影響到我們關于科學認識和解釋的觀念,為決策創建了新的基礎。

     ?。╟)文化特性和多樣性,這是由于人工智能技術可以豐富文化和創意產業,但也會導致文化內容的供應、數據、市場和收入更多地集中在少數行為者手中,可能對語言、媒體、文化表現形式、參與和平等的多樣性和多元化產生負面影響。

     ?。╠)傳播和信息,這是由于人工智能技術在處理、組織和提供信息方面起到日益重要的作用;很多現象引發了與信息獲取、虛假信息、錯誤信息、仇恨言論、新型社會敘事興起、歧視、表達自由、隱私、媒體與信息素養等有關的問題,自動化新聞、通過算法提供新聞、對社交媒體和搜索引擎上的內容進行審核和策管只是其中幾個實例。

      4.本建議書面向會員國,會員國既是人工智能行為者,又是負責制定人工智能系統整個生命周期的法律和監管框架并促進企業責任的管理部門。此外,建議書為貫穿人工智能系統生命周期的倫理影響評估奠定了基礎,從而為包括公共和私營部門在內的所有人工智能行為者提供倫理指南。

    二、宗旨和目標

      5.本建議書旨在提供基礎,讓人工智能系統可以造福人類、個人、社會、環境和生態系統,同時防止危害。它還旨在促進和平利用人工智能系統。

      6.本建議書的目的是在全球現有人工智能倫理框架之外,再提供一部全球公認的規范性文書,不僅注重闡明價值觀和原則,而且著力于通過具體的政策建議切實落實這些價值觀和原則,同時著重強調包容、性別平等以及環境和生態系統保護等問題。

      7.由于與人工智能有關的倫理問題十分復雜,需要國際、地區和國家各個層面和各個部門的眾多利益攸關方開展合作,故而本建議書的宗旨是讓利益攸關方能夠在全球和文化間對話的基礎上共同承擔責任。

      8.本建議書的目標如下:

     ?。╝)依照國際法,提供一個由價值觀、原則和行動構成的普遍框架,指導各國制定與人工智能有關的立法、政策或其他文書;

     ?。╞)指導個人、團體、社群、機構和私營公司的行動,確保將倫理規范嵌入人工智能系統生命周期的各個階段;

     ?。╟)在人工智能系統生命周期的各個階段保護、促進和尊重人權和基本自由、人的尊嚴和平等,包括性別平等;保障當代和后代的利益;保護環境、生物多樣性和生態系統;尊重文化多樣性;

     ?。╠)推動多利益攸關方、多學科和多元化對話和建立共識,討論與人工智能系統有關的倫理問題;

     ?。╡)促進對人工智能領域進步和知識的公平獲取以及惠益共享,特別關注包括最不發達國家、內陸發展中國家和小島嶼發展中國家在內的中低收入國家的需求和貢獻。

    三、價值觀和原則

      9.首先,人工智能系統生命周期的所有行為者都應尊重下文所載的價值觀和原則,并在必要和適當的情況下,通過修訂現行的和制定新的法律、法規和業務準則來促進這些價值觀和原則。這必須遵守國際法,包括《聯合國憲章》和會員國的人權義務,并應符合國際商定的社會、政治、環境、教育、科學和經濟可持續性目標,例如聯合國可持續發展目標(SDG)。

      10.價值觀作為催人奮進的理想,在制定政策措施和法律規范方面發揮著強大作用。下文概述的一系列價值觀可以激發理想的行為并是確立原則的基礎,而原則更為具體地闡述作為其根本的價值觀,以便更易于在政策聲明和行動中落實這些價值觀。

      11.下文概述的所有價值觀和原則本身都是可取的,但在任何實際情況下這些價值觀和原則之間都可能會有矛盾。在特定情況下,需要根據具體情況進行評估以管控潛在的矛盾,同時考慮到相稱性原則并尊重人權和基本自由。在所有情況下,可能對人權和基本自由施加的任何限制均必須具有合法基礎,而且必須合理、必要和相稱,符合各國依據國際法所承擔的義務。要做到明智而審慎地處理這些情況,通常需要與廣泛的相關利益攸關方合作,同時利用社會對話以及倫理審議、盡職調查和影響評估。

      12.人工智能系統生命周期的可信度和完整性對于確保人工智能技術造福人類、個人、社會、環境和生態系統并且體現出本建議書提出的價值觀和原則至關重要。在采取適當措施降低風險時,人們應有充分理由相信人工智能系統能夠帶來個人利益和共享利益。具有可信度的一個基本必要條件是,人工智能系統在整個生命周期內都受到相關利益攸關方適當的全面監測。由于可信度是本文件所載各項原則得到落實的結果,本建議書提出的政策行動建議均旨在提升人工智能系統生命周期各個階段的可信度。

      3.1價值觀

      【尊重、保護和促進人權和基本自由以及人的尊嚴】

      13.每個人與生俱來且不可侵犯的尊嚴構成了人權和基本自由這一普遍、不可分割、不可剝奪、相互依存又彼此相關的體系的基礎。因此,尊重、保護和促進包括國際人權法在內的國際法確立的人的尊嚴和權利,在人工智能系統的整個生命周期內都至關重要。人的尊嚴系指承認每個人固有和平等的價值,無論種族、膚色、血統、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、與生俱來的經濟或社會條件、殘障情況或其他狀況如何。

      14.在人工智能系統生命周期的任何階段,任何人或人類社群在身體、經濟、社會、政治、文化或精神等任何方面,都不應受到損害或被迫居于從屬地位。在人工智能系統的整個生命周期內,人類生活質量都應得到改善,而“生活質量”的定義只要不侵犯或踐踏人權和基本自由或人的尊嚴,應由個人或群體來決定。

      15.在人工智能系統的整個生命周期內,人會與人工智能系統展開互動,接受這些系統提供的幫助,例如照顧弱勢者或處境脆弱群體,包括但不限于兒童、老年人、殘障人士或病人。

      在這一互動過程中絕不應將人物化,不應以其他方式損害人的尊嚴,也不應侵犯或踐踏人權和基本自由。

      16.在人工智能系統的整個生命周期內,必須尊重、保護和促進人權和基本自由。各國政府、私營部門、民間社會、國際組織、技術界和學術界在介入與人工智能系統生命周期有關的進程時,必須尊重人權文書和框架。新技術應為倡導、捍衛和行使人權提供新手段,而不是侵犯人權。

      【環境和生態系統蓬勃發展】

      17.應在人工智能系統的整個生命周期內確認、保護和促進環境和生態系統的蓬勃發展。

      此外,環境和生態系統是關乎人類和其他生物能否享受人工智能進步所帶來惠益的必要條件。

      18.參與人工智能系統生命周期的所有行為者都必須遵守適用的國際法以及國內立法、標準和慣例,例如旨在保護和恢復環境和生態系統以及促進可持續發展的預防措施。這些行為者應減少人工智能系統對環境的影響,包括但不限于碳足跡,以確保將氣候變化和環境風險因素降到最低,防止會加劇環境惡化和生態系統退化的對自然資源的不可持續開采、使用和轉化。

      【確保多樣性和包容性】

      19.在人工智能系統的整個生命周期內,應依照包括人權法在內的國際法,確保尊重、保護和促進多樣性和包容性。為此,可以促進所有個人或群體的積極參與,無論種族、膚色、血統、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、與生俱來的經濟或社會條件、殘障情況或其他狀況如何。

      20.對于生活方式的選擇范圍、信仰、意見、表達形式或個人經驗,包括對于人工智能系統的任選使用以及這些架構的共同設計,在人工智能系統生命周期的任何階段都不應受到限制。

      21.此外,應作出努力,包括開展國際合作,以克服并絕不利用影響到社區的缺乏必要技術基礎設施、教育和技能以及法律框架的情況,特別是在中低收入國家、最不發達國家、內陸發展中國家和小島嶼發展中國家中。

      【生活在和平、公正與互聯的社會中】

      22.人工智能行為者應為確保建設和平與公正的社會發揮參與和促進作用,這種社會的根基是惠及全民、符合人權和基本自由的相互關聯的未來。在和平與公正的社會中生活的價值觀表明,人工智能系統在整個生命周期內都有可能為所有生物之間及其與自然環境之間的相互關聯作出貢獻。

      23.人與人之間相互聯系的概念是基于這樣一種認識,即每個人都屬于一個更大的整體,當這個整體中的組成部分都能夠繁榮興旺時,整體才會蒸蒸日上。在和平、公正與互聯的社會中生活,需要一種有機、直接、出自本能的團結紐帶,其特點是不懈地尋求和平關系,傾向于在最廣泛的意義上關愛他人和自然環境。

      24.這一價值觀要求在人工智能系統的整個生命周期內促進和平、包容與正義、公平和相互聯系,人工智能系統生命周期的各種進程不得隔離或物化人類和社區或者削弱其自由、自主決策和安全,不得分裂個人和群體或使之相互對立,也不得威脅人類、其他生物和自然環境之間的共存。

      3.2原則

      【相稱性和不損害】

      25.應該認識到,人工智能技術本身并不一定能確保人類、環境和生態系統蓬勃發展。況且,與人工智能系統生命周期有關的任何進程都不得超出實現合法目的或目標所需的范圍,并應切合具體情況。在有可能對人類、人權和基本自由、個別社區和整個社會,或者對環境和生態系統造成損害時,應確保落實風險評估程序并采取措施,以防止發生此類損害。

      26.應從以下方面證明選擇使用人工智能系統和選用哪種人工智能方法的合理性:(a)所選擇的人工智能方法對于實現特定合法目標應該是適當的和相稱的;(b)所選擇的人工智能方法不得違背本文件提出的基本價值觀,特別是其使用不得侵犯或踐踏人權;(c)人工智能方法應切合具體情況,并應建立在嚴謹的科學基礎上。在所涉決定具有不可逆轉或難以逆轉的影響或者在涉及生死抉擇的情況下,應由人類作出最終決定。人工智能系統尤其不得用于社會評分或大規模監控目的。

      【安全和安?!?/p>

      27.在人工智能系統的整個生命周期內,應避免并解決、預防和消除意外傷害(安全風險)以及易受攻擊的脆弱性(安保風險),確保人類、環境和生態系統的安全和安保。開發可持續和保護隱私的數據獲取框架,促進利用優質數據更好地訓練和驗證人工智能模型,便可以實現有安全和安保保障的人工智能。

      【公平和非歧視】

      28.人工智能行為者應根據國際法,促進社會正義并保障一切形式的公平和非歧視。這意味著要采用包容性辦法確保人工智能技術的惠益人人可得可及,同時又考慮到不同年齡組、文化體系、不同語言群體、殘障人士、女童和婦女以及處境不利、邊緣化和弱勢群體或處境脆弱群體的具體需求。會員國應努力讓包括地方社區在內的所有人都能夠獲取提供本地相關內容和服務且尊重多語言使用和文化多樣性的人工智能系統。會員國應努力消除數字鴻溝,并確保對人工智能發展的包容性獲取和參與。在國家層面,會員國應努力在人工智能系統生命周期的準入和參與問題上促進城鄉之間的公平,以及所有人之間的公平,無論種族、膚色、血統、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、與生俱來的經濟或社會條件、殘障情況或其他狀況如何。在國際層面,技術最先進的國家有責任支持最落后的國家,確保共享人工智能技術的惠益,使得后者能夠進入和參與人工智能系統生命周期,從而推動建設一個在信息、傳播、文化、教育、研究、社會經濟和政治穩定方面更加公平的世界秩序。

      29.人工智能行為者應盡一切合理努力,在人工智能系統的整個生命周期內盡量減少和避免強化或固化帶有歧視性或偏見的應用程序和結果,確保人工智能系統的公平。對于帶有歧視性和偏見的算法決定,應提供有效的補救辦法。

      30.此外,在人工智能系統的整個生命周期內,需要解決國家內部和國家之間的數字和知識鴻溝,包括根據相關的國家、地區和國際法律框架解決技術和數據獲取及獲取質量方面的鴻溝,以及在連接性、知識和技能以及受影響社區的切實參與方面的鴻溝,以便讓每個人都得到公平待遇。

      【可持續性】

      31.可持續社會的發展,有賴于在人類、社會、文化、經濟和環境等方面實現一系列復雜的目標。人工智能技術的出現可能有利于可持續性目標,但也可能阻礙這些目標的實現,這取決于處在不同發展水平的國家如何應用人工智能技術。因此,在就人工智能技術對人類、社會、文化、經濟和環境的影響開展持續評估時,應充分考慮到人工智能技術對于作為一套涉及多方面的動態目標(例如目前在聯合國可持續發展目標中認定的目標)的可持續性的影響。

      【隱私權和數據保護】

      32.隱私權對于保護人的尊嚴、自主權和能動性不可或缺,在人工智能系統的整個生命周期內必須予以尊重、保護和促進。重要的是,人工智能系統所用數據的收集、使用、共享、歸檔和刪除方式,必須符合國際法,契合本建議書提出的價值觀和原則,同時遵守相關的國家、地區和國際法律框架。

      33.應在國家或國際層面采用多利益攸關方辦法,建立適當的數據保護框架和治理機制,將其置于司法系統保護之下,并在人工智能系統的整個生命周期內予以保障。數據保護框架和任何相關機制應參鑒有關收集、使用和披露個人數據以及數據主體行使其權利的國際數據保護原則和標準,同時確保對個人數據的處理具有合法的目的和有效的法律依據,包括取得知情同意。

      34.需要對算法系統開展充分的隱私影響評估,其中包括使用算法系統的社會和倫理考量以及通過設計方法對于隱私的創新使用。人工智能行為者需要確保他們對人工智能系統的設計和實施負責,以確保個人信息在人工智能系統的整個生命周期內受到保護。

      【人類的監督和決定】

      35.會員國應確保始終有可能將人工智能系統生命周期的任何階段以及與人工智能系統有關的補救措施的倫理和法律責任歸屬于自然人或現有法人實體。因此,人類監督不僅指個人監督,在適當情況下也指范圍廣泛的公共監督。

      36.在某些情況下,出于效率性的考慮,人類有時選擇依賴人工智能系統,但是否在有限情形下出讓控制權依然要由人類來決定,這是由于人類在決策和行動上可以借助人工智能系統,但人工智能系統永遠無法取代人類的最終責任和問責。一般而言,生死攸關的決定不應讓給人工智能系統來作。

      【透明度和可解釋性】

      37.人工智能系統的透明度和可解釋性往往是確保人權、基本自由和倫理原則得到尊重、保護和促進的必要先決條件。透明度是相關國家和國際責任制度有效運作的必要因素。缺乏透明度還可能削弱對根據人工智能系統產生的結果所作決定提出有效質疑的可能性,進而可能侵犯獲得公平審判和有效補救的權利,并限制這些系統的合法使用領域。

      38.在人工智能系統的整個生命周期內都需要努力提高人工智能系統(包括那些具有域外影響的系統)的透明度和可解釋性,以支持民主治理,但透明度和可解釋性的程度應始終切合具體情況并與其影響相當,因為可能需要在透明度和可解釋性與隱私、安全和安保等其他原則之間取得平衡。在所涉決定系參考或依據人工智能算法作出的情況下,包括在所涉決定關乎民眾安全和人權的情況下,民眾應該被充分告知,并且在此類情況下有機會請求相關人工智能行為者或公共機構提供解釋性信息。此外,對于影響其權利和自由的決定,個人應能夠了解據以作出該決定的理由,并可以選擇向能夠審查和糾正該決定的私營公司或公共機構指定工作人員提出意見。對于由人工智能系統直接提供或協助提供的產品或服務,人工智能行為者應以適當和及時的方式告知用戶。

      39.從社會—技術角度來看,提高透明度有助于建設更加和平、公正、民主和包容的社會。提高透明度有利于開展公眾監督,這可以減少腐敗和歧視,還有助于發現和防止對人權產生的負面影響。透明度的目的是為相關對象提供適當的信息,以便他們理解和增進信任。具體到人工智能系統,透明度可以幫助人們了解人工智能系統各個階段是如何按照該系統的具體環境和敏感度設定的。透明度還包括深入了解可以影響特定預測或決定的因素,以及了解是否具備適當的保證(例如安全或公平措施)。在存在會對人權產生不利影響的嚴重威脅的情況下,透明度要求可能還包括共享代碼或數據集。

      40.可解釋性是指讓人工智能系統的結果可以理解,并提供闡釋說明。人工智能系統的可解釋性也指各個算法模塊的輸入、輸出和性能的可解釋性及其如何促成系統結果。因此,可解釋性與透明度密切相關,結果和導致結果的子過程應以可理解和可追溯為目標,并且應切合具體情況。人工智能行為者應致力于確保開發出的算法是可以解釋的。就對終端用戶所產生的影響不是暫時的、容易逆轉的或低風險的人工智能應用程序而言,應確保對導致所采取行動的任何決定作出有意義的解釋,以便使這一結果被認為是透明的。

      41.透明度和可解釋性與適當的責任和問責措施以及人工智能系統的可信度密切相關。

      【責任和問責】

      42.人工智能行為者和會員國應根據國家法律和國際法,特別是會員國的人權義務,以及人工智能系統整個生命周期的倫理準則,包括在涉及其有效疆域和實際控制范圍內的人工智能行為者方面,尊重、保護和促進人權和基本自由,并且還應促進對環境和生態系統的保護,同時承擔各自的倫理和法律責任。以任何方式基于人工智能系統作出的決定和行動,其倫理責任和義務最終都應由人工智能行為者根據其在人工智能系統生命周期中的作用來承擔。

      43.應建立適當的監督、影響評估、審計和盡職調查機制,包括保護舉報者,確保在人工智能系統的整個生命周期內對人工智能系統及其影響實施問責。技術和體制方面的設計都應確保人工智能系統(的運行)可審計和可追溯,特別是要應對與人權規范和標準之間的沖突以及對環境和生態系統福祉的威脅。

      【認識和素養】

      44.應通過由政府、政府間組織、民間社會、學術界、媒體、社區領袖和私營部門共同領導并顧及現有的語言、社會和文化多樣性的開放且可獲取的教育、公民參與、數字技能和人工智能倫理問題培訓、媒體與信息素養及培訓,促進公眾對于人工智能技術和數據價值的認識和理解,確保公眾的有效參與,讓所有社會成員都能夠就使用人工智能系統作出知情決定,避免受到不當影響。

      45.了解人工智能系統的影響,應包括了解、借助以及促進人權和基本自由。這意味著在接觸和理解人工智能系統之前,應首先了解人工智能系統對人權和權利獲取的影響,以及對環境和生態系統的影響。

      46.對數據的使用必須尊重國際法和國家主權。這意味著各國可根據國際法,對在其境內生成或經過其國境的數據進行監管,并采取措施,力爭在依照國際法尊重隱私權以及其他人權規范和標準的基礎上對數據進行有效監管,包括數據保護。

      47.不同利益攸關方對人工智能系統整個生命周期的參與,是采取包容性辦法開展人工智能治理、使惠益能夠為所有人共享以及推動可持續發展的必要因素。利益攸關方包括但不限于政府、政府間組織、技術界、民間社會、研究人員和學術界、媒體、教育、政策制定者、私營公司、人權機構和平等機構、反歧視監測機構以及青年和兒童團體。應采用開放標準和互操作性原則,以促進協作。應采取措施,兼顧技術的變化和新利益攸關方群體的出現,并便于邊緣化群體、社區和個人切實參與,同時酌情尊重土著人民對其數據的自我管理。

    四、政策行動領域

      48.以下政策領域所述的政策行動是對本建議書提出的價值觀和原則的具體落實。主要行動是會員國出臺有效措施,包括政策框架或機制等,并通過開展多種行動,例如鼓勵所有利益攸關方根據包括聯合國《工商企業與人權指導原則》在內的準則制定人權、法治、民主以及倫理影響評估和盡職調查工具,確保私營公司、學術和研究機構以及民間社會等其他利益攸關方遵守這些框架或機制。此類政策或機制的制定過程應包括所有利益攸關方并應考慮到各會員國的具體情況和優先事項。教科文組織可以作為合作伙伴,支持會員國制定、監測和評估政策機制。

      49.教科文組織認識到,各會員國在科學、技術、經濟、教育、法律、規范、基礎設施、社會、文化和其他方面,處于實施本建議書的不同準備階段。需要指出的是,這里的“準備”是一種動態。因此,為切實落實本建議書,教科文組織將:(1)制定準備狀態評估方法,協助有關會員國確定其準備進程各個方面在特定時刻的所處狀態;(2)確保支持有關會員國制定教科文組織人工智能技術倫理影響評估(EIA)方法,分享最佳做法、評估準則、其他機制和分析工作。

      【政策領域1:倫理影響評估】

      50.會員國應出臺影響評估(例如倫理影響評估)框架,以確定和評估人工智能系統的惠益、關切和風險,并酌情出臺預防、減輕和監測風險的措施以及其他保障機制。此種影響評估應根據本建議書提出的價值觀和原則,確定對人權和基本自由(特別是但不限于邊緣化和弱勢群體或處境脆弱群體的權利、勞工權利)、環境和生態系統產生的影響以及倫理和社會影響,并促進公民參與。

      51.會員國和私營公司應建立盡職調查和監督機制,以確定、防止和減輕人工智能系統對尊重人權、法治和包容性社會產生的影響,并說明如何處理這些影響。會員國還應能夠評估人工智能系統對貧困問題產生的社會經濟影響,確保人工智能技術在目前和未來的大規模應用不會加劇各國之間以及國內的貧富差距和數字鴻溝。為做到這一點,尤其應針對信息(包括私營實體掌握的涉及公共利益的信息)獲取,實行可強制執行的透明度協議。會員國、私營公司和民間社會應調查基于人工智能的建議對人類決策自主權的社會學和心理學影響。對于經確認對人權構成潛在風險的人工智能系統,在投放市場之前,人工智能行為者應對其進行廣泛測試,包括必要時,作為倫理影響評估的一部分,在真實世界的條件下進行測試。

      52.會員國和工商企業應采取適當措施,監測人工智能系統生命周期的各個階段,包括用于決策的算法的性能、數據以及參與這一過程的人工智能行為者,特別是在公共服務領域和需要與終端用戶直接互動的領域,以配合開展倫理影響評估。人工智能系統評估的倫理方面應包含會員國的人權法義務。

      53.各國政府應采用監管框架,其中特別針對公共管理部門提出人工智能系統倫理影響評估程序,以預測后果,減少風險,避免有害后果,促進公民參與并應對社會挑戰。評估還應確立能夠對算法、數據和設計流程加以評估并包括對人工智能系統的外部審查的適當監督機制,包括確定可審計性、可追溯性和可解釋性。倫理影響評估應透明,并酌情向公眾開放。

      此類評估還應具備多學科、多利益攸關方、多文化、多元化和包容等特性。應要求公共管理部門引入適當的機制和工具,監測這些部門實施和/或部署的人工智能系統。

      【政策領域 2:倫理治理和管理】

      54.會員國應確保人工智能治理機制具備包容性、透明性、多學科、多邊(包括跨界減輕損害和作出補救的可能性)和多利益攸關方等特性。特別是,治理應包括預測、有效保護、監測影響、執行和補救等方面。

      55.會員國應通過實施有力的執行機制和補救行動,確保調查并補救人工智能系統造成的損害,從而確保人權和基本自由以及法治在數字世界與現實世界中同樣得到尊重。此類機制和行動應包括私營公司和公營公司提供的補救機制。為此,應提升人工智能系統的可審計性和可追溯性。此外,會員國應加強履行這項承諾的機構能力,并應與研究人員和其他利益攸關方合作調查、防止并減少對于人工智能系統的潛在惡意使用。

      56.鼓勵會員國根據應用領域的敏感程度、對人權、環境和生態系統的預期影響以及本建議書提出的其他倫理考量,制定國家和地區人工智能戰略,并考慮多種形式的柔性治理,例如人工智能系統認證機制和此類認證的相互承認。此類機制可以包括針對系統、數據以及倫理準則和倫理方面的程序要求的遵守情況開展不同層面的審計。另一方面,此類機制不得因行政負擔過重而妨礙創新,或者讓中小企業或初創企業、民間社會以及研究和科學組織處于不利地位。此類機制還應包括定期監測,在人工智能系統的整個生命周期內確保系統的穩健性、持續完整性和遵守倫理準則,必要時可要求重新認證。

      57.會員國和公共管理部門應對現有和擬議的人工智能系統進行透明的自我評估,其中尤其應包括對采用人工智能是否適當進行評估,如果適當則應為確定適當的方法開展進一步評估,并評估采用這種方法是否會導致違反或濫用會員國的人權法義務,如果是則應禁止采用。

      58.會員國應鼓勵公共實體、私營公司和民間社會組織讓不同利益攸關方參與其人工智能治理工作,并考慮增設獨立的人工智能倫理干事崗位或某種其他機制,負責監督倫理影響評估、審計和持續監測工作,確保對于人工智能系統的倫理指導。鼓勵會員國、私營公司和民間社會組織在教科文組織的支持下,創設獨立的人工智能倫理干事網絡,為國家、地區和國際層面的這一進程提供支持。

      59.會員國應促進數字生態系統的發展和獲取,以便在國家層面以合乎倫理和包容各方的方式發展人工智能系統,包括消除在人工智能系統生命周期準入方面的差距,同時推動國際合作。此類生態系統尤其包括數字技術和基礎設施,在適當情況下還包括人工智能知識共享機制。

      60.會員國應與國際組織、跨國公司、學術機構和民間社會合作建立機制,確保所有會員國積極參與關于人工智能治理的國際討論,特別是中低收入國家,尤其是最不發達國家、內陸發展中國家和小島嶼發展中國家??梢酝ㄟ^提供資金、確保平等的地區參與或任何其他機制來實現這一目標。此外,為確保人工智能論壇的包容性,會員國應為人工智能行為者的出入境提供便利,特別是中低收入國家,尤其是最不發達國家、內陸發展中國家和小島嶼發展中國家的行為者,以便其參加此類論壇。

      61.修訂現行的或制定新的有關人工智能系統的國家立法,必須遵守會員國的人權法義務,并在人工智能系統的整個生命周期內促進人權和基本自由。隨著人工智能技術的發展,還應采取以下形式促進人權和基本自由:治理舉措;關于人工智能系統的合作實踐的良好范例;

      國家及國際技術和方法準則。包括私營部門在內的各個部門在其關于人工智能系統的實踐中必須利用現有的和新的文書以及本建議書,尊重、保護和促進人權和基本自由。

      62.為執法、福利、就業、媒體和信息提供者、衛生保健和獨立司法系統等對人權敏感的用途獲取人工智能系統的會員國應建立機制,由獨立的數據保護機關、行業監督機構和負責監督的公共機構等適當監督部門監測人工智能系統的社會和經濟影響。

      63.會員國應增強司法機構根據法治以及國際法和國際標準作出與人工智能系統有關決定(包括在其審議中使用人工智能系統的決定)的能力,同時確保堅持人類監督原則。司法機關如若使用人工智能系統,則需要有足夠的保障措施,尤其要保障對基本人權的保護、法治、司法獨立以及人類監督原則,并確保司法機關對人工智能系統的開發和使用值得信賴、以公共利益為導向且以人為本。

      64.會員國應確保政府和多邊組織在保障人工智能系統的安全和安保方面起到主導作用,并吸收多利益攸關方參與其中。具體而言,會員國、國際組織和其他相關機構應制定國際標準,列出可衡量和可檢測的安全和透明度等級,以便能夠客觀評估人工智能系統并確定合規水平。此外,會員國和工商企業應對人工智能技術潛在安全和安保風險的戰略研究提供持續支持,并應鼓勵透明度、可解釋性、包容和素養問題研究,在不同方面和不同層面(例如技術語言和自然語言)為這些領域投入更多資金。

      65.會員國應實施政策,在人工智能系統的整個生命周期內確保人工智能行為者的行動符合國際人權法、標準和原則,同時充分考慮到當前的文化和社會多樣性,包括地方習俗和宗教傳統,并適當考慮到人權的優先性和普遍性。

      66.會員國應建立機制,要求人工智能行為者披露并打擊人工智能系統結果和數據中任何類型的陳規定型觀念,無論是設計使然還是出于疏忽,確保人工智能系統的訓練數據集不會助長文化、經濟或社會不平等和偏見,不會散播虛假信息和錯誤信息,也不會干擾表達自由和信息獲取。應特別關注數據匱乏地區。

      67.會員國應實施政策,促進并提高人工智能開發團隊和訓練數據集的多樣性和包容性,以反映其人口狀況,確保人工智能技術及其惠益的平等獲取,特別是對農村和城市地區的邊緣化群體而言。

      68.會員國應酌情制定、審查并調整監管框架,在人工智能系統生命周期的不同階段對其內容和結果實施問責制和責任制。會員國應在必要時出臺責任框架或澄清對現有框架的解釋,確保為人工智能系統的結果和性能確定責任歸屬。此外,會員國在制定監管框架時,應特別考慮到最終責任和問責必須總是落實到自然人或法人身上,人工智能系統本身不應被賦予法人資格。為確保這一點,此類監管框架應符合人類監督原則,并確立著眼于人工智能系統生命周期不同階段的人工智能行為者和技術流程的綜合性方法。

      69.為在空白領域確立規范或調整現有的法律框架,會員國應讓所有人工智能行為者(包括但不限于研究人員、民間社會和執法部門的代表、保險公司、投資者、制造商、工程師、律師和用戶)參與其中。這些規范可以發展成為最佳做法、法律和法規。進一步鼓勵會員國采用樣板政策和監管沙箱等機制,加快制定與新技術的飛速發展相適應的法律、法規和政策,包括對其進行定期審查,確保法律法規在正式通過之前能夠在安全環境下進行測試。會員國應支持地方政府制定符合國家和國際法律框架的地方政策、法規和法律。

      70.會員國應對人工智能系統的透明度和可解釋性提出明確要求,以協助確保人工智能系統整個生命周期的可信度。此類要求應包括影響機制的設計和實施,其中要考慮到每個特定人工智能系統的應用領域的性質、預期用途、目標受眾和可行性。

      【政策領域3:數據政策】

      71.會員國應努力制定數據治理戰略,確保持續評估人工智能系統訓練數據的質量,包括數據收集和選擇過程的充分性、適當的數據安全和保護措施以及從錯誤中學習和在所有人工智能行為者之間分享最佳做法的反饋機制。

      72.會員國應采取適當的保障措施,根據國際法保護隱私權,包括應對人們對于監控等問題的關切。會員國尤其應通過或實施可以提供適當保護并符合國際法的法律框架。會員國應大力鼓勵包括工商企業在內的所有人工智能行為者遵守現行國際標準,特別是在倫理影響評估中開展適當的隱私影響評估,其中要考慮到預期數據處理產生的更廣泛的社會經濟影響,并在其系統中采用從設計入手保護隱私的做法。在人工智能系統的整個生命周期內應尊重、保護和促進隱私。

      73.會員國應確保個人可以保留對于其個人數據的權利并得到相關框架的保護,此類框架尤其應預見到以下問題:透明度;對于處理敏感數據的適當保障;適當程度的數據保護;有效和實際的問責方案和機制;除符合國際法的某些情況外,數據主體對訪問和刪除其在人工智能系統中個人數據的權利和能力的充分享有;數據用于商業目的(例如精準定向廣告)或跨境轉移時完全符合數據保護法的適度保護;切實有效的獨立監督,作為使個人可以掌控其個人數據、尊重數據主權并促進國際信息自由流通(包括數據獲?。┲菀娴臄祿卫頇C制的一部分。

      74.會員國應制定數據政策或等效框架,或者加強現有政策或框架,以確保個人數據和敏感數據的充分安全,這類數據一旦泄露,可能會給個人造成特殊損害、傷害或困難。相關實例包括:與犯罪、刑事訴訟、定罪以及相關安全措施有關的數據;生物識別、基因和健康數據;與種族、膚色、血統、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、與生俱來的經濟或社會條件、殘障情況或任何其他特征有關的個人數據。

      75.會員國應促進開放數據。在這方面,會員國應考慮審查其政策和監管框架,包括關于信息獲取和政務公開的政策和監管框架,以便反映出人工智能特有的要求,并考慮促進相關機制,例如為公共資金資助或公有的數據和源代碼以及數據信托建立開放式存儲庫,以支持安全、公平、合法與合乎倫理的數據分享等。

      76.會員國應推動和促進將優質和穩健的數據集用于訓練、開發和使用人工智能系統,并在監督數據集的收集和使用方面保持警惕。這包括在可能和可行的情況下投資建立黃金標準數據集,包括開放、可信、多樣化、建立在有效的法律基礎上并且按法律要求征得數據主體同意的數據集。應鼓勵制定數據集標注標準,包括按性別和其他標準分列數據,以便于確定數據集的收集方式及其特性。

      77.按照聯合國秘書長數字合作高級別小組報告的建議,會員國應在聯合國和教科文組織的支持下,酌情采用數字共享方式處理數據,提高工具、數據集和數據托管系統接口的互操作性,鼓勵私營公司酌情與所有利益攸關方共享其收集的數據,以促進研究、創新和公共利益。會員國還應促進公共和私營部門建立協作平臺,在可信和安全的數據空間內共享優質數據。

      【政策領域4:發展與國際合作】

      78.會員國和跨國公司應優先考慮人工智能倫理,在相關國際、政府間和多利益攸關方論壇上討論與人工智能有關的倫理問題。

      79.會員國應確保人工智能在教育、科學、文化、傳播和信息、衛生保健、農業和食品供應、環境、自然資源和基礎設施管理、經濟規劃和增長等發展領域的應用符合本建議書提出的價值觀和原則。

      80.會員國應通過國際組織,努力為人工智能促進發展提供國際合作平臺,包括提供專業知識、資金、數據、領域知識和基礎設施,以及促進多利益攸關方之間的合作,以應對具有挑戰性的發展問題,特別是針對中低收入國家,尤其是最不發達國家、內陸發展中國家和小島嶼發展中國家。

      81.會員國應努力促進人工智能研究和創新方面的國際合作,包括可以提升中低收入國家和其他國家(包括最不發達國家、內陸發展中國家和小島嶼發展中國家)研究人員的參與度和領導作用的研究和創新中心及網絡。

      82.會員國應通過吸收國際組織、研究機構和跨國公司參與,促進人工智能倫理研究,可以將這些研究作為公共和私營實體以合乎倫理的方式使用人工智能系統的基礎,包括研究具體倫理框架在特定文化和背景下的適用性,以及根據這些框架開發技術上可行的解決方案的可能性。

      83.會員國應鼓勵在人工智能領域開展國際合作與協作,以彌合地緣技術差距。應在充分尊重國際法的前提下,在會員國與其民眾之間、公共和私營部門之間以及技術上最先進和最落后的國家之間,開展技術交流和磋商。

      【政策領域5:環境和生態系統】

      84.在人工智能系統的整個生命周期內,會員國和工商企業應評估對環境產生的直接和間接影響,包括但不限于其碳足跡、能源消耗以及為支持人工智能技術制造而開采原材料對環境造成的影響,并應減少人工智能系統和數據基礎設施造成的環境影響。會員國應確保所有人工智能行為者遵守有關環境的法律、政策和慣例。

      85.會員國應在必要和適當時引入激勵措施,確保開發并采用基于權利、合乎倫理、由人工智能驅動的解決方案抵御災害風險;監測和保護環境與生態系統,并促進其再生;保護地球。這些人工智能系統應在其整個生命周期內讓地方和土著社區參與,并應支持循環經濟做法以及可持續的消費和生產模式。

      例如,在必要和適當時可將人工智能系統用于以下方面:

     ?。╝)支持自然資源的保護、監測和管理。

     ?。╞)支持與氣候有關問題的預測、預防、控制和減緩。

     ?。╟)支持更加高效和可持續的糧食生態系統。

     ?。╠)支持可持續能源的加速獲取和大規模采用。

     ?。╡)促成并推動旨在促進可持續發展的可持續基礎設施、可持續商業模式和可持續金融主流化。

     ?。╢)檢測污染物或預測污染程度,協助相關利益攸關方確定、規劃并實施有針對性的干預措施,防止并減少污染及曝露風險。

      86.會員國在選擇人工智能方法時,鑒于其中一些方法可能具有數據密集型或資源密集型特點以及對環境產生的不同影響,應確保人工智能行為者能夠根據相稱性原則,傾向于使用節約數據、能源和資源的人工智能方法。應制定要求,確保有適當證據表明一項人工智能應用程序將產生這種預期效果,或一項人工智能應用程序的附加保障措施可以為使用該應用程序的合理性提供支撐。假如做不到這一點,則必須遵循預防原則,而且在會對環境造成極其嚴重的負面影響的情況下,不得使用人工智能。

      【政策領域6:性別】

      87.會員國應確保數字技術和人工智能促進實現性別平等的潛能得到充分發揮,而且必須確保在人工智能系統生命周期的任何階段,女童和婦女的人權和基本自由及其安全和人格不受侵犯。此外,倫理影響評估應包含橫向性別平等視角。

      88.會員國應從公共預算中劃撥專項資金,用于資助促進性別平等的計劃,確保國家數字政策包含性別行動計劃,并制定旨在支持女童和婦女的相關政策,例如勞動力教育政策,以確保她們不會被排除在人工智能驅動的數字經濟之外。應考慮并落實專項投資,用于提供有針對性的計劃和有性別針對性的語言,從而為女童和婦女參與科學、技術、工程和數學(STEM)領域,包括信息和通信技術(信通技術)學科,以及為她們的就業準備、就業能力、平等的職業發展和專業成長,提供更多機會。

      89.會員國應確保人工智能系統推動實現性別平等的潛能得到實現。會員國應確保這些技術不會加劇,而是消除模擬世界多個領域中已經存在的巨大性別差距。這些差距包括:性別工資差距;某些職業和活動中不平等的代表性;人工智能領域高級管理職位、董事會或研究團隊中的代表性缺失;教育差距;數字和人工智能的獲取、采用、使用和負擔能力方面的差距;以及無償工作和照料責任在社會中的不平等分配。

      90.會員國應確保性別陳規定型觀念和歧視性偏見不會被移植入人工智能系統,而且還應對其加以鑒別和主動糾正。必須努力避免技術鴻溝對以下方面產生復合性負面影響:實現性別平等和避免暴力侵害,例如針對婦女和女童以及代表性不足群體的騷擾、欺凌和販運,包括在線上領域。

      91.會員國應鼓勵女性創業、參與并介入人工智能系統生命周期的各個階段,具體辦法是提供并促進經濟和監管方面的激勵措施以及其他激勵措施和支持計劃,制定目的是在學術界的人工智能研究方面實現性別均衡的參與、在數字和人工智能公司高級管理職位、董事會和研究團隊中實現性別均衡的代表性的政策。會員國應確保(用于創新、研究和技術的)公共資金流向具有包容性和明確的性別代表性的計劃和公司,并利用平權行動原則鼓勵私人資金朝著類似方向流動。應制定并執行關于無騷擾環境的政策,同時鼓勵傳播關于如何在人工智能系統的整個生命周期內促進多樣性的最佳做法。

      92.會員國應促進學術界和產業界人工智能研究領域的性別多樣性,為女童和婦女進入該領域提供激勵措施,建立機制消除人工智能研究界的性別陳規定型觀念和騷擾行為,并鼓勵學術界和私營實體分享關于如何提高性別多樣性的最佳做法。

      93.教科文組織可以協助建立最佳做法資料庫,鼓勵女童、婦女和代表性不足的群體參與人工智能系統生命周期的各個階段。

      【政策領域7:文化】

      94.鼓勵會員國酌情將人工智能系統納入物質、文獻和非物質文化遺產(包括瀕危語言以及土著語言和知識)的保護、豐富、理解、推廣、管理和獲取工作,具體辦法包括酌情出臺或更新與在這些領域應用人工智能系統有關的教育計劃,以及確保采用針對機構和公眾的參與式方法。

      95.鼓勵會員國審查并應對人工智能系統產生的文化影響,特別是自動翻譯和語音助手等自然語言處理(NLP)應用程序給人類語言和表達的細微差別帶來的影響。此類評估應為設計和實施相關戰略提供參考,通過彌合文化差距、增進人類理解以及消除因減少使用自然語言等因素造成的負面影響,最大限度地發揮人工智能系統的惠益。減少使用自然語言可能導致瀕危語言、地方方言以及與人類語言和表達形式有關的語音和文化差異的消失。

      96.隨著人工智能技術被用于創造、生產、推廣、傳播和消費多種文化產品和服務,會員國應促進針對藝術家和創意從業人員的人工智能教育和數字培訓,以評估人工智能技術在其專業領域的適用性,并推動設計和應用適當的人工智能技術,同時銘記保護文化遺產、多樣性和藝術自由的重要性。

      97.會員國應促進當地文化產業和文化領域的中小企業對于人工智能工具的認識和評價,避免文化市場集中化的風險。

      98.會員國應吸收技術公司和其他利益攸關方參與進來,促進文化表現形式的多樣化供應和多元化獲取,特別要確保算法建議可以提高本地內容的知名度和可見性。

      99.會員國應促進在人工智能和知識產權的交匯點上開展新的研究,例如確定是否或如何對通過人工智能技術創作的作品給予知識產權保護。會員國還應評估人工智能技術如何影響作品被用于研究、開發、培訓或實施人工智能應用程序的知識產權所有者的權利或利益。

      100.會員國應鼓勵國家級博物館、美術館、圖書館和檔案館使用人工智能系統,以突出其藏品,強化其圖書館、數據庫和知識庫,并允許用戶訪問。

      【政策領域8:教育和研究】

      101.會員國應與國際組織、教育機構、私營實體和非政府實體合作,在各個層面向所有國家的公眾提供充分的人工智能素養教育,以增強人們的權能,減少因廣泛采用人工智能系統而造成的數字鴻溝和數字獲取方面的不平等。

      102.會員國應促進人工智能教育“必備技能”的掌握,例如基本讀寫、計算、編碼和數字技能、媒體與信息素養、批判性思維和創意思維、團隊合作、溝通、社會情感技能和人工智能倫理技能,特別是在相關技能教育存在明顯差距的國家及國內地區或區域。

      103.會員國應促進關于人工智能發展的一般性宣傳計劃,其中包括數據、人工智能技術帶來的機會和挑戰、人工智能系統對人權(包括兒童權利)的影響及其意義。這些計劃對于非技術群體和技術群體來說都應簡明易懂。

      104.會員國應鼓勵開展關于以負責任和合乎倫理的方式將人工智能技術應用于教學、教師培訓和電子學習等方面的研究活動,以增加機會,減輕這一領域的挑戰和風險。在開展這些研究活動的同時,應充分評估教育質量以及人工智能技術的應用對于學生和教師的影響。會員國還應確保人工智能技術可以增強師生的權能和體驗,同時銘記關系和社交方面以及傳統教育形式的價值對于師生關系以及學生之間的關系至關重要,在討論將人工智能技術應用于教育時應考慮到這一點。當涉及到監測、評估能力或預測學習者的行為時,用于學習的人工智能系統應符合嚴格的要求。人工智能應依照相關的個人數據保護標準支持學習過程,既不降低認知能力,也不提取敏感信息。在學習者與人工智能系統的互動過程中收集到的為獲取知識而提交的數據,不得被濫用、挪用或用于犯罪,包括用于商業目的。

      105.會員國應提升女童和婦女、不同族裔和文化、殘障人士、邊緣化和弱勢群體或處境脆弱群體、少數群體以及沒能充分得益于數字包容的所有人在各級人工智能教育計劃中的參與度和領導作用,監測并與其他國家分享這方面的最佳做法。

      106.會員國應根據本國教育計劃和傳統,為各級教育開發人工智能倫理課程,促進人工智能技術技能教育與人工智能教育的人文、倫理和社會方面的交叉協作。應以當地語言(包括土著語言)開發人工智能倫理教育的在線課程和數字資源,并考慮到環境多樣性,特別要確保采用殘障人士可以使用的格式。

      107.會員國應促進并支持人工智能研究,特別是人工智能倫理問題研究,具體辦法包括投資于此類研究或制定激勵措施推動公共和私營部門投資于這一領域等,同時承認此類研究可極大地推動人工智能技術的進一步發展和完善,以促進落實國際法和本建議書中提出的價值觀和原則。會員國還應公開推廣以合乎倫理的方式開發人工智能的研究人員和公司的最佳做法,并與之合作。

      108.會員國應確保人工智能研究人員接受過研究倫理培訓,并要求他們將倫理考量納入設計、產品和出版物中,特別是在分析其使用的數據集、數據集的標注方法以及可能投入應用的成果的質量和范圍方面。

      109.會員國應鼓勵私營公司為科學界獲取其數據用于研究提供便利,特別是在中低收入國家,尤其是最不發達國家、內陸發展中國家和小島嶼發展中國家。這種獲取應遵守相關隱私和數據保護標準。

      110.為確保對人工智能研究進行批判性評估并適當監測可能出現的濫用或負面影響,會員國應確保人工智能技術今后的任何發展都應建立在嚴謹和獨立的科學研究基礎上,并吸收除科學、技術、工程和數學(STEM)之外的其他學科,例如文化研究、教育、倫理學、國際關系、法律、語言學、哲學、政治學、社會學和心理學等,促進開展跨學科的人工智能研究。

      111.認識到人工智能技術為助力推進科學知識和實踐提供了大好機會,特別是在以往采用模型驅動方法的學科中,會員國應鼓勵科學界認識到使用人工智能的惠益、不足和風險;這包括努力確保通過數據驅動的方法、模型和處理方式得出的結論完善可靠。此外,會員國應歡迎并支持科學界在為政策建言獻策和促進人們認識到人工智能技術的優缺點方面發揮作用。

      【政策領域9:傳播和信息】

      112.會員國應利用人工智能系統改善信息和知識的獲取。這可包括向研究人員、學術界、記者、公眾和開發人員提供支持,以加強表達自由、學術和科學自由、信息獲取,加大主動披露官方數據和信息的力度。

      113.在自動內容生成、審核和策管方面,會員國應確保人工智能行為者尊重并促進表達自由和信息獲取自由。適當的框架,包括監管,應讓線上通信和信息運營商具有透明度,并確保用戶能夠獲取多樣化的觀點,以及迅速告知用戶為何對內容進行刪除或其他處理的相關程序和讓用戶能夠尋求補救的申訴機制。

      114.會員國應投資于并促進數字以及媒體與信息素養技能,加強理解人工智能系統的使用和影響所需的批判性思維和能力,從而減少和打擊虛假信息、錯誤信息和仇恨言論。此種努力應包括加強對推薦系統的積極和潛在有害影響的了解和評估。

      115.會員國應為媒體創造有利的環境,使媒體有權利和資源切實有效地報道人工智能系統的利弊,并鼓勵媒體在其業務中以合乎倫理的方式使用人工智能系統。

      【政策領域10:經濟和勞動】

      116.會員國應評估并處理人工智能系統對所有國家勞動力市場的沖擊及其對教育要求的影響,同時特別關注經濟屬于勞動密集型的國家。這可以包括在各級教育中引入更廣泛的跨學科“核心”技能,為當前的勞動者和年輕世代提供可以在飛速變化的市場中找到工作的公平機會,并確保他們對于人工智能系統的倫理問題有所認識。除了傳授專業技術技能和低技能任務知識之外,還應教授“學會如何學習”、溝通、批判性思維、團隊合作、同理心以及在不同領域之間靈活運用知識的能力等技能。關鍵是要在有高需求的技能方面保持透明度,并圍繞這些技能更新學校課程。

      117.會員國應支持政府、學術機構、職業教育與培訓機構、產業界、勞工組織和民間社會之間的合作協議,以彌合技能要求方面的差距,讓培訓計劃和戰略與未來工作的影響和包括中小企業在內的產業界的需求保持一致。應促進以項目為基礎的人工智能教學和學習方法,以便公共機構、私營公司、大學和研究中心之間能夠建立伙伴關系118.會員國應與私營公司、民間組織和其他利益攸關方(包括勞動者和工會)合作,確保高風險員工可以實現公平轉型。這包括制定技能提升計劃和技能重塑計劃,建立在過渡期內保留員工的有效機制,以及為無法得到再培訓的員工探索嘗試“安全網”計劃。會員國應制定并實施計劃,以研究和應對已確定的各項挑戰,其中可能包括技能提升和技能重塑、加強社會保障、主動的行業政策和干預措施、稅收優惠、新的稅收形式等。會員國應確保有足夠的公共資金來支持這些計劃。應審慎審查并在必要時修改稅制等相關法規,消解基于人工智能的自動化造成的失業后果。

      119.會員國應鼓勵并支持研究人員分析人工智能系統對于當地勞動環境的影響,以預測未來的趨勢和挑戰。這些研究應采用跨學科方法,調查人工智能系統對經濟、社會和地域因素、人機互動和人際關系產生的影響,以便就技能重塑和重新部署的最佳做法提出建議。

      120.會員國應采取適當措施,確保競爭性市場和消費者保護,同時考慮可在國家、地區和國際各級采取何種措施和機制來防止在人工智能系統的整個生命周期內濫用與人工智能系統有關的市場支配地位,包括壟斷,無論是數據、研究、技術還是市場壟斷。會員國應防止由此造成的不平等,評估相關市場,并促進競爭性市場。應適當考慮中低收入國家,尤其是最不發達國家、內陸發展中國家和小島嶼發展中國家,這些國家由于缺乏基礎設施、人力資源能力和規章制度等要素,面臨濫用市場支配地位行為的風險更大,也更容易因之受到影響。

      在已制定或通過人工智能倫理標準的國家從事人工智能系統開發的人工智能行為者,在出口這些產品以及在可能沒有此類標準的國家開發或應用其人工智能系統時,應遵守這些標準,并遵守適用的國際法以及這些國家的國內立法、標準和慣例。

      【政策領域11:健康和社會福祉】

      121.會員國應努力利用有效的人工智能系統來改善人類健康并保護生命權,包括減少疾病的爆發,同時建立并維護國際團結,以應對全球健康風險和不確定性,并確保在衛生保健領域采用人工智能系統的做法符合國際法及其人權法義務。會員國應確保參與衛生保健人工智能系統的行為者會考慮到患者與家屬的關系以及患者與醫護人員關系的重要性。

      122.會員國應確保與健康、特別是精神健康有關的人工智能系統的開發和部署適當關注兒童和青年,并受到監管,使其做到安全、有效、高效、經過科學和醫學證明并能促進循證創新和醫學進步。此外,在數字健康干預的相關領域,大力鼓勵會員國主動讓患者及其代表參與系統開發的所有相關步驟。

      123.會員國應特別注意通過以下方式規范人工智能應用程序中用于衛生保健的預測、檢測和治療方案:

     ?。╝)確保監督,以盡可能減少和減輕偏見;

     ?。╞)在開發算法時,確保在所有相關階段將專業人員、患者、護理人員或服務用戶作為“領域專家”納入團隊;

     ?。╟)適當注意因可能需要醫學監測而產生的隱私問題,并確保所有相關的國家和國際數據保護要求得到滿足;

     ?。╠)確保建立有效機制,讓被分析的數據主體了解對其個人數據的使用和分析并給予知情同意,同時又不妨礙他們獲取衛生保健服務;

     ?。╡)確保人工護理以及最終的診斷和治療決定一律由人類作出,同時肯定人工智能系統也可以協助人類工作;

     ?。╢)必要時確保在投入臨床使用之前由倫理研究委員會對人工智能系統進行審查。

      124.會員國應研究人工智能系統對于心理健康的潛在危害所產生的影響及如何加以調控的問題,例如深度抑郁、焦慮、社會隔離、成癮、販運、激進化和誤導等。

      125.會員國應在研究的基礎上,針對機器人的未來發展,制定關于人機互動及其對人際關系所產生影響的準則,并特別關注人類身心健康。尤其應關注應用于衛生保健以及老年人和殘障人士護理的機器人、應用于教育的機器人、兒童用機器人、玩具機器人、聊天機器人以及兒童和成人的陪伴機器人的使用問題。此外,應利用人工智能技術的協助來提高機器人的安全性,增進其符合人體工程學的使用,包括在人機工作環境中。應特別注意到利用人工智能操控和濫用人類認知偏差的可能性。

      126.會員國應確保人機互動遵守適用于任何其他人工智能系統的相同價值觀和原則,包括人權和基本自由、促進多樣性和保護弱勢群體或處境脆弱群體。應考慮與人工智能驅動的神經技術系統和腦機接口有關的倫理問題,以維護人的尊嚴和自主權。

      127.會員國應確保用戶能夠輕松識別與自己互動的對象是生物,還是模仿人類或動物特征的人工智能系統,并且能夠有效拒絕此類互動和要求人工介入。

      128.會員國應實施政策,提高人們對于人工智能技術以及能夠識別和模仿人類情緒的技術擬人化的認識,包括在提及這些技術時所使用的語言,并評估這種擬人化的表現形式、倫理影響和可能存在的局限性,特別是在人機互動的情況下和涉及到兒童時。

      129.會員國應鼓勵并促進關于人與人工智能系統長期互動所產生影響的合作研究,特別注意這些系統對兒童和青年的心理和認知可能產生的影響。在開展此類研究時,應采用多種規范、原則、協議、學科方法,評估行為和習慣的改變,并審慎評估下游的文化和社會影響。

      此外,會員國應鼓勵研究人工智能技術對于衛生系統的業績和衛生結果產生的影響。

      130.會員國和所有利益攸關方應建立機制,讓兒童和青年切實參與到關于人工智能系統對其生活和未來所產生影響的對話、辯論和決策中。

    五、監測和評估

      131.會員國應根據本國具體國情、治理結構和憲法規定,采用定量和定性相結合的方法,以可信和透明的方式監測和評估與人工智能倫理問題有關的政策、計劃和機制。為支持會員國,教科文組織可以從以下方面作出貢獻:

     ?。╝)制定以嚴謹的科學研究為基礎且以國際人權法為根據的教科文組織人工智能技術倫理影響評估(EIA)方法,關于在人工智能系統生命周期各個階段實施該方法的指南,以及用于支持會員國對政府官員、政策制定者和其他相關人工智能行為者進行倫理影響評估方法培訓的能力建設材料;

     ?。╞)制定教科文組織準備狀態評估方法,協助會員國確定其準備進程各個方面在特定時刻的所處狀態;

     ?。╟)制定教科文組織關于在事先和事后對照既定目標評估人工智能倫理政策和激勵政策效力和效率的方法;

     ?。╠)加強關于人工智能倫理政策的基于研究和證據的分析和報告;

     ?。╡)收集和傳播關于人工智能倫理政策的進展、創新、研究報告、科學出版物、數據和統計資料,包括通過現有舉措,以支持最佳做法分享和相互學習,推動實施本建議書。

      132.監測和評估進程應確保所有利益攸關方的廣泛參與,包括但不限于弱勢群體或處境脆弱群體。應確保社會、文化和性別多樣性,以期改善學習過程,加強調查結果、決策、透明度和成果問責制之間的聯系。

      133.為促進與人工智能倫理有關的最佳政策和做法,應制定適當的工具和指標,以便根據商定的標準、優先事項和具體目標,包括關于處境不利者、邊緣化群體和弱勢群體或處境脆弱群體的具體目標,評估此類政策和做法的效力和效率,以及人工智能系統在個人和社會層面產生的影響。人工智能系統及相關人工智能倫理政策和做法的影響監測和評估應以與有關風險相稱的系統方法持續開展。這項工作應以國際商定的框架為基礎,涉及對于私營和公共機構、提供方和計劃的評估,包括自我評估,以及開展跟蹤研究和制定一系列指標。數據收集和處理工作應遵守國際法、關于數據保護和數據隱私的國家立法以及本建議書概述的價值觀和原則。

      134.尤其是,會員國不妨考慮可行的監測和評估機制,例如:倫理問題委員會、人工智能倫理問題觀察站、記錄符合人權與合乎倫理的人工智能系統發展情況或在教科文組織各職能領域通過恪守倫理原則為現有舉措作出貢獻的資料庫、經驗分享機制、人工智能監管沙箱和面向所有人工智能行為者的評估指南,以評估會員國對于本文件所述政策建議的遵守情況。

    六、本建議書的使用和推廣

      135.會員國和本建議書確定的所有其他利益攸關方應尊重、促進和保護本建議書提出的人工智能倫理價值觀、原則和標準,并應采取一切可行步驟,落實本建議書的政策建議。

      136.會員國應與在本建議書的范圍和目標范疇內開展活動的所有相關國家和國際政府組織、非政府組織、跨國公司和科學組織合作,努力擴大并充實圍繞本建議書采取的行動。

      制定教科文組織倫理影響評估方法和建立國家人工智能倫理委員會,可以作為這方面的重要手段。

    七、本建議書的宣傳

      137.教科文組織是負責宣傳和傳播本建議書的主要聯合國機構,因此將與其他相關聯合國實體合作開展工作,同時尊重它們的任務授權并避免工作重復。

      138.教科文組織,包括其世界科學知識與技術倫理委員會(COMEST)、國際生物倫理委員會(IBC)和政府間生物倫理委員會(IGBC)等機構,還將與其他國際、地區和分地區政府組織和非政府組織開展合作。

      139.盡管在教科文組織范圍內,促進和保護任務屬于各國政府和政府間機構的職權范圍,但民間社會將是倡導公共部門利益的重要行為者,因此教科文組織需要確保和促進其合法性。

    八、最后條款

      140.應將本建議書作為一個整體來理解,各項基本價值觀和原則應被視為相互補充、相互關聯。

      141.本建議書中的任何內容既不得解釋為取代、改變或以其他方式損害各國根據國際法所負義務或所享權利,也不得解釋為允許任何國家、其他政治、經濟或社會行為者、群體或個人參與或從事任何有悖人權、基本自由、人的尊嚴以及對生物和非生物的環境與生態系統所抱之關切的活動或行為。

    責任編輯:藺弦弦

    分享:
    人妻无码人妻有码中文字幕,人妻丰满熟妇邻居无套中出,女人性高朝床叫流水免费视频,秋霞午夜理论理论福利无码
    <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <文本链> <文本链> <文本链> <文本链> <文本链> <文本链>