>
梅裏·馬達沙希:擁抱數字化轉型 推動科技倫理治理
2023-11-17   |   中央廣電總臺國際在線

梅裏·馬達沙希:擁抱數字化轉型,推動科技倫理治理

文/梅裏·馬達沙希

聯合國前高級經濟官員

創意中心諮詢委員

華南理工大學公共政策研究院客座教授

導讀

Introduction

  人工智能(AI)技術的迅猛發展正在不斷重塑我們的世界。AI的交叉性和學習能力正推動著人類知識結構、決策制度和創新軌跡的深刻轉型。

  然而,鋻於其顛覆性和尚不明確的技術圖景,其發展也有可能會導致極具破壞性的結果。

  如何管控人工智能發展,避免其可能造成的惡性結果?

  聯合國教科文組織國際創意與可持續發展中心諮詢委員梅裏·馬達沙希(Mehri Madarshahi)認為,當前的首要任務,是共同鑄造一個相容並蓄、普遍適用的人工智能治理架構,讓國際社會既能釋放人工智能潛力、又能妥善管理其風險。

  擁抱數字化轉型,推動科技倫理治理

  過去人工智能只存在於人類的幻想中,如今已經成為發展最快的技術,在各領域均得到了廣泛的應用。

  然而,人工智能的崛起引發了全球監管機構的擔憂,進而引發了有關人工智能監管話題的思考。人工智能存在的不可控性、演算法歧視、虛假信息傳播、個人數據濫用等問題,已經讓國際社會意識到人工智能監管的必要性。

  雖然人工智能的前景不可估量,但是一旦濫用,就會給公共安全帶來巨大隱患,侵蝕社會信任乃至侵犯個人自由。

梅裏·馬達沙希:擁抱數字化轉型,推動科技倫理治理

  Impacts of Artificial Intelligence. (Elysium Embedded School)

  連結:https://embeddedschool.in/how-does-artificial-intelligence-impacts-our-lives/

  人工智能在網絡上生成虛假信息的能力,進一步印證了人工智能監管的必要性。即便如此,人工智能前所未有的強大能力,迫使人工智能監管面臨嚴峻挑戰。

  今天,包括中國在內的多個國家,正在研究如何在充分運用人工智能潛力的同時,最大限度地減少由此對人類帶來的潛在風險。與基於漸進式路徑的技術不同,人工智能通常具有自我指導、自我複製、自我改進等特點。因此,制定人工智能的國際法規是一項長期性事業,也是一項全球性任務。

  監管機構應該如何解決計算機脫離人類控制的擔憂?是否應該主動干預存在歧視風險或主動干預對數十億人産生不利政治影響的演算法?應該採取何種措施來降低虛假信息傳播、個人數據濫用等與聊天機器人相關的風險?上述問題是監管機構面臨的第一要務。

梅裏·馬達沙希:擁抱數字化轉型,推動科技倫理治理

圖源:網絡

  最近有報道指出,人工智能可以用於製造和傳播有害信息,侵蝕社會信任和民主,監視、操縱和限制個人行為,破壞個人和集體自由,甚至生産威脅人類生存的武器。

  與此同時,人工智能可能會導致數以百萬計的就業機會流失,加劇現有的不平等,創造新的不平等,産生更嚴重的演算法歧視。

  上述風險只是冰山一角。由於人工智能發展速度過快,故在某些情況下,我們對其潛在風險知之甚少,以至於迄今為止,世界各國尚未就人工智能監管達成共識。

  大型語言模型(例如ChatGPT)的突破性進展,為人工智能的發展注入了強勁動力,但同時也引發了職業替代和勞動力需求下降的擔憂。人工智能研究公司(OpenAI)與賓夕法尼亞大學最近合作進行的一項研究指出,大型語言模型及其他先進人工智能模型的問世,將對白領階層造成廣泛影響。

  從短期來看,人工智能將具備在網絡上傳播虛假信息的能力。在不久的將來,通用人工智能將成為現實,即一種能夠在各種任務中表現出超越人類智慧的計算機系統,且具備自我指導、自我複製、自我改進等超出人類控制的能力。

  人工智能並非第一個具有上述特徵的技術,而是一個高新技術的整合體。人工智能不同於互不關聯、依賴漸進式創新的硬體技術(例如汽車、飛機等)。

梅裏·馬達沙希:擁抱數字化轉型,推動科技倫理治理

圖源:Dawson college 作者:Michel Fournier-Simard

  隨著人工智能優勢的凸顯,人工智能將變得更加智慧、高效、便宜和普及,並具備一定的自主性(例如能夠在有限的人為監督下完成特定任務),以及自我改進的能力。

  然而,一旦人工智能的能力過於強大,就可能會對傳統的治理模式構成挑戰。這意味著,在未來幾年裏,人工智能的發展將主要由少數企業主導,而並非政府機構。這其中涉及的微妙性和風險性,使得人工智能的挑戰不同於世界以往面臨的任何挑戰。

  政府機構在人工智能治理方面取得的進展乏善可陳。大多數有關人工智能治理的政策建議,均是由缺乏對人工智能有深刻理解的政策專家提出的。

  人工智能監管在世界各國的進展情況

  ►  中國開展人工智能監管的情況  

  一些國家對如何構建和使用演算法和信息源提出了新的要求,這對於全球人工治理具有潛在的重大意義。這很可能將成為未來中國綜合性人工智能法律的知識基礎,正在推動中國成為人工智能治理的“試驗田”。

  中國發佈的全球首部關於生成式人工智能的法規,標誌著中國在新興技術監管領域邁出了重要一步。中國之所以能夠取得如此成就,其主要原因是因為中國早就認識到人工智能蘊含的巨大潛力及以負責任、符合道德規範的方式使用人工智能的必要性。

  認識到數字經濟帶來的重大機遇,中國採取了一系列積極措施。例如,2023年,中國推出了《生成式人工智能服務管理暫行辦法》(以下簡稱為《暫行辦法》),並進一步完善了其網絡安全法,以便更好地保護個人和組織的網絡安全。

  中國為了促進科技創新與合作,設立了人工智能研發基地和人工智能試點項目,並設定了一系列宏大的目標,其中包括到2025年核心數字經濟産業的份額提高到中國國內生産總值的10%。此外,中國的另一個目標是讓更多的家庭獲得每秒至少1GB的寬頻。

  中國將提升在感測器、量子信息、通信、積體電路、關鍵軟體、大數據、人工智能、區塊鏈、新材料等“戰略領域”的基礎研究能力,並在基礎軟硬體、核心電子元器件、關鍵基礎材料、生産設備等方面實現自給自足,以此加強5G、積體電路、新能源汽車、人工智能、工業互聯網等重點領域的供應安全。

  中國採取的多項措施可以為人工智能公司和研究人員營造良好的創新環境,並有助於在確保法規遵從性的同時,鼓勵人工智能産業的發展。《暫行辦法》是中國人工智能監管框架的一個重要補充,其目的是構建綜合性人工智能治理模式。這同時也表明,中國致力於構建自己的人工智能治理模式。

  ►  歐盟、英國、美國等國家的開展情況  

  歐盟(包括27個成員國)、美國、英國、日本、印度、阿聯酋、沙特阿拉伯、新加坡等國均制定了數字經濟專項行動計劃。

  目前,歐盟的《人工智能法案》已經進入立法審議階段。該法案是一項全面的産品安全立法,旨在規範開發、銷售和使用與人工智能相關的産品和服務。《人工智能法案》關注的重點是高風險人工智能,尤其是參與工作或貸款申請決策的人工智能。歐盟要求企業披露用於創建和訓練人工智能模型的數據源,並對任何濫用行為承擔責任。此外,歐盟禁止企業使用不可接受風險的人工智能,同時對低風險人工智能施加適度的限制。

  為了推動《人工智能法案》的落地實施,歐盟將設立“歐洲人工智能辦公室”,負責提供政策性意見、建議和指導。該法案預計將在2023年年底前獲得通過。即便如此,一些歐洲企業仍擔心《人工智能法案》可能會對未來人工智能的發展造成不利影響。

  相比之下,英國並未出臺與人工智能相關的法案,而是要求監管機構遵守五項基本原則(安全性和穩健性、透明度和可解釋性、公平性、問責制和管理,以及可競爭性),以此促進人工智能在各領域中的創新和安全應用。

  美國在人工智能監管方面採取了較為謹慎的態度,目前尚未進行相關的立法。聯邦政府鼓勵人工智能産業實行自我監管,部分州政府為了解決個人隱私、數據安全以及演算法歧視的問題,已經出臺了針對人工智能的法律法規。總而言之,美國在人工智能監管方面目前仍處於觀望態度。

梅裏·馬達沙希:擁抱數字化轉型,推動科技倫理治理

圖源:網絡

  事實上,科技公司也一直在積極倡導對人工智能進行監管。2023年5月,數百名人工智能專家聯合發表了一份聲明,警告人工智能對人類構成的潛在生存威脅。2023年7月微軟、人工智能研究公司、谷歌、亞馬遜、臉譜網等美國頭部人工智能公司向社會做出公開承諾,將以負責任的方式開發人工智能。

  新加坡是擁有龐大數字基礎設施堆棧總體規劃項目的國家。新加坡的戰略重點包括提前投資及全面規劃整個面向未來的數字基礎設施堆棧(硬基礎設施、物理數字基礎設施和軟基礎設施),可為新加坡未來的經濟增長提供動力。

  歐盟人工智能監管框架能否引領世界?

  就目前而言,全球在人工智能監管方面尚處於起步階段,仍存在許多不足之處。雖然歐盟的《人工智能法案》是一項大膽的嘗試,但是歐盟對人工智能的監管力度,可能難以跟上人工智能的發展速度。此外,歐盟的法規可能更符合歐盟國家的需求。

  2023年11月,英國主辦首屆全球人工智能峰會,旨在討論人工智能監管方面的國際協作及如何降低人工智能的相關風險。

  雖然行業自律對於人工智能監管至關重要,但是還需要制定監管細則、登記備案和報告制度以及安全標準。上述措施與行業自律相結合,將更有助於確保安全、負責任地管理人工智能的開發和應用。

  然而,由於目前利益相關方之間在監管措施上仍存在分歧,而且公眾對監管機構普遍缺乏信任,故制定多方認可的人工智能監管方案仍困難重重。

  具體而言,在行業實行自我監管的同時,還必須輔之以三大基本要素:

  第一,針對人工智能研發人員,制定合理的監管細則。

  第二,制定登記備案和報告制度,以確保人工智能開發過程的可預見性。

  第三,為人工智能的開發和應用制定安全標準。

  此外,監管沙箱不僅可以為人工智能的測試和創新提供受控環境,還可以確保其符合安全和道德標準。

  人工智能治理的核心在於防患于未然,並非事後補救,這一點尤其重要。

  人工智能治理是一項富有挑戰性的任務,其關鍵在於構建促進負責任、合乎道德地使用人工智能的監管框架。

  推動行業自律是第一步,同時還需要制定監管細則、登記備案和報告制度以及安全標準。這樣一來,監管機構便能夠有效地監管人工智能的開發和應用,並確保該技術的應用符合社會價值觀和人類的共同利益。

  值得注意的是,人工智能並非是當今唯一的變革性技術。量子計算、生物技術、納米技術和機器人技術也可能像人工智能一樣,具有重塑世界的能力。因此,人工智能治理的成敗,決定著其他變革性技術治理的成敗。

  綜上所述,具有針對性和協作性的人工智能治理方案,對於構建全球人工智能監管框架至關重要。只有在促進科技創新的同時,降低科技創新帶來的風險,我們才可以充分利用人工智能的潛力來保護個人權利,維護國家安全,以及造福社會。

梅裏·馬達沙希:擁抱數字化轉型,推動科技倫理治理

圖源:網絡

  為此,世界各國必須盡可能地在國家體制上保持一致,以便更好地控制人工智能的傳播。否則,全球人工智能産業可能將陷入繁文縟節的泥潭。

  人工智能治理必須是全球性的,且能夠根據技術性質、面臨的挑戰以及政治結構和權力關係進行調整。

  構建全球人工智能監管框架,可能需要全社會的共同參與。這意味著除了政府和科技公司以外,科學家、倫理學家、工會、民間團體等關注人工智能發展的社會群體,也應該積極參與人工智能監管事業,共同推進人工智能的負責任使用。

  不受控制的人工智能,可能會對全球穩定構成不可接受的風險,也不利於商業發展,更不符合世界各國的共同利益。

  如何充分利用人工智能的優勢及避免人工智能的負面影響,是我們構建全球人工智能監管框架時需要考慮的重要因素。鋻於技術發展和迭代的速度,此事不容遲疑,利益相關方必須立即採取行動。

編輯: 馮薇薇
標簽: