
梅裏·馬達沙希
前聯合國秘書處高級經濟官員
國際創意與可持續發展中心諮詢委員
華南理工大學、廣東外語外貿大學、
暨南大學客座教授
人工智能在極短的時間內,已從技術創新的邊緣領域躍升至日常生活、公共管理、經濟戰略和全球治理的中心。它日益深刻地影響著人們溝通、學習、消費、創造、與機構互動以及想像未來的方式。其應用現已深入教育、醫療、安全、城市規劃、通信、文化生産、環境監測及公共服務管理等多個領域。在許多社會中,人工智能已不再僅僅被視為一種新興技術,更是一種具有重構社會關係、加速決策進程、重新定義效率與進步內涵的組織性力量。
這種擴張也催生了關於其巨大潛力的主流敘事。人工智能常被描繪成一種變革性工具,能夠幫助人類大規模解決複雜問題——從資源分配、氣候建模到教育普及、公共衛生和經濟優化。在可持續發展的語境下,它日益被定位為加速實現目標的工具:能夠改進數據分析、加強預測能力、支持基於證據的政策制定,並使各種系統更具響應性和效率。在這種觀點下,人工智能不僅是一項技術突破,更可能成為實現可持續發展目標不可或缺的盟友。
然而,這種信心基於一個值得更審慎審視的假設:即人工智能可以被整合到發展的各個維度,而不會根本性地改變發展所依賴的人類意義、社會價值和文化框架。問題不在於人工智能是否能執行有用的任務——顯然它能。更困難的問題是,對人工智能日益增長的依賴,尤其是在涉及身份、記憶、創造力、教育、正義和社群等領域,是否會重塑我們追求發展所處的規範環境。
正是在這一點上,文化變得至關重要。文化不僅僅是眾多部門中的一個,也不僅僅是與經濟和社會目標並列需要保護的藝術表達或遺産集合。文化是社會産生意義、傳遞記憶、協商身份並定義其珍視之物的領域。它塑造了社群如何理解尊嚴、責任、歸屬感、正義、延續性與變遷。從這個意義上説,文化並非外在於發展,而是發展得以被理解、獲得合法性並具有可持續性的條件之一。
然而,在我們這個時代的主流發展框架中,文化在制度上仍處於邊緣地位。在《2030可持續發展議程》的原始架構中,儘管各方多次呼籲給予文化更明確的規範性承認,但它並未被列為一項獨立的目標。這一遺漏頗為耐人尋味。這表明,那些最可衡量、最易管理、最便於技術官僚掌控的方面繼續獲得正式的優先地位,而人類生活中那些闡釋性的、關係性的、植根于歷史的維度,在政策設計中仍較難被看見。當前對人工智能的熱情可能會加劇這種失衡。
人工智能的文化限度
因此,本文的核心論點雖直接但影響深遠:人工智能與文化之間不存在內在的平衡力量。人工智能和文化遵循不同的邏輯,服務於不同的人類功能。人工智能擅長抽象化、預測、分類和優化。文化則存在於闡釋、模糊性、記憶、倫理判斷、象徵意義和生活經驗之中。人工智能可以支持發展的特定方面,甚至可能有助於保存或傳播文化材料,但它無法取代人類賦予發展意義的闡釋框架。我們也不能假定技術的擴張會自然而然地尊重文化的深度。若要在人工智能與文化之間建立任何平衡,必須通過治理、批判性反思,以及重申人類目標對技術邏輯的優先地位,來有意識地構建。
這種緊張關係的第一個跡象,出現在人工智能與可持續發展本身相關聯之時。當前許多討論假設人工智能可以作為可持續發展目標的中性加速器。在某些領域,這無疑是正確的。人工智能可以支持數據分析、資源分配、環境監測、物流、基礎設施規劃和行政協調,能夠在海量數據集中識別模式,提高壓力下系統的效率。這些都是有意義的能力,不應被否定。
但可持續發展目標不僅僅是一項技術議程,它也是一項關乎人、社會和規範的議程。它不僅關乎服務的提供,更關乎尊嚴、包容、正義、韌性和集體責任的條件。這正是人工智能局限性顯現之處。當問題是優化問題時,人工智能很有用;但當問題涉及價值觀、社會信任、倫理判斷、文化合法性或結構性不平等時,它則遠非如此有用。在這些情況下,重要的不僅僅是政策是否有效,更在於它是否被接受、被理解、被共享,並植根于其所影響人群的現實生活。
重新思考人工智能與可持續發展目標之間的關聯
這就是為何人工智能在可持續發展目標議程的幾個重要方面基礎薄弱。
關於目標5:性別平等,人工智能在某些方面可以通過識別薪酬、機會、代表性、教育和服務交付方面的差異來協助實施,可以支持數據收集,揭示排斥模式,幫助機構發現可能被掩蓋的不平等。但這裡的局限性是深遠的。人工智能系統是在已經包含性別偏見的社會所産生的數據上訓練的。結果,它們可能繼承、複製甚至在技術中立的表像下強化歧視。用於招聘、信貸、安全、福利分配或績效評估的自動化系統,如果底層數據反映了過去的排斥,就很容易複製不平等的假設。更根本的是,性別平等不僅僅是一個發現問題,它涉及權力、法律、制度改革、代表性和社會轉型,需要改變機會、話語權、保護和社會規範。人工智能可以幫助揭示不平等模式,但無法獨自改變産生這些模式的結構。在這個意義上,它可能有助於診斷,卻無法帶來解放。
關於目標11:可持續城市與社區,人工智能無疑有助於管理交通流量、能源使用、廢物系統和城市規劃模型。然而,可持續社區並非僅靠優化就能建成。一個城市之所以可持續,並不僅僅因為它"智慧",而是當人們感到自己屬於它,當遺産受到尊重,當公共空間支持社會生活,當多樣性得到保護,當發展不抹去記憶和身份時,它才是可持續的。這些問題首先是文化問題,然後才是技術問題。一個人工智能系統可以改善城市管理,卻可能對城市對居民的意義漠不關心。過度依賴數字模型可能會催生更高效但更缺乏人性的城市環境:更多監控、更多標準化、更多商業理性化,而較少關注地方歷史、社區特色和非正式的社會實踐。從這個意義上説,人工智能可能強化了城市管理,卻未能強化社區。而沒有社區,可持續城市的概念就變得空洞。
人工智能的局限性在目標12:負責任消費和生産中甚至更加明顯。在操作層面,人工智能可能非常有用,可以優化供應鏈、減少浪費、改進庫存管理、監控資源使用、預測需求並支持循環經濟實踐。在這個意義上,它可以幫助提高生産系統的效率,減少可衡量的低效形式。然而,目標12不僅僅是關於效率,它也關乎改變生産和消費文化本身。不可持續的發展不僅由技術浪費驅動,也由過度消費的習慣、一次性生活方式、短期利潤激勵以及將幸福等同於不斷擴張的物質獲取的社會規範所驅動。人工智能可能有助於更有效地管理這些系統,卻未觸動其深層邏輯。在某些情況下,它甚至可能通過使生産、行銷和消費者定位更精確、更有利可圖來強化這種邏輯。因此,人工智能可以在一個不可持續的模式內減少浪費,卻不一定改變模式本身。它可以在不質疑過度消費的情況下優化消費。
類似的矛盾也出現在目標13:氣候行動中。人工智能在氣候建模、災害預測、能源預測和排放監測方面可能極其強大。然而,氣候行動最終的成功或失敗不僅僅取決於數據,還取決於行為、政治意願、公眾信任和共同犧牲。這些是深刻的文化問題。生態轉型需要生活方式、消費習慣、社會優先事項和集體想像的改變,取決於社會是否願意重新思考便利、增長、流動性、浪費以及代際責任。人工智能可以為這些辯論提供信息,但無法産生維持這些辯論所需的倫理承諾。它可以告訴社會正在發生什麼,卻無法決定社會願意放棄、保護或珍視什麼。氣候行動還依賴於團結和責任的敘事,需要人們感受到與地方、與未來世代、與彼此之間的聯繫。這種聯繫是文化的、道德的和歷史的,並非源於演算法計算,而必須通過教育、藝術、公共話語和社會制度來培養。我在此不願涉足另一場辯論,即人工智能本身可能通過數據中心及其巨大能源消耗的擴張在多大程度上加劇氣候挑戰。目前尚無解決方案和出路!
或許目標16:和平、正義與強大機構,在團結和責任方面最為敏感。雖然人工智能可以在有限但有意義的方面支持這一目標,例如幫助檢測欺詐、改進文件管理、識別行政瓶頸、加強信息獲取、揭示與腐敗、暴力或機構低效相關的一些模式,但這可能也是過度依賴人工智能最危險的領域之一。和平、正義和強大機構依賴於合法性、公平性、問責制和信任。這些不是技術産出,而是政治和道德的成就。人工智能可能加快程式,但不會創造正義;它可能對風險進行分類,但不會創造合法性;它可能處理機構數據,但無法替代倫理判斷或民主責任。還存在一種危險,即人工智能恰恰加深了目標16試圖克服的問題。演算法畫像、預測性警務、不透明的行政決策、自動監控和有偏見的風險評分,都可能損害而非保護權利。在脆弱或兩極分化的社會中,此類使用可能進一步削弱對機構的信任。
即使在目標4:優質教育中——人工智能常被譽為強大的均衡器——同樣的問題也出現了。人工智能可以個性化學習,拓寬信息獲取渠道,協助教師和機構提供教育資源。然而,教育不僅僅是信息傳遞,它還關乎形成判斷力、同理心、創造力、公民意識以及包容差異的能力。這些不是可以通過智慧系統完全設計出來的産出。一個學生並非僅僅通過接收優化後的內容就變得受過教育。教育仍然是一個關係性和文化性的過程。如果教育越來越多地通過推崇速度、預測和標準化的系統來仲介,那麼風險不是無知,而是狹隘化:學生可能更擅長駕馭信息,卻在闡釋、反思和道德辨別方面變得更弱。
在這些可持續發展目標中識別出的弱點並非偶然。它們揭示了人工智能邏輯與文化本質之間更深層次的不匹配。一旦將文化理解為意義的領域而不僅僅是信息,人工智能在發展領域中的局限性就更容易識別。在多個可持續發展目標中觀察到的困難不僅僅是技術不完善或數據不足的結果,它們指向一個更結構性的問題:在挑戰可以被轉化為可衡量變數、可預測模式和可優化流程的地方,人工智能非常高效;但在進步依賴於闡釋、社會合法性、倫理判斷、歷史記憶和共享價值的地方,它的效率則低得多。而恰恰是這些後者的維度屬於文化的範疇。
理解文化與人工智能的區別
從這個角度看,文化不是發展的外部補充,也不是在設計技術系統之後才考慮的裝飾性維度。它是社會據以定義何謂福祉、正義、責任、歸屬和進步的解釋框架。文化塑造了社群如何理解其需求、如何協商優先事項、如何記憶過去以及如何想像未來。因此,文化不能被視為人工智能驅動發展模型中的次要變數。它恰恰是發展意義得以在社會中構成的領域。
這就是為什麼必須謹慎地概念化文化與人工智能之間的關係。兩者不在同一個認識論或規範性層面上運作。人工智能通過抽象化、編碼化、預測和優化來運作,依賴於將現實轉化為數據、識別規律、以及基於統計推斷或形式化規則産生輸出。相比之下,文化不能簡化為可以被計算系統完全捕獲、標準化或處理的信息。它是歷史積澱的、社會體現的、象徵性仲介的,並通過生活經驗被不斷地重新闡釋。
這一區別至關重要,因為當代的討論常常仿佛文化只是另一個可以應用計算工具而無概念損失的部門。然而,文化不僅僅是遺産、語言、習俗或藝術表達的倉庫。它是社群賦予世界意義、協商身份、傳遞價值觀、並將自身置於與過去和未來的關係中的動態媒介。它不是靜態的,也不是中立的。它通過爭辯、重新闡釋、選擇性記憶和變化的社會關係而演變。其連續性不在於機械重復,而在於人類更新、爭論和重構既有生活形式的能力。
人工智能帶著相當的技術力量進入這一領域,但闡釋能力有限。它可以對圖像進行分類、生成文本、模倣風格、重建文物,並在海量材料中檢測模式。然而,這些能力不應與任何深層文化意義上的"理解"相混淆。識別一個模式不等於把握其意義。再現一種形式不等於繼承了該形式獲得意義所依賴的歷史意識、象徵密度或社群依戀。人工智能可能以日益精湛的技巧模擬文化表達,但這種模擬仍然不同於參與一個充滿記憶、價值和經驗的活生生的世界。
因此,問題不僅僅在於人工智能有局限。更深層的問題是,人工智能的力量本身可能助長一種對文化的誤導性概念。當通過數據提取、模式識別、可擴展性和優化這些操作範疇來接近文化時,存在著一種風險:只有那些對機器來説可讀的文化生活方面才被視為相關。細微差別、模糊性、沉默、反諷、儀式深度、少數群體的意義以及依賴語境的闡釋更難被形式化,因此更可能被邊緣化。通過這種方式,文化的技術仲介可能逐漸重組什麼在文化上被視為可見的、有價值的或可保存的。
當人工智能嵌入傳播和治理系統時,這種擔憂變得更加嚴重。文化不僅被表達,它還被流通、排序、過濾、翻譯、存檔和制度化。一旦演算法系統通過推薦系統、自動翻譯、內容審核、搜索優先排序或文化分析來大規模塑造可見性,它們就不僅僅是傳播文化,它們開始構建文化出現的條件。什麼被放大、什麼被邊緣化、什麼被歸類為真實的、什麼被變得全球可讀——這些不再是純粹的人類判斷,而日益受到根據技術、商業和地緣政治優先級設計的架構的影響。
這涉及到了一個不容忽視的權力問題。人工智能系統並非文化中立的工具。它們在特定的制度和經濟學背景下開發,在不均衡分佈的數據集上訓練,並在充斥著語言、可見性和影響力不對稱的環境中部署。結果是,它們可能使主導語言優先於邊緣化語言,使編碼化知識優先於口頭傳統,使標準化表述優先於地方性意義,使具有商業價值的內容優先於具有文化重要性但數字化程度較低的表達形式。因此,問題不僅僅是狹義上的技術偏見,而是更廣泛的可能性:人工智能可能在將自身呈現為中性基礎設施的同時,強化文化承認的等級制度。
這並不意味著人工智能在文化生活中沒有位置——顯然它是有位置的。但是,問題在於,日益增長的對人工智能的依賴是否完全合理地改變了文化被承認、被珍視和被傳遞的條件。一旦提出這個問題,議題就不僅僅是技術能力本身,而變成了文化自主性、倫理治理和知識責任的問題。
如果前面的討論表明可持續發展的許多維度依賴於文化意義、社會合法性和人類闡釋,那麼一個重要的悖論就立即顯現出來:文化對於許多可持續發展目標的實現不可或缺,然而在目標本身的架構中,它在制度上卻仍處於邊緣地位。儘管學者、實踐者和文化組織多次呼籲,文化並未在《2030年議程》中被確立為一項獨立的可持續發展目標。這一遺漏不僅僅是行政性的,它反映了當代全球治理中對發展概念化方式的一個更深層次的困境。
可持續發展目標被設計為普遍的、可衡量的、與政策相關的,並且能在高度多樣化的國家背景下進行政治協商。文化並不那麼容易契合這個模型。其意義是語境依賴的、歷史層疊的,並且常常抗拒標準化。與基礎設施或排放不同,文化無法通過普遍指標完全捕捉而不損失使其具有社會重要性的很大部分。
這有助於解釋為什麼文化常常在口頭上被承認,而在制度上仍然薄弱。它經常被援引為身份、遺産、創造力、包容性和社會凝聚力的跨領域維度,但這些承認很少轉化為發展政策中同等的規範地位。
然而,具有諷刺意味的是,文化悄然支撐著所有目標的成敗。健康方面的進步依賴於信任、行為、溝通和當地對風險的理解。教育方面的進步依賴於語言、身份、權威和社會目標。性別平等的進步依賴於規範、價值觀、象徵性角色和變革的合法性。和平與正義的進步依賴於記憶、承認、歸屬感和機構的道德權威。氣候行動的進步依賴於公眾想像力、代際倫理,以及重新思考消費和責任的文化意願。換句話説,文化並非對實施而言是邊緣的,它塑造了實施被接受、抵制、適應或變得持久的那些社會條件。
那麼,為什麼在可持續發展中提升文化地位的努力一再失敗?部分答案在於政治上的謹慎。一個關於文化的獨立目標將引發棘手的問題:誰的文化?哪些價值觀?何種形式的承認應在全球層面制度化?
另一部分答案在於對測量的焦慮。全球議程青睞于可追蹤的東西。然而,文化恰恰在其超越度量簡化的地方最為強大。結果,文化常常被更易測量的變數所取代,即使這些變數無法完全解釋發展成果是否具有社會根基或歷史可持續性。
這一遺漏對關於人工智能的辯論具有重要影響。如果文化在可持續發展目標框架中已經處於弱勢的正式地位,那麼將人工智能作為實施工具的熱情高漲就可能加深這種失衡。可衡量的變得更為可見,可優化的變得更為可控,數據豐富的變得更具可操作性。在這樣的條件下,與發展最密切相關的文化方面可能變得更加容易被忽視——不是因為它們不重要,而是因為它們更難被轉化為計算術語。
因此,挑戰不僅僅是將文化更顯眼地插入現有的政策語言中,而是認識到可持續發展從來不僅僅依賴於技術交付。它依賴於人類闡釋變化、認可規範、傳遞記憶和想像一個值得持續的未來之能力。這些是文化能力。沒有它們,發展可能變得更可衡量、更數字化、更具行政效率,同時變得不那麼有意義、不那麼紮根,並最終不那麼可持續。
因此,認為人工智能與文化會自然而然地找到一種富有成效的均衡,是當前政策話語中最令人安心卻最少被審視的想法之一。然而,本文的分析表明並非如此。人工智能與文化之間不存在固有的平衡機制,因為兩者由不同的驅動力所引導。
從這個意義上説,政策制定者、學者、教育者和文化機構面臨的挑戰,不是抽象地歌頌夥伴關係,而是治理不對稱性;是確保為計算而設計的系統不會悄然重新定義植根于意義的領域;是認識到可持續發展,如果要保持真正以人為中心,就不能僅建立在技術加速之上,還必須保護那些文化能力和倫理能力——人類社群通過這些能力來決定進步是為了什麼。
人工智能與文化之間的未來關係,不會僅由創新來決定。它將由社會是否願意將技術力量置於人類目標之下來決定,而非使人類目標適應技術邏輯。只有在這些條件下,人工智能才能繼續作為發展的工具,而不是成為一種抽空發展之文化與道德實質的力量。