首頁  >  IT頻道  >  業界資訊  > 正文

AI並不是萬能的

2018-07-05 10:49:49 | 來源: 人民郵電報 | 編輯: 朱安娜 | 責編: 韓俁
分享到:

圖片默認標題_fororder_00000

  關於AI的未來,討論十分熱烈。我們聽過太多這樣的新聞:AI能治療疾病,加速科技創新,提高人類的創造力。如果僅僅是閱讀這些頭條,你恐怕會覺得,AI已經存在於我們生活的每一個角落了。AI為人類創造了無數機會,還引領了一種嶄新的思維模式,即“AI萬能主義”:如果有足夠的數據,機器學習算法能夠解決人類的所有問題。

  實際上,這種對於數據的看法存在一個很大的問題。這種看法不僅無法推動AI的發展,還會危害人工智慧的價值,因為它忽略了最為重要的AI安全原則,對AI提出了很多不切實際的期望。

  AI:夢想成真?

  在短短幾年的時間堙A“AI萬能主義”就廣泛地散佈開來,矽谷科技創業公司、世界各地的政府官員以及政策制定者們都對其深信不疑。輿論的鐘擺也晃到了另一側:AI不再是反烏托邦的象徵,AI不會摧毀人類社會;恰恰相反,AI算法是人類的救世主。

  各國政府大力推行全國性AI倡議,展開了AI領域的“軍備競賽”。英國政府稱將投入3億英鎊用於AI研究,希望能夠成為該領域的領導者。法國總統馬克龍也認識到AI的巨大潛力,承諾將法國打造成全球性的AI研究中心。

  與此同時,中國政府也大力支持AI產業的發展。中國AI產業的總價值將在2030年之前超過1500億美元。很多國家都希望能在第四次工業革命中成為領導者,“AI萬能主義”也因此“甚囂塵上”。然而,我們應當適時地放慢腳步。

  神經網絡的現實

  很多政治口號都強調“AI的革命性意義”。實際上,他們完全低估了在現實世界中真正運用先進的機器學習技術的難度。AI能做的事十分有限,和機器學習技術本身的工作原理密切相關。

  AI技術中最有前景的一項就是神經網絡。神經網絡大致模倣了人類大腦中的神經結構,但規模更小。很多基於AI的產品都使用了神經網絡,試圖從大規模的數據中找到一些規律。然而,很多政治家不能理解的是,神經網絡並不能自動解決所有的問題。實際上,AI並不能立刻讓我們的政府變得更加高效、更加靈活,也並不會讓我們的國家變得更加包容、公平、個性化。

  做個類比:如果我們想要把實體的購物中心轉變成在線購物商城。但發起一個網站,並不能足以成立一家互聯網公司。除了建立網站,還有很多事情要做。

  挑戰“數據官僚主義”

  AI系統需要大量的數據支撐,但目前公共部門並沒有足夠的數據基礎設施提供保障。很多數據無法上傳,而經過分析的數據大多由政府部門所管控。除此以外,如果數據想在政府不同部門之間流轉,需要特殊的批准程序。不僅如此,公共部門缺乏相關人才以及技術能力,無法完全最大程度地利用人工智慧技術。

  出於這些原因,很多人對盲目崇拜AI的態度表示批評。Stuart Russell是伯克利大學計算機科學系的教授。長期以來,他提倡以更為實際的態度來對待神經網絡。他認為,我們應該關注AI在日常生活中的應用,而非“超級智慧”機器人。麻省理工學院機器人係教授Rodney Brooks也撰文稱:“就目前為止,機器人、AI領域的所有創新距離真正能在生活中得以運用,還有很長的路要走。”技術的進展總是緩慢的。對於AI來說,數據是必不可少的。

  不僅如此,大規模部署機器學習系統還面臨一個重大的問題:AI系統極易遭受攻擊。這也意味著,一個惡意的AI系統能夠影響其他AI系統,並迫使後者做出錯誤預測,或者以特定方式行動。很多研究者都提出警告,提醒人們完善AI安全標準以及系統防護機制。因此,AI的安全性也成為政策制定者們所考慮的主要因素之一。

  機器,並非魔法

  如果我們想從AI技術中獲益,最大程度規避其負面影響,我們就應該開始思考,機器學習如何能被有意義地運用在政府、商界以及公民社會的特定領域之中。這意味著我們需要對AI倫理進行探討,消除人們對機器學習的不信任。

  最為重要的是,我們需要認識到AI的局限之處。在這些領域,人類仍然是不可或缺的主導者。我們不應該過分誇大AI的作用,我們需要認清AI的實際能力。機器學習並不是什麼魔法,更不是萬能的靈藥。

  Facebook最近也承認,AI並非總是能提供答案。長期以來,Facebook都認為,不實信息的傳遞、惡意言論的散播都能通過AI自動識別、阻止。然而,最近迫於立法者的壓力,Facebook承認,其數據並非通過算法得來,而是由超過10000位評論者人工偽造的。

  在醫學界,AI也並非萬能的解決方案。IBM Watson的腫瘤項目應用了AI技術,旨在幫助醫生治療癌症。然而,人類醫生卻發現,AI所給出的建議並非總是可信的。因此,很多醫院棄用該計劃,大量技術投資也化為泡影。

  法律界也存在類似的問題。在美國,法官會在法庭上使用AI算法幫助作出判決:AI算法能夠評估風險,並給出某人犯罪的可能性。AI設計的本意是讓法官的判決能夠以數據為依據。然而,該系統卻存在結構性種族歧視的問題,很多法律工作者和大眾對其持負面態度。

  與AI合作

  以上這些例子都表明,AI並不能解決全部的問題,AI也並不一定是所有問題最佳的解決方法。如果僅僅為了使用AI技術而使用AI技術,很可能會適得其反。

  其實,早在1964年,美國哲學家Abraham Kaplan就把這種趨勢稱為“工具法則”。他表示:“如果一個小男孩有了錘子,他會錘遍他所看到的一切事物。”

  只不過這一次,Kaplan口中的“小男孩”變成了各國的領導者。AI技術的錘子不僅力量非凡,價格也不菲。那些想要通過全國性AI項目爭取投資的人們應當意識到,所有事物都是有代價的,自動化並不能解決一切問題。

  我們應當行動起來,在不遠的未來實現AI的普及;但我們也不應該目光狹隘,把AI當作所有問題的解決方法。我們自己的問題需要我們自己解決,AI系統則是我們的絕佳助手。(Vyacheslav Polonski,牛津大學研究員)

國際在線版權與信息產品內容銷售的聲明:

1、“國際在線”由中國國際廣播電臺主辦。經中國國際廣播電臺授權,國廣國際在線網絡(北京)有限公司獨家負責“國際在線”網站的市場經營。

2、凡本網註明“來源:國際在線”的所有信息內容,未經書面授權,任何單位及個人不得轉載、摘編、複製或利用其他方式使用。

3、“國際在線”自有版權信息(包括但不限于“國際在線專稿”、“國際在線消息”、“國際在線XX消息”“國際在線報道”“國際在線XX報道”等信息內容,但明確標注為第三方版權的內容除外)均由國廣國際在線網絡(北京)有限公司統一管理和銷售。

已取得國廣國際在線網絡(北京)有限公司使用授權的被授權人,應嚴格在授權範圍內使用,不得超範圍使用,使用時應註明“來源:國際在線”。違反上述聲明者,本網將追究其相關法律責任。

任何未與國廣國際在線網絡(北京)有限公司簽訂相關協議或未取得授權書的公司、媒體、網站和個人均無權銷售、使用“國際在線”網站的自有版權信息產品。否則,國廣國際在線網絡(北京)有限公司將採取法律手段維護合法權益,因此產生的損失及為此所花費的全部費用(包括但不限于律師費、訴訟費、差旅費、公證費等)全部由侵權方承擔。

4、凡本網註明“來源:XXX(非國際在線)”的作品,均轉載自其它媒體,轉載目的在於傳遞更多信息,豐富網絡文化,此類稿件並不代表本網贊同其觀點和對其真實性負責。

5、如因作品內容、版權和其他問題需要與本網聯絡的,請在該事由發生之日起30日內進行。