當前位置:首頁 > 新聞中心 > 媒體掃描

媒體掃描

【中國科學報】從技術推進到全球合作——人工智能治理,我們還能做些什麽

  • 发表日期:2021-01-19 【 【打印】【關閉】
  •   未來人工智能在社會中扮演什麽角色,取決于人類如何去實現和實現什麽樣的通用智能和超級智能。

      ■本报记者 陈彬 

      從百年前的《大都會》到已被列爲經典的《2001太空漫遊》《黑客帝國》,只要是涉及到科幻電影,人工智能(AI)幾乎都會成爲必不可少的存在。

      在大部分電影中,人工智能被設定爲人類的“公敵”,足見人類對于未來人工智能治理的憂慮。

      回到現實,不久前,由清華大學人工智能國際治理研究院主辦的首屆“清華大學人工智能合作與治理國際論壇”在該校落下帷幕。在這場持續兩天的論壇上,對于人工智能未來的發展,以及由此可能帶來的治理問題,與會學者展開了一場熱烈的討論。

      這場討論與科幻無關,但卻可能關乎到人類未來。

      人工智能發展的非商業“盲區” 

      2016年,一項來自BBC的數據分析曾預測,2020年全球人工智能市場規模將達到183億美元,約合人民幣超千億元。轉眼間,2020年已然過去,近日根據普華永道會計師事務所的一項數據預測,2020年全球人工智能市場規模達到2萬億美元。

      這兩組相隔四年的數據足以折射出近年來人工智能在全球範圍內的飛速發展。

      然而,在人工智能快速發展的背後,還有哪些人們尚未關注到的“盲區”呢?

      论坛上,中國科學院自动化研究所中英人工智能伦理与治理中心主任曾毅坦言,虽然人工智能技术发展迅速,但目前其主要贡献于有明显商业利益的领域,如健康、产业创新等,而对商业利益相对不明显的议题,其关注度明显不足。

      比如,2015年9月25日,聯合國可持續發展峰會正式通過17個可持續發展目標。這些目標旨在從2015年到2030年間。以綜合方式徹底解決社會、經濟和環境三個維度的發展問題,使世界走上可持續發展道路。

      “雖然這些目標都極其重要,且根據初步統計,目前全球已有800多萬篇科學研究論文與人工智能相關,其中只有0.1%與可持續發展目標相關。”曾毅說,“因此,我們應當思考並實踐通過人工智能推進可持續發展目標的實現,這是科研工作者、産業創新者與政府部門的共同責任。”

      對此,清華大學全球可持續發展研究院執行院長朱旭峰表示,可持續發展目標之間是相互關聯的,“不能只考慮人工智能與單個可持續發展目標的關系,而是要從綜合角度看待並使用人工智能,從而應對整體實現可持續發展目標的挑戰”。

      2020年9月,北京智源人工智能研究院聯合其他機構在京發布了我國首個針對兒童的人工智能發展原則——《面向兒童的人工智能北京共識》。

      “此外,我們還成立了人工智能與生物多樣性工作組,推動人工智能保護動物。”作爲該研究院人工智能倫理與可持續發展研究中心主任,曾毅表示,未來人工智能在社會中扮演什麽角色,取決于人類如何去實現和實現什麽樣的通用智能和超級智能。“我希望未來可以建立‘可持續的共生社會’,實現人工智能與人、動物、環境之間的和諧共生。人類與人工智能深度協作,才能實現真正意義上的可持續發展。”

      用發展解決數據安全問題 

      “數字時代,數據正在以指數級的速度激增,但推動社會進步的同時,也存在著濫用數據和侵犯個人隱私等風險。”在論壇上,聯合國開發計劃署駐華代表白雅婷表示,“我們必須謹慎,確保人工智能可以推動人類發展,避免加劇不平等或産生新的挑戰,從而阻礙全球可持續發展目標的實現。”

      在数据的使用问题上,中國科學院院士、清华大学人工智能研究院名誉院长张钹表示,人工智能的发展必须依赖大量数据,但这些数据同时也存在着大量需要解决的问题,如隐私问题、知识产权问题、偏见问题、污染问题、漏洞错误等。

      “比如,在某個視頻監控的場景中,如果要用計算機監測電網周遭環境的危險情況,我們只需要在某處布置一點很簡單的噪聲幹擾,就可以讓計算機誤認爲該地區有火情。反之,一點點小的幹擾也可以讓計算機無視真實發生的火情。”張钹說,而這點噪聲往往是人類難以察覺的。

      数据问题也是中國科學院院士、清华大学交叉信息研究院院长姚期智最关心的问题。正如他在发言中所说,“在AI和大数据的时代,必须有高质量和可信的数据。在这方面,加密技术在数据治理上必须发挥重要的作用”。

      姚期智表示,在數據加密技術領域,使用密碼學設計可信的算法可以起到很好的作用。“不僅如此,如果將可信算法與相關的機構做系統性結合,也可以形成一個基礎來實現可信的數據治理。”

      在這方面,一個典型的實例便是多方安全計算(MPC)。早在1982年,姚期智就曾提出該技術可以使人類在加密數據上進行計算。“也就是說,數據可以做到能用但不能看。”

      “通過使用多方安全計算,研究人員可以把許多數據庫彙集在一起,既保護隱私,又可以實現高質量的人工智能學習。”姚期智說,MPC平台的發展是當今大數據中的熱門課題,可以進一步支持可信的數據治理。

      盡管人工智能面臨安全性問題,但張钹表示,不能因此限制其發展。相反,解決安全性問題的最主要方法正是相關技術的不斷進步。“但這就涉及到另一個問題——下一步該如何發展?”張钹說。

      2020年7月,張钹在一篇署名文章中,首次闡述了第三代人工智能的理念。他表示,第三代人工智能的發展路徑,就是融合第一代的知識驅動和第二代的數據驅動的人工智能,建立新的可解釋和魯棒的人工智能理論與方法,發展安全、可信、可靠和可擴展的人工智能技術。

      “我們現在提出第三代人工智能的設想,就是力圖在理論上解決人工智能的相關問題。這也是人工智能未來的一個發展方向。”張钹說。

      人工智能需要國際合作和治理框架 

      面對人工智能未來的發展,技術創新還存在著太多的不確定性。當下如何通過在人工智能治理領域的全球合作達成國際共識,進而形成一定的規範,成爲許多人思考和討論的重點。

      在發言中,清華大學人工智能國際治理研究院名譽院長、清華大學戰略與安全研究中心主任傅瑩表示,技術革命往往伴隨著不可預知的安全挑戰。在這方面,國際關注的焦點之一是人工智能武器的道德和技術風險。

      此前,清華大學戰略與安全研究中心與多家國際機構已經圍繞該問題開展了研討,試圖尋找管控人工智能武器風險和國際安全治理的路徑。

      “無論如何,專家們認爲人工智能的武器化是不可避免的,因此需要尋找合適的治理路徑。”傅瑩表示,在這方面,人類必須汲取曆史教訓。“例如,我們核武器的治理共識就達成得太晚,這導致了人類曾經面臨巨大威脅。互聯網的治理也沒能在早期實現。希望這次對人工智能,尤其是人工智能武器的治理,人類能走在技術變革的前面,早些達成治理共識。”

      人工智能武器只是全球治理共識的一部分。正如在發言中,聯合國副秘書長、聯合國秘書長特別顧問法布裏齊奧·霍奇爾德所說,“沒有任何一個單一國家或公司能夠設計出全面、符合所有人預期的指導方針,用以管理人工智能的發展,以及它在全球引起的連鎖反應。我們必須團結起來,爲人工智能創建一個可行的國際合作和治理框架”。

      就人工智能国际治理的现状,清华大学人工智能国际治理研究院院长薛澜指出:“当前在人工智能这类重大问题的全球治理上存在 ‘机制复合体’的现象,即在治理过程中,有不同的治理机制。这些治理机制之间有重叠,也没有上下级关系。此时,如何协调不同治理机制是一个很大的挑战。”他进一步指出,正因为如此,更要加强人工智能治理上的国际合作:“人工智能的发展与国际合作密不可分,我们对人工智能领域中国与美国学者合作的情况进行过分析,中美合作的研究成果占到比较大的比重。大量的国际合作是人工智能发展到今天非常重要的支持因素,今后还需要继续合作。”

      對此,新加坡信息通信媒體發展管理局首席執行官助理楊子健提醒,國際人工智能治理框架應具有較高的包容性,比如能適用于不同的社會經濟、國際司法體系等。同時,由于人工智能是一個需要“應用”的技術,人工智能治理框架也應當是貼合實際的。

      “在人工智能治理層面,良好的‘夥伴關系’應符合兩個要點。”楊子健說,首先,要符合現行的政策治理框架;其次,需要了解人工智能開發者以及産業發展的挑戰是什麽,從而創造一個能爲他們賦能的良好環境。

      “從目前來看,中美兩國是人工智能技術研究和應用發展最快的國家,兩國既需要也有條件加強協調與合作。”傅瑩表示,近年來,除中美兩國外,許多其他國家的學者也表現出對人工智能應用安全的擔憂。這說明該問題是人類共同的難題。“中美開展對話與合作至關重要,將爲全球合作貢獻智慧。希望並相信這不是一場‘零和遊戲’,人工智能最終應使得全人類受益。”傅瑩說。

     

    原文鏈接:http://news.sciencenet.cn/sbhtmlnews/2021/1/359968.shtm