• <li id="yeaqi"><button id="yeaqi"></button></li>
  • <fieldset id="yeaqi"></fieldset>
    <fieldset id="yeaqi"><table id="yeaqi"></table></fieldset>

    •  

      自對齊能否駕馭“狂奔”的AI_天天快消息
      發布時間:2023-05-23 13:34:27 文章來源:科技日報
      自對齊能否駕馭“狂奔”的AI

      自Open AI推出ChatGPT大模型以來,AI大模型進入到公眾視野,探討熱度飆升,百度、騰訊、阿里等互聯網巨頭也紛紛公布了其對AI大模型的投資與布局路線圖。

      然而,在一片火熱中,也有不少科技巨頭表達了對AI大模型的擔憂。利用人工智能寫論文、制作虛假圖片……在給人類帶來便利的同時,“稚嫩”的人工智能技術也暴露出許多安全隱患問題。據媒體報道,被譽為“人工智能教父”的杰弗里·辛頓已從谷歌辭職,只為完全自由地談論AI大模型等人工智能技術所帶來的危險。

      狂野生長的AI大模型,真的管不住了嗎?來自美國卡內基梅隆大學語言技術研究所、國際商業機器公司研究院等機構的研究人員提出了一種全新的方法——自對齊。該方法結合了原則驅動式推理和大模型的生成能力,從而使用極少的人類監督便能實現AI大模型的“自我監管”。


      【資料圖】

      和人類價值觀“對齊”

      目前,即便是最先進的AI大模型,也無法實現自我監管,仍需要依賴人類指令以及注釋進行相應的調整。

      “生成式人工智能可以被看作一個預測工具,它主要依靠大量數據樣本來預測正確答案。”清華大學交叉信息研究院助理教授、人工智能國際學術交流項目主任于洋表示,所有基于數據統計的人工智能模型,對于“答案”的預測都必然有一定的隨機性,而這種隨機性所產生的偏差一旦與人類價值觀、倫理觀、道德觀以及法律法規等相悖,就需要對該模型進行監管、完善。計算科學工作者致力于消除這類偏差,盡量使之與人類的價值觀、倫理、法律、公序良俗等相符,這被稱為“對齊”。

      然而,從統計學的角度看,AI大模型一定會“犯錯”。因此,AI模型對齊的監管,不應追求獲得一個不犯錯的完美AI大模型,而是要管理AI大模型產生違規錯誤的風險。“例如,對話類AI大模型在其對話中,是否會大量出現針對某個地區的地域歧視。”于洋舉例道,對于AI大模型的監管,就是為了避免這類內容出現的概率過高、避免模型的答案系統性發生整體傾向這類偏誤。

      然而,如果AI大模型嚴重依賴人類監督,會造成成本過高、可靠性不足、存在偏向性等問題。因此,以最少的人類監督實現AI大模型的自我監督成為構建AI大模型的關鍵。

      為了解決這一難題,研究人員提出了一種自對齊的新方法,僅需一個人工定義的小型原則集(規則),便能引導AI大模型生成答復的正確導向,且能顯著減少對人類監督的需求,使其幾乎無需任何額外注釋。AI大模型可以自對齊的設計目標是開發出有用、可靠且符合人類道德觀念的AI大模型,包括在生成答案時可以反對用戶的有害詢問,并且為表示反對的背后原因提供解釋。

      值得一提的是,此前一些AI大模型至少需要5萬條注釋,而整個自對齊過程所需的注釋量少于300行,監督效率非常高,極大地降低了AI大模型對人類監管工作的需求。

      把“打罵”變為“講道理”

      那么,未來AI大模型是否可以實現完全的自我監管?于洋表示,AI大模型監管的主要方式必然是自動化、機器化、算法化的,因為AI大模型依賴海量數據支撐,僅憑人工監管是不現實的。但完全的自我監督不太可能實現,這是因為即使AI學會了相應的人類規則,但它和人類所掌握的規則數量仍然無法比較。同時,人類的思維以及邏輯推理過程具有極高的復雜性,也是AI大模型難以真正“理解”人類的原因之一。

      于洋舉了個例子,現在的AI大模型監管就好比教育孩子,現有的人工對齊技術方案,其實都是在“打罵”孩子,也就是用獎勵和懲罰的方式訓練AI什么能做、什么不能做。而真正的教育,是要對孩子講道理,了解為什么有些事情不能做,即要讓AI理解背后的邏輯,理解人類的評判標準。這是一件很難的事情,目前大多數的AI大模型的訓練和對齊技術的開發,還停留在“打罵”階段,要從“打罵”變成“講道理”,還有很長的路要走。

      “除了技術人員開發教育AI合規的技術外,監管當局也必須制度化、系統化地從社會合規和社會影響等方面對AI大模型進行多維度的審計和監管。”于洋進一步解釋道,相關行業及管理部門,需要對AI大模型違背人類價值的概率,有一個系統化的評估,并根據AI大模型相關產業的發展現狀,調整監管手段,有針對性地提出監管方案,建立動態、敏捷響應技術前沿變化的監管體系。企業也要建立專門針對AI大模型的監管部門,來審核AI大模型中是否包含自我監管機制,以及具體到每一個模塊將帶來哪些影響,以此盡量降低AI模型的違規風險。

      此外,于洋還建議,人工智能的治理,也需要大量的公眾參與,因為和訓練模型尋找漏洞相比,在大量應用實踐中去發現漏洞、完善AI大模型,顯然更加高效,也能顯著降低AI大模型開發成本,推動AI大模型在各行各業的廣泛應用。

      關鍵詞:

      樂活HOT

      娛樂LOVE