<form id="9j9rx"></form>
<address id="9j9rx"></address>
<noframes id="9j9rx"><form id="9j9rx"></form>
<noframes id="9j9rx">

<form id="9j9rx"><th id="9j9rx"><th id="9j9rx"></th></th></form>
      <form id="9j9rx"></form>

      <address id="9j9rx"><th id="9j9rx"><th id="9j9rx"></th></th></address>
      您的位置:首頁 > 資訊 >

      OpenAI 預測超智能 AI 十年內出現,正研究用 AI 來監督 AI


      (資料圖)

      北京時間 7 月 6 日早間消息,當地時間周三,ChatGPT 的開發者 OpenAI 表示計劃投入更多資源并成立新的研究團隊,研究如何確保 AI 對人類的安全性,最終實現用 AI 來監督 AI。

      OpenAI 聯合創始人伊利亞?蘇茨凱弗(Ilya Sutskever)和 AI 對齊負責人簡?萊克(Jan Leike)在官方博客中表示:“超級智能的巨大能力可能導致人類失去力量甚至滅絕。目前,我們還沒有解決方案來操縱或控制一個可能的超智能 AI,并防止其變成無賴?!?/p>

      這篇博文預測,超智能 AI,即相比于人類更智能的系統,可能會在未來 10 年中出現。人類需要比目前更強大的技術來控制超智能 AI,因此需要在“AI 對齊研究”方面取得突破,確保人 AI 對人類持續有益。AI 對齊是 AI 控制中的主要問題,即要求 AI 的目標和人類的價值觀與意圖保持一致。

      作者寫道,OpenAI 將在未來 4 年內,將算力的 20% 專門用于解決這方面問題。此外,該公司將組建新的“超對齊”團隊來組織這方面的工作。

      該團隊的目標是開發達到“人類水平”,由 AI 驅動的對齊研究員,隨后通過龐大的算力推動其發展。OpenAI 表示,這意味著將使用人工反饋來訓練 AI 系統,通過訓練 AI 系統來協助人工評估,最終訓練 AI 系統來進行實際的對齊研究。

      不過,人工智能安全的倡導者康納?萊希(Connor Leahy)表示,OpenAI 的計劃存在根本性缺陷,因為最初的人類水平 AI 可能會失控并造成嚴重破壞,而這將迫使研究者去解決 AI 安全問題。他在接受采訪時表示:“在構建人類水平的智能之前,必須先解決對齊問題,否則默認情況下你無法控制它。我個人認為這不是個特別好的、安全的計劃?!?/p>

      AI 的潛在危險一直是 AI 研究員和公眾最關心的問題。今年 4 月,一群 AI 行業領袖和專家簽署公開信,呼吁暫停 6 個月開發比 OpenAI 的 GPT-4 更強大的系統,原因是對社會存在潛在風險。益普索今年 5 月的調查發現,超過 2/3 的美國人擔心 AI 可能產生的負面影響,61% 的人認為 AI 可能威脅人類文明。

      廣告聲明:本文含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考。IT之家所有文章均包含本聲明。

      標簽:

      相關閱讀