ADVERTISEMENT
OpenAI 發佈了其自稱為「迄今為止最強大、校準最好的模型」GPT-4,但人工智慧社群的一部门人對「缺乏公共資訊」感应失望。他們的诉苦,凸顯了人工智慧世界中關於宁静問題的日益緊張的形勢。?
之前,OpenAI 發表了強大的 GPT-4,它是人們期待已久的下一代人工智慧語言模型。該模型的強大能力仍在評估中,但隨著研究人員和專家對其相關质料的仔細研究,一部门人對一個明顯的事實体现失望:OpenAI 發佈的 GPT-4,不是一個開放的人工智慧模型(not an open AI model)。?
儘管 OpenAI 已經分享了大量 GPT-4 的基準和測試結果,以及一些有趣的示範,但基本上沒有提供用於訓練該模型的資料、能源成本,或用於創建該模型的具體硬體或要领的資訊。?
人工智慧社群的一部门人批評了這一決定,認為它破壞了該公司作為一個研究機構的創始精神,並使其他人更難以複製其事情。也許更重要的是,一些人說,這也使人們難以制定保障措施來應對像 GPT-4 這樣的人工智慧系統所帶來的威脅,而這些诉苦是在人工智慧世界日益緊張和快速發展時顯現的。?
「我認為這一做法關閉了 'Open' AI 的大門:他們在介紹 GPT-4 的 98 頁論文中自豪地宣稱,沒有透露任何有關訓練集的內容,」 Nomic AI 資訊設計副總裁班·史密特(Ben Schmidt)在推特上体现。關於這一說法,史密特指的是 GPT-4 技術報告中的一段內容,如下:
在接受採訪時,OpenAI 首席科學家、聯合創始人伊爾亞?蘇茲克維(Ilya Sutskever)對這一做法進行了說明。他体现,OpenAI 不分享關於 GPT-4 的更多資訊的原因是 「不言而喻的」——畏惧競爭和對宁静的擔憂。?
「在競爭花样方面--外面的競爭很猛烈,」蘇茲克維說,「GPT-4 的開發並不容易。幾乎 OpenAI 的所有人在一起花了很長時間才做出了這個東西,而且(目前)有许多许多公司都想做同樣的事情。」?
「宁静方面,我想说,还没有竞争方面那麼突出。但它将会改变,基本上是这样的。这些模型很是强大,而且会变得越来越强大。在某种水平上,如果有人想的话,很容易用这些模型造成很大的伤害。随着(模型)能力的增强,你不想透露它们是有原理的。」?
OpenAI?於?2015 年建设,創始人包罗蘇茲克維、現任首席執行長山姆·阿特曼(Sam Altman)、現已離開 OpenAI 的馬斯克。在一篇介紹性部落格文章中,蘇茲克維等人体现,該組織的目標是 「為每個人而不是股東創造價值」,並將與該領域的其他人 「自由相助」。OpenAI 建设之初是一個非營利組織,但後來為了獲得數十億美元的投資(主要來自微軟)而變成了「利潤上限」。?
當被問及為什麼 OpenAI 改變了分享其研究的要领時,蘇茲克維簡單地回覆:「我們錯了。坦率地說,我們錯了。如果你像我們一樣相信,在某個時候,人工智慧/通用人工智慧將變得極其強大,令人難以置信,那麼,開源就是沒有意義的。這是一個壞主意...... 可以預料的是,在幾年內,每個人都會完全明白,開源人工智慧是不明智的。」?
然而,人工智慧社群對此事的看法各不相同。值得注意的是,在 GPT-4 發表的幾周前,Meta 開發的另一個名為 LLaMA 的人工智慧語言模型在網上遭洩露,引發了關於開源研究的威脅和洽處的類似討論。不過,大多數人對 GPT-4 的「封閉」模型的最初反應是負面的。
對此,史密特体现,由於無法看到 GPT-4 是在什麼資料上訓練的,人們很難知道該系統在什麼地方可以宁静使用並提出修正。
「對於人們來說,要想對這個模型在什麼地方不起作用做出明智的決定,他們需要對它的作用以及其中的假設有一個更好的認識,」 Schmidt 說,「我不會相信在沒有雪天氣候經驗的情況下訓練出來的自動駕駛汽車;一些漏洞或其他問題,很可能會在真實情況下使用時浮現出來。」
Lightning AI 首席執行長、開源工具 PyTorch Lightning 創建者威廉·福爾肯(William Falcon)体现,人們可以從商業角度上理解這一決定。「作為一家公司,它完全有權利這樣做。」 但 Falcon 也認為,這一做法為更廣泛的社群樹立了一個 「壞先例」,並可能產生有害影響。
「如果這個模型出錯了,而且會出錯的,你已經看到它出現了幻覺,給你提供了錯誤的資訊,那麼社會應該如何反應?」福爾肯說,「倫理研究人員應該如何應對並提出解決方案,並說 ‘這種方式不起作用,也許可以調整它來做這個其他事情?’」
一些人建議 OpenAI 隱藏 GPT-4 的構建細節的另一個原因是执法責任。
人工智慧語言模型是在巨大的文本資料集上進行訓練的,其中许多資料是從網路上直接獲取的,可能包罗受版權保護的质料。同樣以網際網路內容為基礎訓練資料的人工智慧 「文生圖」模型,正是因為這個原因而面臨执法挑戰,目前有幾家公司正被人類藝術家和圖片庫網站 Getty Images 起訴。
當被問及這是否是 OpenAI 沒有分享其訓練資料的一個原因時,蘇茲克維体现:「我對此的看法是,訓練資料就是技術(training data is technology)。它可能看起來不是這樣的,但它是。我們不披露訓練資料的原因與我們不披露參數數量的原因基底细同。」 當被問及 OpenAI 是否可以明確体现其訓練資料不包罗盜版质料時,蘇茲克維沒有回覆。
Sutskever 確實同意批評者們的觀點,即開源模型有助於開發宁静措施的想法是有 「價值」 的。他說:「如果有更多人研究這些模型,我們就能瞭解更多,那就太好了。」 出於這些原因,OpenAI 向某些學術和研究機構提供了存取其系統的許可權。
关於共用研究的讨论是在人工智慧世界发生狂热变化的时候进行的,压力在多个方面都在增加。在企业方面,像骋辞辞驳濒别和微软这样的和记巨头正急於将人工智慧功效添加到他们的产物中,往往将以前的道德问题弃捐一边。(微软最近解雇了一个专门卖力确保其人工智慧产物遵循道德準则的团队)。在研究方面,技术自己似乎正在迅速改善,引发了人们对人工智慧正在成為一个严重和迫在眉睫的威胁的担忧。
The Centre for Long-Term Resilience 人工智慧政策負責人 Jess Whittlestone 說,平衡這些差异的壓力帶來了嚴重的治理挑戰——可能需要協力廠商監管機構參與。
「我們看到這些人工智慧能力發展得很是快,我總體上擔心這些能力的發展速度超過了我們的適應能力。」 她体现,OpenAI 不分享關於 GPT-4 的更多細節的理由是好的,但也可能導致人工智慧世界的權力集中化。
「不應該由個別公司來做這些決定,」 Whittlestone 說,「理想的情況是,我們需要把這裡的做法編纂成冊,然後讓獨立的協力廠商在審查與某些模型相關的風險以及向世界發表它們是否有意義方面發揮更大的作用。」
one more thing
在不滿 OpenAI 越來越「封閉」的人群中,自然少不了因「利益衝突」而離開 OpenAI 的馬斯克。這一次,他表達了自己的困惑:
资料来源:
- OpenAI co-founder on company’s past approach to openly sharing research: ‘We were wrong’
使用 Facebook 留言
发表回应
留言板发文规则:
请注意!留言要自负执法责任,相关案例层出不穷,请慎重发文!