站長之家(ChinaZ.com) 5月23日消息:人工智能的發(fā)展速度足夠快,它可能帶來的危險也足夠明顯,以至于 OpenAI 的領(lǐng)導(dǎo)層認(rèn)為,世界需要一個類似于管理核能的國際監(jiān)管機構(gòu)——而且速度要快。但不能太快。
ChatGPT 的創(chuàng)建者 OpenAI 正在測試如何就影響其人工智能的決策收集廣泛的意見。周一,該公司總裁 Greg Brockman 在由高盛集團和 SV Angel 主持的舊金山 AI Forward 活動上討論了 OpenAI 正在全球范圍內(nèi)推動 AI 監(jiān)管的概述。
他預(yù)覽了一項類似于維基百科的項目,該項目需要有不同觀點的人共同協(xié)作,以達成一致意見。他說:「我們不只是坐在硅谷想著我們可以為每個人制定這些規(guī)則。我們開始考慮民主決策?!?/p>
(資料圖片僅供參考)
Brockman 還討論了另一個想法,OpenAI 在周一的博客文章中對此進行了詳細(xì)闡述,即全球各國政府應(yīng)當(dāng)協(xié)調(diào),確保安全地開發(fā) AI。
在 OpenAI 公司官網(wǎng)博客的帖子中,OpenAI 創(chuàng)始人 Sam Altman、總裁 Greg Brockman 和首席科學(xué)家 Ilya Sutskever 解釋說,人工智能的創(chuàng)新步伐如此之快,以至于我們不能指望現(xiàn)有當(dāng)局充分控制該技術(shù)。
自 11 月 30 日推出 ChatGPT 以來,這項生成式人工智能技術(shù)可以從文本提示中生成出極具權(quán)威性的散文,使該程序成為有史以來增長最快的應(yīng)用程序。人工智能也成為人們關(guān)注的焦點,因為它能夠制造深度偽造圖片和其他錯誤信息。
在評估人工智能的未來路徑時,Brockman 參考了維基百科以及其他地方。他和 OpenAI 表示,像國際原子能機構(gòu) (IAEA) 這樣的組織可以對部署進行限制,審核安全標(biāo)準(zhǔn)的符合性,并跟蹤計算能力的使用情況。
另一個建議是全球協(xié)議,限制前沿人工智能能力的年度增長,或者是一個主要政府可以參與的全球性項目。
OpenAI 首席執(zhí)行官 Sam Altman 上周向美國立法者提出了管理人工智能的各種想法,其中包括要求獲得開發(fā)最復(fù)雜 AI 模型的許可證,并建立相關(guān)的治理體制,他本周正在訪問歐洲政策制定者。
(舉報)
關(guān)鍵詞: