近日,OpenAI的人事風暴暫時平息,外界對董事會代表的保守派與CEO Sam Altman為首的商業派路線差異的解讀也引發了廣泛關注。回顧Altman過去對AI監管的發言,可以看出他支持政府對強大的人工智能系統進行監管。然而,哪些系統夠強大?誰該被監管?目前似乎缺乏共識。
據報道,OpenAI的權力斗爭細節引發了廣泛關注。這場斗爭主要涉及兩大派系:一方認為Altman團隊正在醞釀的Q*(Q-star)計劃在通用人工智能(AGI)領域取得了新的技術突破;另一方則認為,從ChatGPT、GPT-4到OpenAI開發者大會中宣布的定制化GPTs方案,一系列技術突破的速度過快,Altman未確保上述系統的網絡安全即公諸于世,這表明他急于商業化并忽視潛在風險。
然而,從Altman最近的公開表態來看,他對AI的發展持樂觀態度,認為人工智能雖然存在一定的風險,但仍有犯錯的機會,并且政府只需要適度監管。他強調人類會不斷適應科技的發展。
在2023年9月訪臺參與永齡基金會主辦的公開論壇時,Altman重申了支持政府監管AI的觀點,但他也強調,監管應該僅針對最強大的系統,而小模型和開源模型則無需監管。對于什么是最強大的系統,他描述可能是比GPT-4強上1萬倍的模型或可與整個人類文明比擬的AI系統。
在聽證會上被問到對AI發展的最大恐懼時,Altman直言擔心AI可能會對世界造成重大損害。他表示希望與政府合作確保AI發展不會偏離軌道。他還支持美國聯邦政府成立一個單位發放執照給開發者打造“一定能力門檻以上的”的AI模型如果模型未達政府安全標準該單位也有權撤回執照。
本文鏈接:http://m.www897cc.com/showinfo-27-34410-0.htmlSam Altman的AI監管態度:支持但有條件
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 韓國正極材料業面臨衰退:電動車需求下降