OpenAI解散AGI團隊,人工智能風雲再起?

搞錢和安全同等重要!

AGI全稱爲Artificial General Intelligence,即所謂的“通用人工智能”,它具備自主的感知、認知、決策、學習、執行和社會協作等能力,且符合人類情感、倫理與道德觀念。

前不久,2024年諾貝爾物理學獎授予了美國科學家約翰·霍普菲爾德和加拿大科學家傑弗裡·辛頓,表彰他們“通過人工神經網絡實現機器學習的基礎性發現和發明”。無獨有偶,2024年諾貝爾化學獎的共同獲獎者丹米斯·哈薩比斯和約翰·喬普開發了一種人工智能模型解決了一個50年前的問題:預測蛋白質的複雜結構。可見,通用人工智能在輔助科研方面已經大行其道!

這還遠遠不是終點:全球AI領域的重要人物、OpenAI前研究副總裁達里奧·阿莫迪,曾在公開發表的文章中預言“當AGI到來,它的純粹智力方面甚至能超越諾貝爾獎得主,將科學新發現的速度提高10倍”。

面對時代風潮,OpenAI正在做出變革。就在10月31日,OpenAI正式推出了 ChatGPT 搜索功能,其原型正是數月前推出的SearchGPT。標誌着其正式向谷歌的搜索引擎霸主地位發起挑戰。

巧合的是,谷歌也在同日宣佈,爲其 Gemini AI 平臺推出“基於谷歌搜索引擎的實時搜索功能”。而據外媒,OpenAI團隊在互動中表示,年底將會有重大更新。

但是在AGI方興未艾,OpenAI雄心勃勃的同時,自家卻後院起火——重要團隊解散了!

核心負責人離職,樹倒猢猻散?

據外媒此前報道,OpenAI將解散其“AGI準備就緒”團隊,據該團隊負責人稱,該團隊負責就OpenAI自身處理日益強大的人工智能的能力,以及全世界管理該技術的準備情況向公司提供建議。

爲什麼突然解散了?原來是核心負責人離職了!

上週三,AGI Readiness高級顧問邁爾斯·布倫戴奇(Miles Brundage)發文宣佈離職。他寫道,他離職的主要原因是機會成本太高,他認爲自己的研究對外界更有影響力,他想減少偏見,而且他已經完成了在OpenAI的目標。

這位仁兄是OpenAI一位資深研究者和管理者,於2018年加入OpenAI,離職前擔任·AGI Readiness團隊的高級顧問,之前還曾領導過PolicyResearch團隊。更早之前,他曾在牛津大學人類未來研究所從事研究工作。

在解釋自己離職的原因時,布倫戴奇提到,在OpenAI,他的研究和出版自由受到越來越多的限制。他強調,在人工智能政策討論中需要有獨立的聲音,不受行業偏見和利益衝突的影響。在爲OpenAI的領導層提供內部準備方面的建議後,他認爲自己現在可以從組織外部對全球人工智能治理產生更大的影響。

Brundage還寫道,至於OpenAI和世界在AGI準備方面的表現,“無論是OpenAI還是其他前沿實驗室都沒有準備好,世界也沒有準備好”。

他計劃創辦自己的非營利組織,或加入現有的非營利組織,專注於人工智能政策研究和宣傳。他還說“如果不齊心協力,人工智能就不可能儘量變得安全和有益”。不過他也寫道“在未來幾年內,AI可能讓我們提前退休,並享受高標準的生活”。

團隊解散了,人員難道只能等着“優化”?帖子稱,前AGI準備團隊成員將被重新分配到其他團隊。

OpenAI發言人則表示“我們完全支持其在行業外從事政策研究的決定,並對他的貢獻深表感謝;他計劃全力投入人工智能政策的獨立研究,這讓他有機會在更大範圍內產生影響,我們很高興能從他的工作中學習並關注其影響。我們相信,在新的崗位上,其將繼續提高行業和政府的決策質量。”

高管接連跑路,OpenAI前途生變?

據外媒,AGI Readiness團隊解散的消息是在OpenAI董事會可能計劃將公司重組爲營利性企業,以及首席技術官米拉·穆拉提(Mira Murati)、研究主管鮑勃·麥克格魯(Bob McGrew)和研究副總裁巴雷特·佐夫(Barret Zoph)三位高管在上月同一天宣佈離職之後傳出的。

對於一家上規模的公司而言,人員來來往往很正常,但這麼多高層同時離職,很明顯,是在對公司的發展道路方向的把控上出現了分歧!

離職的高管,顯然不止上述幾位:就在今年5月,OpenAI決定解散其“超級對齊”(Super alignment)團隊,該團隊專注於人工智能的長期風險,這距離其宣佈成立該小組僅一年時間。

團隊成立於2023年7月,其目標是“在 OpenAI 大量計算的支持下,到2027年解決(對齊)問題”。該團隊主要關注“科學和技術突破,以引導和控制比我們聰明得多的人工智能系統”。當時,OpenAI表示將在四年內爲該計劃投入20%的計算能力。

解散的原因,自然還是“主心骨”的離去:當時OpenAI聯合創始人,首席科學家伊利亞·蘇茨克維爾(Ilya Sutskever)和揚·萊克(Jan Leike)先後宣佈離職。

在OpenAI,蘇茨克維爾稱,他的優先事項不是“構建下一個GPT版本”,而是找出如何阻止超級人工智能“失控”的方法。他認爲,ChatGPT可能是有“意識”的。他認爲,世界需要認識到這種技術的真正力量,因爲有一天,一些人類可能會選擇與機器融合。

這些看似瘋狂的話,現在聽起來並不像一兩年前那麼瘋狂。ChatGPT已經改變了很多人對即將發生的事情的期望,將“永遠不會發生”變成“會比你想象的更快發生”。例如,今年推出的ChatGPT·4o,一些方面就已經達到了“人類的智力水平”。這樣下去不敢想象!

Leike在社交媒體上的一篇文章中寫道,OpenAI的“安全文化和流程已經被閃亮的產品所取代”。

OpenAI首席執行官山姆·阿爾特曼(Sam Altman)當時在社交媒體上說,他對Leike的離開感到難過,OpenAI還有更多工作要做。不久之後,聯合創始人格雷格·布羅克曼(Greg Brockman)在X上發佈了一份聲明,聲稱公司已經“提高了人們對AGI風險和機遇的認識,從而讓世界更好地做好準備”。

萊克當時在社交媒體上寫道“我之所以加入,是因爲我認爲OpenAI將是世界上進行這項研究的最佳場所;然而,在相當長的一段時間裡,我一直與OpenAI領導層在公司的核心優先事項上存在分歧,直到我們最終達到了一個爆發點。”

Leike寫道,他認爲公司應該將更多的注意力集中在安全、監管、對AI時代的準備,以及可能的社會影響方面。“這些問題相當難以解決,我擔心我們沒有走上正確的軌道。在過去的幾個月裡,我的團隊一直在逆風航行。有時我們爲(計算資源)而苦苦掙扎,要完成這項至關重要的研究越來越難。”還補充說,OpenAI必須成爲一家“安全第一的AGI公司”。

他在社交媒體上寫道“打造比人類更智能的機器本身就是一項危險的工作,OpenAI代表全人類肩負着巨大的責任。但在過去幾年裡,安全文化和流程已經被閃亮的產品所取代。”

一手抓搞錢,一手抓安全

今年10月早些時候,OpenAI以1570億美元的估值完成了一輪熱鬧的融資,其中包括該公司從衆多投資公司和大型科技公司籌集的66億美元。該公司還獲得了40億美元的循環信貸額度,使其流動資金總額超過100億美元。據外媒援引知情人士,該公司預計今年37億美元的營收將出現約50億美元的虧損。

虧損是怎麼帶來的呢?OpenAI在訓練各種大模型的投入大概在70億美元左右,支付員工的工資是15億美元,僅ChatGPT每天的運營成本就要70萬美元。可見AI燒錢速度之快!

面對如此虧損,大金主也坐不住了:就在近日,微軟高管在發佈第一財季業績後的電話會上表示,第二財季將披露對OpenAI持股的虧損情況。

就在今年7月,微軟放棄了其在OpenAI董事會的觀察員席位,並表示“微軟現在可以讓位了,因爲它對這家初創公司董事會的建設感到滿意”。

雖然已經退出董事會,但微軟依舊是OpenAI的最大股東,據外媒近日消息,微軟正與OpenAI進行140億美元的投資股權談判。其轉型之後在公司治理、發展方面有多少實際的控制權也是談判重點。特別是微軟退出董事會後,整個談判流程非常複雜、繁瑣。

今年9月,OpenAI宣佈其安全與安保委員會將成爲“一個獨立的董事會監督委員會”。該委員會最近結束了爲期90天的審查,評估了OpenAI的流程和保障措施,然後向董事會提出了建議,審查結果也在一篇公開的博客文章中公佈。

這條消息的背後,是大模型被戴上了“緊箍咒”:今年9月,OpenAI與美國AI安全研究所達成合作協議,對於未來的模型進行預發佈測試。這也就是說,只有通過美國政府的各種安全測試,OpenAI才能發佈領先的大模型。已經無法自行發佈產品,無形之中會限制其技術的發揮。

高管相繼離職和董事會變動的消息,也是繼今年夏天圍繞OpenAI的安全問題和爭議日益增多之後傳出的。

隨着各行各業的公司爭先恐後地開發人工智能聊天機器人功能,以避免被競爭對手甩在身後,OpenAI與谷歌、微軟、Meta和其他公司正處於人工智能軍備競賽的風口浪尖。

熟悉情況的消息人士當時證實,今年7月,OpenAI重新分配了OpenAI的安全高管之一亞歷山大·馬德里(Aleksander Madry)的工作,轉而專注於人工智能推理。

根據普林斯頓大學人工智能計劃網站上關於馬德里的簡歷,馬德里曾是OpenAI的準備工作負責人,該團隊的“任務是跟蹤、評估、預測和幫助防範與前沿人工智能模型相關的災難性風險”。OpenAI當時表示,馬德里在新崗位上仍將從事核心的人工智能安全工作。

就在決定調任馬德里的同時,民主黨參議員就“OpenAI如何解決新出現的安全問題”致信阿爾特曼。據外媒,信中還寫道:“我們希望OpenAI提供更多信息,說明公司正在採取哪些措施來履行其在安全方面的公開承諾,公司如何在內部評估這些承諾的進展情況,以及公司對網絡安全威脅的識別和緩解情況。”

但在今年6月,OpenAI的一羣現任和前任員工發表了一封公開信,對人工智能行業在缺乏監督和缺乏對線人保護的情況下取得的快速發展表示擔憂。

這些員工當時寫道“人工智能公司有很強的經濟動機來逃避有效監督,我們不認爲定製的公司治理結構足以改變這種狀況”。

這封信發表幾天後,一位熟悉此事的消息人士表示,聯邦貿易委員會和司法部將對OpenAI、微軟和英偉達展開反壟斷調查,重點調查這些公司的行爲。

聯邦貿易委員會主席莉娜·汗(Lina Khan)將該機構的行動描述爲“對人工智能開發者和主要雲服務提供商之間的投資和合作關係進行市場調查”。

這些現任和前任員工在6月份的信中寫道,所有的人工智能公司擁有“大量非公開信息”,這些信息涉及他們的技術的使用範圍、他們採取的安全措施的範圍以及該技術對不同類型傷害的風險等級。

他們補充說,“我們也瞭解這些技術所帶來的嚴重風險,這些公司目前只有微弱的義務與政府分享部分信息,而沒有義務與民間社會分享任何信息。我們認爲,不能依靠它們全部自願分享這些信息”。

尾聲

很明顯,目前的OpenAI裡,存在着“兩個司令部”、“兩條路線”的鬥爭,一條是儘可能努力打造更加“酷炫”的產品,另一條則呼籲關注人工智能飛速發展對社會的全面影響——無論是正面還是負面的,而高管的頻繁變動,體現了鬥爭的激烈。有關OpenAI的未來,讓我們拭目以待!

免責聲明(上下滑動查看全部)

任何在本文出現的信息(包括但不限於個股、評論、預測、圖表、指標、理論、任何形式的表述等)均只作爲參考,投資人須對任何自主決定的投資行爲負責。另,本文中的任何觀點、分析及預測不構成對閱讀者任何形式的投資建議,亦不對因使用本文內容所引發的直接或間接損失負任何責任。投資有風險,過往業績不預示未來表現。財經下午茶力求文章所載內容及觀點客觀公正,但不保證其準確性、完整性、及時性等。本文僅代表作者本人觀點。