吳恩達評價學生時代的奧特曼:非常聰明但很固執,總是按照自己的方式行事

12月25日消息,當OpenAI於2022年末推出其聊天機器人ChatGPT時,市場上尚無其他類似的服務。OpenAI憑藉其卓越的技術和數十億美元的資金,成功吸引了大量關注。作爲率先推出突破性產品的人工智能公司,OpenAI迅速贏得了廣泛的知名度。

然而,到了2023年年末,衆多資金雄厚的科技公司紛紛推出了與ChatGPT相媲美的人工智能服務。今年9月,估值約20億美元的法國初創公司Mistral發佈了一款功能強大的開源大語言模型(LLM)。LLM是支持人工智能聊天機器人的基礎技術。僅僅四個月後,埃隆·馬斯克(Elon Musk)也推出了一款實用的聊天機器人Grok。本月早些時候,谷歌發佈了人們期待已久的Gemini模型的初始版本。

儘管這些工具在性能上仍未超越OpenAI的GPT-4模型,但在很多情況下,它們的表現已經非常接近ChatGPT,並通過爭奪用戶和商業客戶,對ChatGPT構成了一定的威脅。而且,用戶可以輕鬆地在不同的服務之間切換,沒有任何限制。

雖然ChatGPT在通用性方面表現出色,但許多用戶似乎更傾向於使用更專業的聊天機器人。例如,數據公司Similar Web的估計顯示,Character AI這項服務讓用戶可以與AI版本的視頻遊戲角色和其他人物互動,已經佔據一席之地。

運營研究聊天機器人的Perplexity AI的首席執行官兼聯合創始人阿拉溫德·斯里尼瓦斯(Aravind Srinivas)表示:“現在的情況與手機的早期時代相似,每個人都在嘗試不同的方法。”

Perplexity AI的目標是通過更準確、更及時的迴應,將自己與其他聊天機器人區分開來。雖然其他領先的聊天機器人(包括ChatGPT)一直在努力獲取準確可靠的實時信息,但Perplexity AI並非完全從頭開始開發其大模型,而是在現有模型的基礎上進行開發,包括Mistral和Meta的開源模型。

在從微積分到詩歌,開源模型在廣泛的主題中表現不一,也並不總是像GPT-4那樣始終如一。但普通用戶可能不會像研究人員那樣注意到這些差異,而且許多人可能根本不關心微積分。

斯里尼瓦斯指出:“用戶並不關心你的答案是來自GPT 3.5、Anthropic的Claude還是GPT-4。” 他的產品還允許用戶使用ChatGPT的API。“他們關注的是答案是否準確、產品速度是否夠快以及是否有正確的功能。這纔是他們會提出抱怨的地方。”

OpenAI的優勢一直以來都建立在其大語言模型所提供的強大功能之上。這些模型能夠吸收海量的在線數據,從而更好地應對各種請求和用例。然而,越來越多的人工智能初創公司正在尋求構建性能相當但規模更小的模型。

人工智能初創公司Imbue的首席執行官兼聯合創始人邱侃君(音)表示:“雖然GPT-4的訓練過程令人驚歎,但我並不認爲這有什麼神奇之處。儘管它規模龐大,但我們看到許多證據表明,我們可以用更小、更高效的模型實現類似的性能。” Imbue得到了英偉達的支持,並正在開發自己的基礎人工智能模型。

邱侃君還提到,她的公司內部開發了一個工具,可以修復Python(一種流行的編程語言)中的錯誤,“就像一個玩具一樣”。由於這個工具是針對特定任務的,因此該公司無需構建像GPT-4一樣強大的模型來支持它。

值得注意的是,在OpenAI上個月的內部動盪中,ChatGPT不再是唯一的人工智能聊天機器人。在短暫罷免其首席執行官並突然使其未來受到質疑之後,包括Cohere、Anthropic和谷歌在內的許多競爭對手都看到了客戶興趣的上升。

教育平臺Coursera聯合創始人、谷歌大腦聯合創始人吳恩達(Andrew Ng)表示:“GPT-4仍然是目前最好的大語言模型,這是毋庸置疑的。但我認爲競爭肯定在加劇,開源和其他競爭對手有很好的機會追趕GPT-4。當然,OpenAI也不會滿足於現狀,他們正在研究GPT-5。”

吳恩達也是Landing AI的首席執行官和斯坦福大學的教授。近年來,他把大部分時間都花在向公衆普及人工智能知識上,並抵制人工智能末日論。上個月,Coursera發佈了一個關於生成人工智能的在線課程。吳恩達表示該課程打破了該網站上增長最快的課程紀錄,第一週就有4.4萬人註冊。

吳恩達在過去一個月兩次接受採訪時都強調:“儘管存在這些擔憂,但我對行業前景充滿熱情。我認爲現在是每個人都開始瞭解這些技術的時候了。”

以下是媒體採訪吳恩達的對話摘要:

問:你對谷歌Gemini有什麼特別的看法?它是否符合你的期望?

吳恩達:我認爲谷歌的工程師們取得了很好的進步,儘管他們距離趕上GPT-4還有很長的路要走。其次,我認爲谷歌在視頻發佈方式上犯了一個營銷錯誤。我覺得這是不幸的,因爲如果我們忽略營銷失誤,我們中的大多數人都會爲谷歌工程師打造出一款令人印象深刻的大模型而歡呼。

問:你認爲OpenAI的內部動盪對整個行業產生了怎樣的影響?

吳恩達:目前下定論還爲時過早。我感受到的是,OpenAI的失誤,包括山姆·奧特曼(Sam Altman)被解僱和隨後的團隊重組,確實動搖了一些人的信心。我聽說許多團隊正在確保他們有備選的OpenAI服務方案。然而,也有一些積極的方面。比如,他們確實讓拉里·薩默斯(Larry Summers)和佈雷特·泰勒(Bret Taylor)加入了董事會。OpenAI正在積極與政府互動,這在一定程度上是有益的。薩默斯是一位具有巨大影響力的人物,而OpenAI將需要聘請大量遊說者才能達到他通過幾個電話就能產生的影響力。

問:你曾表示有些科技公司在利用“人工智能將導致人類滅絕”的恐慌來推動監管。能否解釋一下原因,並舉個例子?

吳恩達:我認爲,各方都有製造恐慌和炒作的動機。有些科技公司可能不願與開源模型競爭。還有一些人出於擔憂,即使是並不太切實際的擔憂,這也爲遊說者和監管機構創造了有利的條件。在美國和歐洲,這種對人工智能的普遍恐慌,無論是關於滅絕還是其他原因,都在爲遊說者和監管機構創造制定有偏見的規則的機會。

問:我理解科技公司可能會因爲與開源模型競爭而製造恐慌和炒作,以推動監管。但爲何你的學術同行,包括傑弗裡·辛頓(Geoffrey Hinton)或約書亞·本吉奧(Yoshua Bengio)等人工智能大咖也會擔心人工智能帶來的生存威脅?他們似乎與這場炒作沒有直接關聯。

吳恩達:就在幾周前,我與辛頓進行了交談。雖然我承認他的擔憂是真實的,但我認爲他的觀點是錯誤的。我並不是專門針對辛頓或本吉奧。這與他們作爲個體無關。但我認爲,對許多人來說,也存在炒作恐慌的動機。

恐懼能吸引人們的注意力。我認爲,如果不是因爲某些人扮演了煽動恐懼的角色,他們可能不會出現在對話中。而且,坦率地說,我知道有些人利用誇大的恐懼來吸引關注,然後獲得可觀的演講費。事實證明,實際上沒有什麼動機不去炒作恐懼。我們在社交媒體上看到,恐懼和憤怒都被放大了,而對未來總體上積極的看法對媒體來說就不那麼有趣了。

問:奧特曼曾經是你的學生,你能和我們分享一些他在斯坦福就讀時的經歷嗎?

吳恩達:奧特曼非常聰明,但他很固執,總是按照自己的方式行事。他加入了我在斯坦福的實驗室,利用強化學習來控制機器人。這些已經廣爲人知了,但實際上,他和我實驗室的同學們合作製造了一個蛇形機器人,並讓它爬上了臺階。 (小小)