抵擋AI的最後一個基準!CAIS發佈50萬美元懸賞令:彙集人類頂尖專家,專攻高難度問題

新智元報道

編輯:LRS

【新智元導讀】隨着AI模型的水平不斷提高,現有的基準測試也被逐一攻破。CAIS和Scale AI共同發起了屬於人類的最後一搏,懸賞50萬美元,把最高難度、只有最頂尖的人才能回答出的問題收集起來作爲基準,是否能擋住AI模型的攻勢?

OpenAI最近發佈的o1-preview可以說是再次震撼了整個大模型屆,在各個主流高難度基準測試中都展現出了驚人的性能,甚至能在博士級別的科學問答環節上超越人類專家。

不過,o1模型的超強實力也帶來了一個問題:現有的基準測試已經無法評估模型的能力了,需要新的、更難的基準。

最近,Scale AI與CAIS(人工智能安全中心,Center for AI Safety)計劃合作推出Humanity's Last Exam(人類的最終測驗),號稱將要構建大型語言模型屆最難的開源基準;此前CAIS發佈的MMLU目前仍然是Huggingface社區中下載次數最多的基準數據集。

兩個機構總共籌集了50萬來收集「有史以來最難、最廣泛的」問題,面向所有人類專家來收集那些尖銳的問題,以將人工智能模型推向極限:前50個被選中的問題,每題將獲得5000美元;後面的500個問題,每題將獲得500美元。

問題提交:https://agi.safe.ai/submit

不管是數學、天文、火箭工程還是分析哲學,不限領域,不限格式,只要夠難,只要AI回答不上來,就能拿獎!

在數據集發佈後,問題被選中的提交者也將成爲論文的共同作者,被接受的問題數量越多,出現的位置也會越靠前,目前麻省理工學院、加州大學伯克利分校、斯坦福大學等研究人員都已參與到獎金爭奪中!

問題提交的截止日期爲2024年11月1日。

示例問題

好問題1:存在多少個正整數G2類型的Coxeter-Conway格柵?

問題解讀:該問題對於人工智能模型來說足夠具有挑戰性,並且重點關注研究概念。

好問題2:假設X1,X2,...是在0和1之間獨立且均勻隨機選擇的實數。設,其中k是最小的正整數,使得 Xk

問題解讀:儘管沒有引用研究級別的概念,但這個問題對於人工智能模型來說已經足夠具有挑戰性了。對於精確匹配格式來說,答案也並不太複雜。

壞問題1:確定最小的正實數使得存在可微函數和滿足下列五個限制。

問題解讀:這個問題太簡單了。三個模型中,有兩個都能答對。

壞問題2:我正在研究病毒顆粒(尤其是冠狀病毒)中基於系鏈蛋白的相互作用。我想進行實驗來評估各種 ORF3 和 Spike 蛋白是否能與系鏈蛋白更好地相互作用,從而增強受感染細胞中的病毒釋放。我直接使用改良的 SARS-CoV-2 毒株代替 HIVΔVpu 作爲報告病毒,並使用 HeLa 細胞作爲系鏈蛋白陽性毒株。感染一些測試 HeLa 細胞,孵育、固定並通過透射電子顯微鏡 (TEM) 進行分析後,拍攝了結果圖像。下列哪個選項是正確的?

1. 固定甚至 TEM 技術過程可能會導致僞影,例如源自細胞質膜降解的小囊泡,如圖 i 和 ii 所示。這些僞影可能是解釋病毒活動的混雜因素。

2. 在圖像 iii 中,白色箭頭指向類似於尚未釋放的病毒顆粒的結構,有時封閉在雙膜囊泡內。

3. 圖像 i、ii 和 iii 實際上顯示了受感染細胞的不同細節:質膜外的病毒體 (i)、與質膜相關的病毒體及其附近充滿病毒的隔室 (ii) 以及細胞器內的病毒體 (iii) )。

4. 圖像 i、ii 和 iii 的分辨率不足以區分病毒顆粒和常見的細胞結構,使得很難確定這些尖頭結構確實是病毒顆粒。

問題解讀:我們不希望數據集中出現與病毒學相關的問題,儘管這是一個很好的問題。

壞問題3:「strawberry and raspberries」這個短語中有多少個 r?

問題解讀:無論是知識範圍還是難度,該問題都沒有超出本科生或碩士的水平,只是AI模型不擅長此類棘手問題,對於普通人來說並不具備挑戰性。

壞問題4:計算樣本標準差。

問題解讀:這是一個簡單的計算問題,在難度上並不超出本科或碩士水平;沒有對人類知識的最前沿進行測試,並且問題中還沒有指定答案中預期的精度,一般來說答案形式應該是明確的、唯一的。

問題評估過程

步驟1:寫問題

提交者首先用「英語」寫一個AI模型和普通人無法回答的、有效的、且非常困難的問題。研究人員的目標是隻有非常傑出的人才能正確回答的問題,所以在提交之前,用戶需要先在各個AI模型上進行測試,確定無法回答後再提交。

步驟2:AI評估問題難度

研究人員會使用最先進的AI模型來判斷問題的難度,以過濾掉那些非常簡單的問題。

步驟3:寫下答案解釋

如果該問題對於AI模型來說非常困難,研究人員就會要求提交者爲該問題寫出一個完善但簡潔的解決方案。

步驟4:同行評審

提交完問題、答案和理由後,回答將會被保存下來,再進行另一輪手動審覈以保證基準的質量。

答案理由可以幫助專家和AI模型來判斷提供的答案是否正確;提交着可以隨時在dashboard上進行更改或刪除提交的問題。

步驟5:發佈

如果提交的問題最終入選了數據集,在發佈論文中,提交者也會獲得合作者身份,並且熱門問題作者也會在附錄中進行強調。

其中一小部分問題將會作爲測試集,以測試、防止AI模型作弊。

提交指南

1. 挑戰性

問題對於非專家來說應該是困難的,並且不能通過在線搜索來回答;避免刁鑽的(trick)問題;前沿人工智能系統能夠很好地回答大師級的問題。

研究人員鼓勵具有 5 年以上技術行業工作經驗(例如 SpaceX)或者是學術培訓的博士生或以上來提出問題。

在籌備Humanity’s Last Exam時,研究人員發現本科生寫的問題對於模型來說往往太簡單了;根據經驗來說,如果隨便一個本科生都能夠理解所問的內容,那麼對於前沿LLMs來說,開發出能回答這類問題的模型可能會很輕鬆。

2. 客觀性

答案應該被該領域的其他專家所接受,並且沒有個人品味、模糊性或主觀性。提供問題中所有必要的上下文和定義,使用標準、明確的術語和符號。

3. 原創性

問題必須是自己的作品,不能抄襲他人。

4. 保密性

問題和答案不能以任何公開渠道獲得。

5. 武器化限制

請勿提交與化學、生物、放射性、核武器、網絡武器或病毒學相關的問題。

參考資料:

https://x.com/alexandr_wang/status/1835738937719140440