OBOL 項目分享活動開啓!調研 Obol (OBOL) 項目,在Gate.io動態發布您的看法觀點,瓜分 $100 OBOL!
💰️ 選取10名優質發帖用戶,每人輕鬆贏取 $10 OBOL 獎勵!
項目簡介:
Obol 致力於分布式、去中心化和民主化未來的數字基礎設施——從以太坊開始,並擴展到整個 Web3 平台。作爲 Layer 1 區塊鏈和去中心化基礎設施網路的基礎,Obol Collective 擁有全球最大的去中心化運營商生態系統。目前,全球超過 800 個去中心化運營商運行 Obol 分布式驗證器 (DV),保障主網超過 10 億的資產安全,Obol 正在賦能下一代去中心化系統。
參與方式:
1.調研$OBOL項目,發表你對項目的見解。具體可包含但不限於:
🔹 Obol 是什麼?
🔹 Obol 去中心化驗證器有何優點?
🔹 $OBOL 代幣經濟模型如何運作?
2.帶上$OBOL現貨交易連結:https://www.gate.io/trade/OBOL_USDT
3.推廣$OBOL Launchpool 質押挖礦活動,分享OBOL Launchpool 參與步驟及質押福利,質押$GT、$BTC、$OBOL 免費瓜分2,250,000 $OBOL空投獎勵,年華收益率高達168%:https://www.gate.io/launchpool/OBOL?pid=291
GPT-4滿分通過MIT本科數學考試!這套提示詞火了
來源:量子位
萬萬想不到啊,MIT數學考試,被GPT-4攻破了? !
突然有人在最新論文工作中高調宣布:
GPT-4在MIT的數學和EECS(電氣工程和計算機科學系)本科學位考試中,表現出的能力完全滿足畢業要求。
而且妥妥地拿下滿分!
要知道,測出這個結果的不是別人,正是來自MIT和波士頓大學、康奈爾大學的研究團隊。
而且強如上一代王者GPT-3.5,在同樣的測試中,只成功搞定了三分之一。
論文一出,無數目光迅速被吸引過來。
GPT-4開掛MIT考試
具體來說,GPT-4這次是參與了這樣一場測試:
研究團隊策劃了一個數據集,其中包含4550個問題和解決方案。
這4550個問題和解決方案,來自MIT數學系和EECS的學生**獲得本科學位,需要學習的課程問題集、期中考試和期末考試。 **
包括:
6-1:電氣科學與工程; 6-2:電氣工程與計算機科學; 6-3:計算機科學與工程; 6-4:人工智能與決策; 18-1:普通數學; 18-2:應用數學; 18-3:純數學; 18-C:數學與計算機科學。
每個專業的詳細分類總結
題目統統出自MIT的數據集,從中隨機生成228個問題,不涉及圖像和已有解決方案的問題。
題目的難度等級由易到難依次為:練習、習題、 期中考試、期末考試、實驗和專題。
按答案類型排序,題目的難度由易到難依次為:編程、開放、選擇題、數值、表達式和圖像。
這一次,參與考試的不只有GPT-4和GPT-3.5,還有StableVicuna-13B、LLaMA-30B和LLaMA-60B。
選擇讓這4個大模型作為考試參賽選手,原因是它們是“最先進的大語言模型”。
最終考試成績
通過表格里的數據可以看到,得分最高的是經過調優後的GPT-4,得分率100%;表現最一般的是LLaMA-30B,只拿下了30%的分數。
值得關注的是,原始版本的GPT-4開箱即用,完全不經過調優,在本次MIT考試中也拿到了90%的分數。
調優流程,包括Few-Shot+CoT+Self-critique+Experts。
此外,研究團隊還在提示框裡進行了工程優化,**具體的“咒語”**如下:
等等,評分人是GPT-4自己?
看到這樣的結果,不少網友心生感慨,LLM在數學考試上的進步,未免有些神速了哈。
類似**“小明種了5棵檸檬樹,每年從每棵樹上得到6個檸檬,10年間他總共得到多少檸檬”**這種。
學了6門MIT本科基礎數學課裡隨機抽取的例題,6門課程每門隨機出25道題,再加上一個ACT水平(美國高考)的數據集裡的60道題。
**總計210道題,AI全部答對。 **
因為當時的評測中,Codex負責讀寫,並不包括求解。
所以,這一回GPT-4表現奇佳,怎一個妙字了得~
主要有2大槽點。
第一個值得質疑一番的,就是OpenAI的訓練數據集沒有完全公佈。
這也就意味著,無法證明數據集中的4550個問題和解決方案,在GPT-4的訓練集中不存在。
換句話說,如果GPT-4在預訓練階段已經接觸到了這次的考題們,那最終拿下完美得分,就沒什麼好驚喜的了。
也難怪乎有網友毫不客氣地yygq,認定GPT-4拿到這樣的結果,一定是數據集已經包含在訓練數據裡了。
定睛一看,在論文的第2.6節有一句很關鍵的點:
團隊在數據集上微調開源大模型,“給定問題Q、基本事實解S和LLM答案A,我們使用GPT-4自動對模型響應進行評分”。
實際操作上,就是每個大模型生成這次考試的答案,然後派出GPT-4打分,分值在0-5之間。
**所以給GPT-4打出滿分的,實際上是GPT-4自己。 **
啊這……很難說沒有王婆賣瓜自賣自誇的嫌疑。
到底什麼算“好的提示”呢?似乎無法定義。
## 還有一件事
一個小小的彩蛋:
整個測試中,基本上可以在筆記本電腦上部署運行的StableVicuna-13B,也有48%的得分率。
讓人不得不陷入一些關於模型規模與能力相關性的思考。
參考鏈接: [1] [2] [3] [4]