日本一道本不卡免费播放_女王美脚视频免费专区_亚洲av永久精品无码桃色_精品人妻无码中文字幕第一区色戒

廣晟德手游資訊速遞 → 五大疑點(diǎn)曝光:Llama-4-逐層扒皮-NYU-教授稱-AI-Scaling-徹底結(jié)束

五大疑點(diǎn)曝光:Llama-4-逐層扒皮-NYU-教授稱-AI-Scaling-徹底結(jié)束

2025-04-10 18:00:33      小編:廣晟德手游      

剛剛,一位 AI 公司 CEO 細(xì)細(xì)扒皮了關(guān)于 Llama 4 的五大疑點(diǎn)。甚至有圈內(nèi)人表示,Llama 4 證明 Scaling 已經(jīng)結(jié)束了,LLM 并不能可靠推理。但更可怕的事,就是全球的 AI 進(jìn)步恐將徹底停滯。

五大疑點(diǎn)曝光

令人失望的 Llama 4,只是前奏而已。接下來(lái)我們恐將看到 —— 全球局勢(shì)的改變,將徹底阻止 AI 進(jìn)步!Anthropic CEO Dario 做出長(zhǎng)視頻,逐級(jí)對(duì) Llama 4 身上的六大疑點(diǎn)進(jìn)行了扒皮。

五大疑點(diǎn)曝光

同時(shí),紐約大學(xué)教授馬庫(kù)斯發(fā)出博客,總結(jié)了目前這段時(shí)間 AI 圈的狀況。

Scaling 已經(jīng)結(jié)束;模型仍然無(wú)法可靠推理;金融泡沫正在破裂;依然沒(méi)有 GPT-5;對(duì)不可靠的語(yǔ)言模型的過(guò)度依賴讓世界陷入了困境。我的 25 個(gè) 2025 年預(yù)測(cè)中的每一個(gè),目前看起來(lái)都是對(duì)的。

大語(yǔ)言模型不是解決之道。我們確實(shí)需要一些更可靠的方法。

OpenAI 和 Anthropic 這樣的公司,需要籌集資金來(lái)資助新模型本后的大規(guī)模訓(xùn)練運(yùn)行,但他們的銀行賬戶里并沒(méi)有 400 億或 1000 億美元,來(lái)支撐龐大的數(shù)據(jù)中心和其他費(fèi)用。

問(wèn)題在于,如果投資者預(yù)見(jiàn)到了經(jīng)濟(jì)衰退,那就要么不會(huì)投資,要么投資較少。

更少的資金,就意味著更少的計(jì)算,也就是更慢的 AI 進(jìn)展。

布魯金斯學(xué)會(huì) 2025 年的一份報(bào)告稱,若科研成本持續(xù)上升,美國(guó)在人工智能、生物技術(shù)和量子計(jì)算等關(guān)鍵領(lǐng)域的領(lǐng)先地位可能受到威脅。據(jù)估算,當(dāng)前政策若持續(xù)實(shí)施五年,美國(guó)科研產(chǎn)出可能會(huì)下降 8%-12%。

在以前的一個(gè)采訪里,Anthropic CEO Dario 曾被問(wèn)到:到了如今這個(gè)階段,還有什么可以阻止 AI 的進(jìn)步?他提到了一種可能 —— 戰(zhàn)爭(zhēng)。

五大疑點(diǎn)曝光

沒(méi)想到,在這個(gè)可能性之外,我們居然提前見(jiàn)證了系統(tǒng)的另一種混沌。

而 Dario 也提前預(yù)測(cè)到,如果出現(xiàn)「技術(shù)不會(huì)向前發(fā)展」的信念,資本化不足,AI 進(jìn)步就將停止。

逐級(jí)扒皮 Llama 4

最近鬧出大丑聞的 Llama 4,已經(jīng)證明了這一點(diǎn)。

五大疑點(diǎn)曝光

我們很難說(shuō),Llama 4 系列三款模型中的兩款代表了多少進(jìn)展,顯然在這個(gè)系列的發(fā)布中,夸大宣傳的水分要比誠(chéng)實(shí)的分析多得多。

疑點(diǎn) 1:長(zhǎng)上下文大海撈針,其實(shí)是騙人?

Llama 擁有所謂業(yè)界領(lǐng)先的一千萬(wàn)個(gè) token 的上下文窗口,聽(tīng)起來(lái)似乎很酷炫。

可是等等,24 年 2 月,Gemini 1.5 Pro 的模型,就已經(jīng)達(dá)到 1000 萬(wàn) token 的上下文了!

在極端情況下,它可以在視頻、音頻和共同文本上,執(zhí)行驚人的大海撈針任務(wù),或許,是谷歌忽然意識(shí)到,大海撈針任務(wù)意義非常重大。

正如這篇 Llama 4 博客所說(shuō),如果把所有哈利波特的書都放進(jìn)去,模型都能檢索到放入其中的一個(gè)密碼。

五大疑點(diǎn)曝光

不過(guò),這位 CEO 表示,這些 48h 前發(fā)布的結(jié)果,不如 24 小時(shí)前更新的這個(gè) fiction livebench 基準(zhǔn)測(cè)試這么重要。

這個(gè)基準(zhǔn)測(cè)試,用于長(zhǎng)上下文的深度理解,LLM 必須將數(shù)萬(wàn)或數(shù)十萬(wàn)個(gè) token 或單詞拼湊在一起。

在這里,在這個(gè)基準(zhǔn)測(cè)試中,Gemini 2.5 Pro 的表現(xiàn)非常好,而相比之下,Llama 4 的中等模型和小模型,性能極其糟糕。

而且隨著 token 長(zhǎng)度的增加,它們的表現(xiàn)越來(lái)越差。

五大疑點(diǎn)曝光

疑點(diǎn) 2:為何周六發(fā)布?

這位 CEO 察覺(jué)到的第二大疑點(diǎn)就在于,Llama 4 為何選在周六發(fā)布?

在整個(gè)美國(guó) AI 技術(shù)圈里,這個(gè)發(fā)布日期都是史無(wú)前例的。

如果陰謀論一點(diǎn)想,之所以選在周六發(fā)布,是因?yàn)?Meta 自己也心虛了,希望盡量減少人們的注意力。

此外,Llama 4 的最新訓(xùn)練數(shù)據(jù)截止時(shí)間是 2024 年 8 月,這就很奇怪。

要知道,Gemini 2.5 的訓(xùn)練知識(shí)截止時(shí)間是 2025 年 1 月。

這就意味著,在過(guò)去的 9 個(gè)月里,Meta 一直在使盡渾身解數(shù),拼命讓這個(gè)模型達(dá)到標(biāo)準(zhǔn)。

有一種可能性是,或許他們本打算早點(diǎn)發(fā)布 Llama 4,但就在 9 月,OpenAI 推出了 o 系列模型,今年 1 月,DeepSeek R1 又來(lái)了,所以 Meta 的所有計(jì)劃都被打亂了。

五大疑點(diǎn)曝光

疑點(diǎn) 3:大模型競(jìng)技場(chǎng),究竟有沒(méi)有作弊?

不過(guò),這位 CEO 也承認(rèn),盡管全網(wǎng)充斥著對(duì) Llama 4 群嘲的聲音,但它的確也展示出了一些堅(jiān)實(shí)的進(jìn)展。

五大疑點(diǎn)曝光

比如 Llama 4 Maverick 的活動(dòng)參數(shù)量大概只有 DeepSeek V3 的一半,卻取得了相當(dāng)?shù)男阅堋?/p>

五大疑點(diǎn)曝光

那現(xiàn)在的核心問(wèn)題就在于,Meta 究竟有沒(méi)有在 LM Arena 上進(jìn)行作弊,在測(cè)試集上進(jìn)行訓(xùn)練?

目前,LM Arena 已經(jīng)迅速滑跪,公開(kāi)了 2000 多組對(duì)戰(zhàn)數(shù)據(jù)給公眾檢閱,并且表示會(huì)重新評(píng)估排行榜。

五大疑點(diǎn)曝光

目前姑且按照沒(méi)有算,那就意味著我們擁有一個(gè)強(qiáng)大得驚人的基礎(chǔ)模型了。

五大疑點(diǎn)曝光

看看這些真實(shí)數(shù)字,假設(shè)沒(méi)有任何答案進(jìn)入 Llama 4 的訓(xùn)練數(shù)據(jù),這個(gè)模型在 GPQA Diamond 上的性能(谷歌驗(yàn)證的極其嚴(yán)格的 STEM 基準(zhǔn)測(cè)試)實(shí)際上是比 DeepSeek V3 更好的。

而在這個(gè)基礎(chǔ)上,Meta 就完全可以創(chuàng)建一個(gè) SOTA 級(jí)別的思維模型。

唯一的問(wèn)題是,Gemini 2.5 Pro 已經(jīng)存在了,而 DeepSeek R2 也隨時(shí)會(huì)問(wèn)世。

疑點(diǎn) 4:代碼很差

還有一點(diǎn),當(dāng) Llama 4 走出舒適區(qū)時(shí),性能就會(huì)開(kāi)始狂降。

以 ADA 的 Polyglot 這個(gè)編碼基準(zhǔn)測(cè)試為例,它測(cè)驗(yàn)了一些系列編程語(yǔ)言的性能。

但與許多基準(zhǔn)不同,它不僅僅關(guān)注 Python,而是一系列編程語(yǔ)言,現(xiàn)在依然是 Gemini 2.5 Pro 名列前茅。

但是想要找到 Llama 4 Maverick,可就很難了,得把鼠標(biāo)滾動(dòng)很久。

它的得分當(dāng)然慘不忍睹 —— 只有 15.6%。

五大疑點(diǎn)曝光

這就跟小扎的言論出入很大了,顯得相當(dāng)諷刺。

就在不久前,他還信誓旦旦地?cái)喽ㄕf(shuō),Meta 的 AI 模型將很快取代中級(jí)程序員。

五大疑點(diǎn)曝光

疑點(diǎn) 5:「結(jié)果僅代表目前最好的內(nèi)部運(yùn)行」

這一點(diǎn),同樣已經(jīng)在 AI 社區(qū)引發(fā)了群嘲。

在下面這個(gè)表格中,Meta 將 Llama 4 和 Gemini2.0 Pro、GPT-4.5 等模型進(jìn)行了比較,數(shù)字非常漂亮。

但仔細(xì)看腳注,卻說(shuō)的是 Llama 模型的結(jié)果代表了目前最好的內(nèi)部運(yùn)行情況,所以很大可能是,Meta 把 Llama 4 跑了 5 遍或 10 遍,取了其中的最好結(jié)果。

五大疑點(diǎn)曝光

而且,他們還故意不將 Llama 4 Behemoth 跟 DeepSeek V3 進(jìn)行比較,后者比它在整體參數(shù)上小三倍,在互動(dòng)參數(shù)上小八倍,性能卻相似。

五大疑點(diǎn)曝光

如果從消極的角度下判斷,就可以說(shuō) Llama 4 最大的模型參數(shù)上 DeepSeek V3 基礎(chǔ)模型的許多倍,性能卻基本處于同一水平。

還有在 Simple Bench 中,Llama 4 Maverick 的得分大概為 27.7%,跟 DeepSeek V3 處于同一水平,還低于 Claude 3.5 Sonnet 這類非思維模型。

五大疑點(diǎn)曝光

另外,這位 CEO 還在 Llama 4 的使用條款中發(fā)現(xiàn)了這么一條。

如果你在歐洲,仍然可以成為它的最終用戶,但卻沒(méi)有權(quán)利在它的基礎(chǔ)上進(jìn)行構(gòu)建模型。

五大疑點(diǎn)曝光

馬庫(kù)斯:Llama 4 的慘痛教訓(xùn)表明,Scaling 已經(jīng)結(jié)束

而 Llama 4 的慘淡表現(xiàn),也讓 NYU 教授馬庫(kù)斯寫出長(zhǎng)文,斷言 Scaling 已經(jīng)結(jié)束,LLM 仍然無(wú)法推理。

五大疑點(diǎn)曝光

他的主要觀點(diǎn)如下。

大模型的 Scaling 已經(jīng)徹底結(jié)束了,這證實(shí)了我三年前在深度學(xué)習(xí)正在撞墻中的預(yù)測(cè)。

一位 AI 博士這樣寫道:Llama 4 的發(fā)布已經(jīng)證實(shí),即使 30 萬(wàn)億 token 和 2 萬(wàn)億參數(shù),也不能讓非推理模型比小型推理模型更好。

五大疑點(diǎn)曝光

規(guī)模化并不奏效,真正的智能需要的是意圖,而意圖需要遠(yuǎn)見(jiàn),這都不是 AI 能做到的。

五大疑點(diǎn)曝光

即使 LLM 偶爾能提供正確的答案,往往也是通過(guò)模式識(shí)別或啟發(fā)式的捷徑,而非真正的數(shù)學(xué)推理。

比如最近 ETU 團(tuán)隊(duì)關(guān)于 LLM 在美國(guó)奧數(shù)上糟糕表現(xiàn)的研究,就徹底擊碎了「LLM 會(huì)做數(shù)學(xué)題」這個(gè)神話。

五大疑點(diǎn)曝光

最終,生成式 AI 很可能會(huì)變成一個(gè)在經(jīng)濟(jì)回報(bào)上失敗的產(chǎn)品。

泡沫可能真的要破滅了。英偉達(dá)在 2025 年的跌幅,就已經(jīng)超過(guò)了三分之一。

而 Meta 的 Llama 4 的殘酷真相,再次證實(shí)了馬庫(kù)斯在 2024 年 3 月預(yù)測(cè) ——

達(dá)到 GPT-5 級(jí)別的模型,將會(huì)非常困難。很多公司都會(huì)有類似模型,但沒(méi)有護(hù)城河。隨著價(jià)格戰(zhàn)進(jìn)一步升級(jí),許多只會(huì)有微薄的利潤(rùn)。

五大疑點(diǎn)曝光

最終,馬庫(kù)斯以這樣的方式總結(jié)了自己的發(fā)言 —— 大語(yǔ)言模型絕對(duì)不是解決之道,我們需要一些更可靠的方法。Gary Marcus 正在尋找對(duì)開(kāi)發(fā)更可靠替代方法有興趣的投資者。

參考資料:

//www.youtube.com/watch?v=wOBqh9JqCDY

//garymarcus.substack.com/p/scaling-is-over-the-bubble-may-be