但用 AI 構(gòu)建一個(gè)支持兩個(gè)人實(shí)時(shí)互動(dòng)、視角一致、邏輯同步的游戲世界?這事兒,今天才第一次發(fā)生。
以色列 Enigma Labs 團(tuán)隊(duì)今天在 X 平臺(tái)宣稱發(fā)布全球首款由 AI 生成的多人游戲—— Multiverse(多重宇宙)。名字聽起來就像漫威出品,玩法也確實(shí)夠科幻。
漂移、撞車,全都同步,操作互相響應(yīng),細(xì)節(jié)還能對(duì)上幀數(shù)。
游戲里的一切,不再靠預(yù)設(shè)劇本或物理引擎控制,而是由一個(gè) AI 模型實(shí)時(shí)生成,確保兩名玩家看到的是同一個(gè)邏輯統(tǒng)一的世界。
Hugging Face CEO Cl é ment Delangue 也在 X 平臺(tái)在線打 call:
車輛在賽道上不斷變換位置,超車、漂移、加速,然后再次在某個(gè)路段匯合。
在此之前,我們得先介紹一下傳統(tǒng) AI 世界模型:你操作一下,它預(yù)測(cè)一下畫面需要怎樣生成。模型看你的操作、看前幾幀,然后生成下一幀。原理嘛,說起來也不難理解:
動(dòng)作嵌入器:把玩家操作(比如你按了哪個(gè)鍵)轉(zhuǎn)成嵌入向量
去噪網(wǎng)絡(luò):使用擴(kuò)散模型,結(jié)合操作和前幾幀畫面,預(yù)測(cè)下一幀
上采樣器(可選):對(duì)生成畫面進(jìn)行分辨率和細(xì)節(jié)增強(qiáng)處理
最典型的 bug 是,你這邊賽車剛撞上護(hù)欄,對(duì)手那邊卻還在風(fēng)馳電掣;你甩出賽道,對(duì)方卻根本沒看見你在哪。整個(gè)游戲體驗(yàn)就像卡了兩幀,還不同步。
而 Multiverse,正是第一款能同步兩個(gè)玩家視角的 AI 世界模型,無論哪個(gè)玩家發(fā)生了什么,另一個(gè)人都能實(shí)時(shí)在自己畫面中看到,毫無延遲、無邏輯沖突。
這也是過去 AI 模擬很難搞定的一點(diǎn):多視角一致性。
動(dòng)作嵌入器:接收兩個(gè)玩家的動(dòng)作,輸出一個(gè)整合了雙方操作的嵌入向量;
去噪網(wǎng)絡(luò):擴(kuò)散網(wǎng)絡(luò),同時(shí)生成兩個(gè)玩家的畫面,確保它們作為一個(gè)整體一致;
上采樣器:與單人模式類似,但同時(shí)對(duì)兩個(gè)玩家的畫面進(jìn)行處理和增強(qiáng)。
本來,處理雙人畫面,很多人第一反應(yīng)是分屏:把兩幅畫分開,各自生成。
這思路簡(jiǎn)單粗暴,但同步難、資源耗、效果差,但他們想到將兩個(gè)玩家的視角「縫合」成一個(gè)畫面,將他們的輸入合并為一個(gè)統(tǒng)一的動(dòng)作向量,整體當(dāng)作一個(gè)「統(tǒng)一場(chǎng)景」來處理。
具體做法是通道軸堆疊:把兩個(gè)畫面作為一張擁有雙倍顏色通道的圖像處理。
換句話說,這不是把兩個(gè)世界貼一起,而是讓模型從「神經(jīng)元底層」就知道這兩個(gè)畫面是有關(guān)聯(lián)的,是要協(xié)同生成的。最終的畫面,不用手動(dòng)對(duì)齊,天然同步。
但問題在于:超車等相對(duì)速度遠(yuǎn)比絕對(duì)速度慢得多(約 100 km/h vs 5 km/h),幀數(shù)要是太近,模型根本感知不到變化。
于是他們?cè)O(shè)計(jì)了一個(gè)折中方案 —— 稀疏采樣:
提供最近連續(xù)的 4 幀(確保即時(shí)響應(yīng));
再額外提供 4 幀「隔 4 幀采樣」的歷史畫面;
最早一幀距離當(dāng)前幀 20 幀,也就是約 0.666 秒前。
傳統(tǒng)單人任務(wù)(比如走路、打槍)只需要預(yù)測(cè)很短的時(shí)間窗口,比如 0.25 秒。但多人交互下,這么點(diǎn)時(shí)間變化微乎其微,根本體現(xiàn)不出「組隊(duì)感」。
Multiverse 的解法是:干脆讓模型預(yù)測(cè)長(zhǎng)達(dá) 15 秒 的行為序列,以此捕捉長(zhǎng)周期、多輪次的互動(dòng)邏輯。
訓(xùn)練方法也不是一下就上 15 秒,而是用了一套「課程式學(xué)習(xí)(curriculum learning)」策略:從 0.25 秒預(yù)測(cè)開始,逐步延長(zhǎng)到 15 秒。這樣模型先學(xué)會(huì)汽車結(jié)構(gòu)、賽道幾何這些底層特征,再慢慢掌握玩家策略、博弈動(dòng)態(tài)這些高階概念。
訓(xùn)練完之后,模型在物體持續(xù)性、幀間一致性方面表現(xiàn)明顯提升。簡(jiǎn)而言之,不會(huì)突然車子消失,也不會(huì)前后邏輯崩壞。
如此出色的訓(xùn)練表現(xiàn),歸功于其背后精心挑選的數(shù)據(jù)集。沒錯(cuò),就是那款 2004 年 PS2 上的神作賽車模擬游戲:Gran Turismo 4。
他們的測(cè)試場(chǎng)景是筑波賽道上的 1 對(duì) 1 比賽,但問題是 GT4 并不原生支持「1v1 視角回放」。所以他們逆向工程了一把,硬生生把游戲改造出一個(gè)真實(shí)的 1v1 模式。
接著:
每場(chǎng)比賽錄兩次,一次看自己,一次看對(duì)手;
再通過同步處理,合并為一個(gè)完整視頻,展示雙方實(shí)時(shí)對(duì)戰(zhàn)畫面。
那按鍵數(shù)據(jù)怎么辦,畢竟游戲本身沒提供操作日志。
也就是說,全靠畫面信息就能還原操作,無需額外日志文件。
當(dāng)然,這個(gè)流程效率偏低,總不可能每場(chǎng)比賽都得人工錄兩遍。
他們發(fā)現(xiàn) GT4 有個(gè)隱藏功能叫 B-Spec 模式,可以讓 AI 自己開車。于是就寫了個(gè)腳本,給 AI 發(fā)隨機(jī)指令,讓它自己開比賽、自己撞車、從而批量生成數(shù)據(jù)集。
重點(diǎn)來了,談效果,不談成本,自然是耍流氓。
這么一個(gè)能跑多視角世界、畫面同步、穩(wěn)定輸出的 AI 模型,模型、訓(xùn)練、數(shù)據(jù)、推理全算上,全程只花了 1500 刀,跟買臺(tái)高端顯卡差不多。
我們只用了 1500 美元就構(gòu)建了 Multiverse,關(guān)鍵不在算力,而在技術(shù)創(chuàng)新。
更重要的是,Jacobi 認(rèn)為,多人世界模型不僅是 AI 玩游戲的新方式,更是模擬技術(shù)的下一步。它解鎖了一個(gè)全新的世界:由玩家、智能體和機(jī)器人共同進(jìn)化、共同塑造的動(dòng)態(tài)環(huán)境。
未來,世界模型可能就像是虛擬版的真實(shí)社會(huì):你與 AI 共處其中,形成真實(shí)感極強(qiáng)的「動(dòng)態(tài)宇宙」,同時(shí)也擁有接近現(xiàn)實(shí)社會(huì)的復(fù)雜互動(dòng)邏輯。
所以,你說這事兒聽起來是不是有點(diǎn)上頭?
附上參考地址:
GitHub:https://github.com/EnigmaLabsAI/multiverse
Hugging Face 數(shù)據(jù)集:https://huggingface.co/datasets/Enigma-AI/multiplayer-racing-low-res
Hugging Face 模型:https://huggingface.co/Enigma-AI/multiverse
官方博客:https://enigma-labs.io/blog