好消息,好消息!
各位差友們,村里這下真的是發手機了!
不過不是在手里,而是在云上。
你讓它來定個鬧鐘,沒問題,用它來查個天氣,So easy。
可一但要整點復雜的操作,那人工智能就秒變成了人工智障。
為了不讓 AI 的能力白白浪費,去年的時候,智譜這家公司整了一個好活,在別家的大模型還在只顧著卷著在做問答,寫代碼,編音樂,畫 PPT 的時候。
人家直接開展了驚世智慧,一步到位,讓大模型來操作你的手機,只要扒拉扒拉嘴皮子,大模型就會理解你的想法,然后一步一步的操作手機來獲取信息。
去年的時候,就能用在我的手機上操縱小紅書來查攻略了
畢竟讓 AI 來直接操作咱們的是手機這件事,看起來雖然很酷,但是由于現在 AI 干活的速度太慢了。
它操縱我的手機把活給干完了,但那用的是我玩手機的時間啊!
這怎么行!
于是為了避免這種資源浪費的情況出現,他們今年直接給大家一人發了一臺云手機和云電腦,24 小時待命。我們只要動動嘴,它就能像一個真人一樣,在那個云手機上幫你操作各種 APP,完成各種任務。
打開 AutoGLM App,就會看到這倆準備好的云手機和云電腦
差評君也私底下找智譜的朋友問了一下,問他們為啥這會發產品這么豪橫,人人都能免費用。
結果人私下給我透了個底,說他們這模型背后用的都是自研的大模型,成本賊低。
大家可能對這個數字沒啥概念 ,這么說吧,隔壁 Manus 同樣是做 Agent 的,就因為用了 Claude 的 API,跑一個任務大概得花 2 美元,是 AutoGLM 的十倍。
那么價格打下來了之后, AutoGLM 干起活來表現到底怎樣呢?我也幫大家簡單測了一下,就拿點飲料這個場景來說吧,我只需要直接表達想法:" 幫我去美團上點五杯蜜雪冰城的檸檬水,并且直接下單。"
先是打開美團,然后在搜索框里輸入蜜雪冰城,然后開始進入店鋪,找到檸檬水,最后連點五次 "+" 號,將五杯檸檬水給放到購物車里,然后讓我來做最后的買單確認的行為。
這里的 GIF 是為了壓縮大小,有點加速
其它像是買車票,訂酒店這些類似的場景,AutoGLM 都可以直接幫咱們操作,當然,還是和前面點奶茶的情況一樣,到了最后真正付錢的時候,還是得讓我親自來操作才行。
而且人不光能控制單個 App,還能在云手機的不同 App 里給來回轉跳,幫我把最實惠的產品給找出來。
就比如這回、我想買個羅技的 Mx Master 鼠標,就可以讓 AutoGLM 幫我去淘寶京東拼多多里逛一圈,然后幫我找到最有性價比的那一個。
如果說過去的大模型是在讓我們提高干活的效率的話,那么現在的 AutoGLM 就像是讓我們能直接一心二用,多線程操作。
更牛逼的地方在于,他們并不想把這種能力給局限在自家的 APP 里,而是通過開放 API,把這個云手機、云電腦的控制權,交到了每個開發者手里。
在看到這件事的第一時刻,我就想到了一個之前搗鼓過的開源項目 —— OpenGlass。
有沒有一種可能,不用手機,也能控制云手機?
簡單介紹一下,這所謂的 OpenGlass,就是一個開源的小設備,可以通過外掛的方式,把我的眼鏡給弄成智能眼鏡。
于是我就申請了一下 AutoGLM 的 API,花了一個晚上的時間把它接進了 OpenGLass。
這樣一來,我就能通過直接說話的法子,跳過手機,直接讓眼鏡來幫我訂酒店。
而且看智譜這次放出來的消息,他們其實已經在和專門做智能眼鏡的廠商在做對接,可能都不需要一年,這類產品就會真正的走進現實。
但這回的折騰,更像是一次有趣的實驗,或者說是一次偷看。這么個簡陋的眼鏡,在接入了智譜的 AutoGLM API 之后,我甚至感覺可能提前看到了下一代移動交互技術里,一種可能演變的方向。
自打 2007 年初代 iPhone 問世,那個小小的 Home 鍵和一塊電容屏,就徹底定義了這種以觸摸為核心的交互方式。
就是這么個如今大家習以為常的本能,讓蘋果將諾基亞斬于馬下,開啟了移動互聯網的黃金時代。
誰、又會成為下一個 iPhone?
這個問題,就是懸在所有科技巨頭頭頂的達摩克利斯之劍。沒人能給出確切的答案。
也正因如此,我們能看到一場無比精彩的軍備競賽:
蘋果推出了 Vision Pro 試水空間計算,Meta 從 VR 頭顯一路干到和雷朋合作的智能眼鏡,谷歌重啟 Project Glass 尋求卷土重來,國內的廠商們也不甘落后:小米、雷鳥、Rokid 紛紛發布各自的新款 AI/AR 眼鏡。
沒有答案,但或許人人都是答案,或許真正能決定下一代移動設備平臺的關鍵點,或許不光是在硬件本身,而是在硬件背后的靈魂里:
那是一個能真正理解我們意圖,并為我們執行任務的 AI。
我們需要的不是一個戴在頭上的語音問答機,而是一個能像是 AutoGLM 這樣,能夠調動全世界資源來幫我們解決問題的賈維斯。
那或許,你的下一個手機,真的不只是一個手機了。
撰文:早起