最近一段時(shí)間,國(guó)內(nèi)互聯(lián)網(wǎng)行業(yè)最熱的概念非 " 龍蝦 "(OpenClaw)莫屬。在各路急著賣(mài) Token(詞元)的大廠(chǎng)鋪天蓋地的宣傳下,已經(jīng)有不少人或花錢(qián)找人上門(mén)安裝、或自己琢磨教程,最終成功 " 養(yǎng)蝦 "。

偏偏這股龍蝦熱催生的海量 Token 需求讓各大云服務(wù)提供商看到了商機(jī),Token 的價(jià)格開(kāi)始一路上漲。這時(shí)候?qū)で蟮蛢r(jià) Token 就成了不少人的剛需,如今在淘寶、閑魚(yú)等主流電商平臺(tái)就有相當(dāng)多第三方號(hào)稱(chēng)廉價(jià)的 Token 資源銷(xiāo)售,也就是所謂的 " 第三方 AI 中轉(zhuǎn)站 "。
這類(lèi)第三方 AI 中轉(zhuǎn)站的 Token 往往比 Kimi、智譜、DeepSeek 的官方價(jià)格便宜一半以上,看起來(lái)相當(dāng)有競(jìng)爭(zhēng)力。然而世界上沒(méi)有天上掉餡餅的好事,第三方 AI 中轉(zhuǎn)站的 Token 很燙手。
日前,來(lái)自加州大學(xué)圣芭芭拉分校和圣地亞哥分校的研究團(tuán)隊(duì)發(fā)現(xiàn),市面上的第三方 AI 中轉(zhuǎn)站安全性堪憂(yōu)。

除此之外,這個(gè)團(tuán)隊(duì)還故意將 API 密鑰泄露到公開(kāi)論壇,結(jié)果相關(guān)密鑰被立即使用,隨后消耗了 1 億 Tokens。因此該研究團(tuán)隊(duì)將 AI 中轉(zhuǎn)站認(rèn)定為 AI 大模型供應(yīng)鏈中最脆弱的環(huán)節(jié)之一。
那么問(wèn)題就來(lái)了,為什么第三方 AI 中轉(zhuǎn)站能輕而易舉地作惡呢?
事實(shí)上,第三方 AI 中轉(zhuǎn)站是介于用戶(hù)與 AI 廠(chǎng)商官方服務(wù)之間的代理層,也可以將其理解為 "Token 代購(gòu) ",它的商業(yè)邏輯就是 " 當(dāng)中間商賺差價(jià) "。問(wèn)題就出現(xiàn)在這里,第三方 AI 中轉(zhuǎn)站賣(mài)的 Token 比原廠(chǎng)更便宜,靠的是企業(yè)級(jí)客戶(hù)折扣、大額預(yù)付返利、教育 / 研究補(bǔ)貼額度,以及最為關(guān)鍵的多供應(yīng)商混合調(diào)度。

這種情況其實(shí)非常普遍,因?yàn)榇蟛糠?" 龍蝦 " 干的活無(wú)外乎寫(xiě)文章、做 PPT、生成圖片、寫(xiě)代碼,根本不需要旗艦?zāi)P统鍪郑^大部分用戶(hù)在使用的時(shí)候,也很難準(zhǔn)確洞察到不同模型的智能水平。
如果只是 " 掛羊頭賣(mài)狗肉 " 也就罷了,真正的威脅在于第三方 AI 中轉(zhuǎn)站能看到你的所有請(qǐng)求。例如多供應(yīng)商混合調(diào)度是有 " 代價(jià) " 的,智能識(shí)別任務(wù)類(lèi)型就意味著來(lái)自上游 AI 模型和下游用戶(hù)的請(qǐng)求,它都有明文完全訪(fǎng)問(wèn)權(quán)。這時(shí)候無(wú)良的第三方 AI 中轉(zhuǎn)站在上游的模型返回結(jié)果后偷偷篡改參數(shù),就能實(shí)現(xiàn)任意代碼執(zhí)行 ( RCE ) 、持久化后門(mén)植入。

以為第三方 AI 中轉(zhuǎn)站的單價(jià)打了五折?Prompt Caching(提示詞緩存)其實(shí)才是看不見(jiàn)的殺手。AI 模型每次處理請(qǐng)求,都需要將完整的對(duì)話(huà)歷史重新 " 讀 " 一遍,為了降低用戶(hù)的成本,AI 廠(chǎng)商使用提示詞緩存把已經(jīng)讀過(guò)的內(nèi)容緩存下來(lái),下次命中緩存的部分就會(huì)直接打一折。
可是第三方 AI 中轉(zhuǎn)站由于會(huì)使用多賬號(hào)輪換分配請(qǐng)求,這就代表你第一次請(qǐng)求在賬號(hào) A 即便建了緩存,第二次請(qǐng)求分到了賬號(hào) B 上,此前的緩存就會(huì)直接作廢,又要重建。如此一來(lái),Token 消耗豈有不起飛的理由。

【本文圖片來(lái)自網(wǎng)絡(luò)】