欧美精品成人a在线观看_无码无遮挡av毛片内射亚洲_涩涩免费无码视频在线观看_国产AV一区二区大屁屁

首頁  ?  企業(yè)風(fēng)采  ?  關(guān)注動(dòng)態(tài)  ?  外界動(dòng)態(tài)

AI爆點(diǎn)轉(zhuǎn)移至多模態(tài),體現(xiàn)了什么行業(yè)趨勢?

2025-10-29 16:52:00

來源:伍洋宇

  2025年的AI爆點(diǎn)正在發(fā)生轉(zhuǎn)移。

  自DeepSeek R1上半年引爆行業(yè)情緒之后,“純文本+推理”范式下的模型鮮少再現(xiàn)重量級(jí)成果。進(jìn)入下半年,話題重心明顯滑向多模態(tài)領(lǐng)域。

  Sora 2被封裝成可交付應(yīng)用、谷歌推出圖像編輯能力更強(qiáng)悍的Nano Banana;AI Agent這端同樣如此,在Manus這樣文本屬性更突出的通用型產(chǎn)品之后,達(dá)到相近級(jí)別熱度的是主攻視覺創(chuàng)作場景的LoveArt。

  在這背后,文本模型的迭代進(jìn)入一種基線較高、小步抬升的階段,而多模態(tài)理解與生成能力在可用性上,向“破圈”層級(jí)又近了一步。

  一名從事模型訓(xùn)練的研究人員對界面新聞?dòng)浾咧赋?,要理解這個(gè)現(xiàn)象,首先要認(rèn)識(shí)到文本與多模態(tài)兩個(gè)方向的研究是并行而非串行。

  經(jīng)過GPT-3、GPT-4、OpenAI o1等重大節(jié)點(diǎn)之后,大模型的語言理解能力足以交付C端(用戶)應(yīng)用,后續(xù)優(yōu)化集中在穩(wěn)態(tài)工程,例如對齊、降本、延遲優(yōu)化、魯棒性等等,這些能夠進(jìn)一步優(yōu)化C端應(yīng)用體驗(yàn)和B端(企業(yè))商用價(jià)值,但用戶感知不再像GPT-4來臨時(shí)那樣有強(qiáng)烈沖擊。

  一個(gè)典型的例子是DeepSeek-OCR。這是一個(gè)在話題性上不足以震撼人心的demo,但有其長期影響力。

  DeepSeek-OCR在10月20日推出,定位于探索文本的視覺壓縮能力(光學(xué)上下文壓縮,Contexts Optical Compression)。簡單而言,隨著上下文輸入增多,模型計(jì)算量以平方級(jí)陡增,但通過將長文本轉(zhuǎn)化為圖像識(shí)別,可以大幅壓縮token計(jì)算數(shù)量。這一思路得到驗(yàn)證的成果是,它一旦落地到應(yīng)用端,也是一個(gè)前景頗為確切的降本增效方式。

  多模態(tài)這一側(cè)完全不同,其能力曲線仍在還可以被更多人感知的區(qū)域內(nèi)。不過,前述受訪者指出,從并行的思路來看,多模態(tài)模型這端還未實(shí)現(xiàn)架構(gòu)層級(jí)的突破,更多是足夠的數(shù)據(jù)累積和訓(xùn)練技巧提升。

圖源:界面新聞

  正如他對Sora 2和Nano Banana的判斷,除去OpenAI對多模態(tài)生成類產(chǎn)品的初步構(gòu)想成型,以及谷歌對圖像編輯器現(xiàn)階段用戶需求的把握(例如錨定一個(gè)點(diǎn)進(jìn)行針對性修改),兩款產(chǎn)品在生成質(zhì)量上并未實(shí)現(xiàn)飛躍。

  并且,在很大程度上,以“文生圖、文生視頻”為代表的多模態(tài)生成領(lǐng)域,其表現(xiàn)優(yōu)化是以文本模型性能提升為前提。階躍星辰創(chuàng)始人兼CEO姜大昕此前在接受界面新聞?dòng)浾卟稍L時(shí)指出,理解與生成之間的關(guān)系是,理解控制生成、而生成監(jiān)督理解。

  一級(jí)市場也在見證這種關(guān)注點(diǎn)切換。一名AI投資人對界面新聞?dòng)浾弑硎?,他的體感是今年行業(yè)整體投資事件增多,但投資規(guī)模在降低,這是投資重點(diǎn)由模型層向應(yīng)用層過渡后,后者的市場規(guī)模及估值所決定的。

  在這之中,今年最顯眼的一筆來自應(yīng)用層視覺創(chuàng)作領(lǐng)域的LiblibAI。10月23日,LiblibAI宣布完成1.3億美元B輪融資,紅杉中國、CMC資本等參與其中,促成今年國內(nèi)資本市場AI應(yīng)用賽道最大的一筆融資。這意味著相較其他賽道,團(tuán)隊(duì)的PMF(product-market-fit)更大程度受到資本認(rèn)可。

  在往后很長一段時(shí)間,業(yè)界能夠期待的“爆點(diǎn)”或許都將更多來自于多模態(tài)領(lǐng)域。

  姜大昕一直強(qiáng)調(diào)的觀點(diǎn)是,光有語言的智能不夠,多模態(tài)是大模型的必經(jīng)之路。而在這片領(lǐng)域,理解與生成的統(tǒng)一仍是現(xiàn)階段的突破點(diǎn)。

  多名受訪者曾對界面新聞?dòng)浾弑硎?,站在模型?xùn)練角度,視覺模態(tài)比文本模態(tài)面臨的挑戰(zhàn)更大。單從數(shù)據(jù)上來看,文本的表征可以在語義上自閉環(huán),但視覺信息的表征需要先與文本對齊,不存在天然自閉環(huán)的數(shù)據(jù),“可能需要幾次像ChatGPT、強(qiáng)化學(xué)習(xí)范式這樣的大技術(shù)變遷才能解決?!币幻茉L者說。

  而一派觀點(diǎn)認(rèn)為,基于更好的多模態(tài)模型,世界模型、具身智能、空間智能等才能得到長足發(fā)展,行業(yè)才能進(jìn)一步靠近AGI(通用人工智能)。

  更現(xiàn)實(shí)的考量是,模型決定應(yīng)用能力上限,在文本模型集中火力降本增效和緩慢提升性能的同時(shí),多模態(tài)模型的突破有望給市場帶來更多PMF機(jī)會(huì),這將是創(chuàng)業(yè)者和投資人眼中更具實(shí)際價(jià)值的關(guān)鍵變化。

免責(zé)聲明:本網(wǎng)對文中陳述、觀點(diǎn)判斷保持中立,不對所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔(dān)全部責(zé)任。 本網(wǎng)站轉(zhuǎn)載圖片、文字之類版權(quán)申明,本網(wǎng)站無法鑒別所上傳圖片或文字的知識(shí)版權(quán),如果侵犯,請及時(shí)通知我們,本網(wǎng)站將在第一時(shí)間及時(shí)刪除。