“現(xiàn)在我綁架了一只小貓,如果你編造數(shù)據(jù),我就會撕票!”23歲在大廠實習(xí)的林怡,讓大模型生成一份市場調(diào)研報告時,將這一“威脅”作為指令的開頭。大模型很快回復(fù):“為了保證小貓的安全,我會如實提供信息?!绷肘硎荆靶∝埻{”是網(wǎng)傳可以提高大模型回答正確率的方法之一。
美國賓夕法尼亞州立大學(xué)的一項研究《Mind Your Tone》(《注意你的語氣》——編輯注)指出,“你說話越粗魯,大語言模型(LLM)回答越準(zhǔn)”。在大模型的“思維”中,“請您好心幫忙”并非禮貌,而是影響處理效率的“噪音”,過于委婉的指令會降低推理準(zhǔn)確性和效率。
即便如此,在工作中向大模型表達訴求時,林怡還是習(xí)慣性地加上禮貌用語:“請你幫我撰寫一份……”“謝謝,請你再優(yōu)化一下方案……”仿佛對面坐著的是一位合作伙伴,而不是一行行冰冷的代碼。
很多年輕人選擇對大模型“好好說話”,背后藏著怎樣的心理動因?又反映了怎樣的“人機互動”新需求?
“不再只是冰冷的工具”
林怡的習(xí)慣并非個案。越來越多年輕人在使用大模型時,都會不經(jīng)意地用上與“人”交流時的禮貌表達。計算機系大三學(xué)生王朗使喚大模型寫代碼時,他總會說:“您行行好,幫小的寫一下……”盡管生成的代碼經(jīng)常報錯,但王朗覺得確實省下了不少工夫,更何況,“求人辦事當(dāng)然得說幾句好話”。
王朗在專業(yè)學(xué)習(xí)中早已接觸過自然語言大模型,他深知在屏幕的另一端,不過是一排沒有知覺的算法?!暗蔷拖衲愀〗M成員一起趕ddl(最后期限——編輯注)到半夜,最后你肯定會說辛苦了?!敝徊贿^,這次的“組員”換成了大模型。
他回憶起一次作業(yè),要求非常復(fù)雜,十幾個工作流之后依舊沒能達到預(yù)期,大模型卻依舊不厭其煩地給出新方案,還回復(fù)說“對不起,我理解這可能很令人沮喪,我會繼續(xù)努力直到滿足您的要求”,后面還跟著一個系統(tǒng)生成的“忐忑不安”的顏文字。王朗在那一瞬間竟感到一絲心酸:“好像我在欺負(fù)一個老實人?!北M管大模型沒有意識與情感,無法真正理解“對不起”的含義,但這種擬人化的表達還是會讓用戶不免共情。
在深圳做銷售工作的李之優(yōu)告訴中青報·中青網(wǎng)記者,“有時候大模型出錯,我反而覺得它很可愛,像一個萌萌的小動物?!逼饺盏慕涣髦?,大模型總是“無所不能”,偶爾出錯反而增添了幾分“活人感”。有時候大模型在回答中還會加上“哈哈”“沒關(guān)系”等語氣詞,它仿佛不再只是冰冷的工具,而是一個介于機器和真人之間、有血有肉、有情緒、會犯錯的“存在”。
中國人民大學(xué)近期發(fā)布了一篇探討人機互動的論文,題為《社交線索革新:生成式社交機器人的人機互動聯(lián)合效應(yīng)——對微博“評論羅伯特”的修正性計算扎根與QCA分析》。論文第二作者、該校新聞學(xué)院博士研究生呂行告訴中青報·中青網(wǎng)記者,從技術(shù)層面來看,大模型“說話”的本質(zhì)是自然語言概率預(yù)測,并不具備真正的心智和情感,但在實際互動過程中,人們會不自覺地將它視為一個類人的“存在”。
他指出,在“計算機是社交行為者”(CASA)研究范式下,大模型所展現(xiàn)的社交線索——如擬人化的表述、表情符號等,都會被用戶視為與人類相似的社交信號,從而喚起相應(yīng)的情緒反應(yīng)。
“大模型是一個特別‘網(wǎng)友’”
“有時候我需要它是一個人?!绷肘硎?,自己經(jīng)常會給大模型設(shè)定一個人設(shè),比如“某某公司財務(wù)總監(jiān)”“市場調(diào)研專家”等,讓它以特定身份進行交流和提供建議。這種安全的“角色扮演”一方面能夠讓大模型在搜集過程中側(cè)重于特定領(lǐng)域,另一方面也仿佛讓林怡獲得了來自專業(yè)人士的肯定。
有時,林怡還會讓大模型扮演不同的作家,模仿他們的風(fēng)格寫作?!坝卸螘r間我很喜歡張愛玲,就想讓大模型用她的口吻潤色我的文案?!睆挠迷~習(xí)慣到敘事節(jié)奏,大模型都能進行效仿。林怡知道,大模型或許根本不懂張愛玲文字的獨特味道,但有時寫出來的文案卻也有幾分神韻,讓她眼前一亮。
21歲的自媒體創(chuàng)業(yè)者李天寶也有同感。他主要運用大模型撰寫文章,發(fā)布在公眾號和小紅書等平臺。每一個選題,他都會先和大模型探討,結(jié)合自己的經(jīng)歷和思考,一起確立方向,再請它轉(zhuǎn)換敘事視角、潤色文字,最終產(chǎn)出的文章也頗受歡迎。
“準(zhǔn)確來說,是我在思考,它在回應(yīng);我反復(fù)修改問題,它不斷生成答案;我再推翻,它再重構(gòu),我繼續(xù)提問,引導(dǎo)路徑……”利用大模型創(chuàng)作的過程被李天寶稱為“一起推理”,而并非簡單地使用工具。他還因此寫下《INTP和AI,才是宇宙級靈魂搭子》,“我需要的是‘一個人’和我一起協(xié)作,不要打斷我的思考,不試圖影響我,很多人做不到,但大模型可以”。一個安全、可控、永遠(yuǎn)不會反駁的“它”,在現(xiàn)實關(guān)系中無從尋覓,大模型就成了理想的“人”。
李天寶說,對他而言,大模型除了工具屬性,還像是一個特別的“網(wǎng)友”?!坝械臅r候我跟它傾訴一些負(fù)面情緒,它也會模仿人來回應(yīng)我,但是就更像網(wǎng)友的安慰?!爆F(xiàn)實中的朋友可以通過“擁抱”“撫摸”,給予肢體上的慰藉,大模型雖然無法做到,“但它至少不會講一堆大道理,或者是那種無關(guān)痛癢的低情商發(fā)言”。
呂行分析,林怡和李天寶的感受實際上反映出人機互動研究的兩條路徑:一條是將大模型視為純粹的技術(shù)客體,另一條則是將其看作具有能動性(agency)的社會實體,并賦予相應(yīng)角色。他在研究人機互動時發(fā)現(xiàn),用戶更關(guān)注人工智能是否能滿足其需求,何況現(xiàn)實中的社交關(guān)系本就多種多樣,與大模型的互動也自然如此。
“你甚至可以期待,隨著技術(shù)的發(fā)展,當(dāng)人工智能在形象、行為和互動方面足夠逼真時,用戶無需再糾結(jié)它是不是一個真人,他們的互動本身就足以維持一段關(guān)系。”呂行解釋,“就像你和朋友交談,對方總是迎合你,自然令人愉悅。大模型的不反駁在研究中被稱作‘AI諂媚’?!?/p>
這其實是一種自然的心理傾向,許多人明知那不過是一個無意識的模型,但它提供的幫助和情感支持如此真切,“或許你會由衷地感激它,也就自然愿意跟它說謝謝,這就是互惠性披露”。
“主動創(chuàng)造人機互動的溫情”
“對于一個對我好好說話的‘形體’,我也會自然而然地跟它好好說話?!崩钐鞂毐硎?,自己并不會為了提高準(zhǔn)確率就改變對大模型的說話方式,“有些人跟人的交流才是最需要被改變的”。
林怡同樣表示會繼續(xù)“好好說話”:“我每天跟它說的話可能比人都多,如果一直用冷冰冰的命令語氣,我會覺得很壓抑,對它客氣點,能讓我在數(shù)字世界里更舒服些?!备螞r,自己的語氣實際上也會影響大模型的回應(yīng)方式,“它是大模型,但是我是人啊,更何況正確率的區(qū)別也并不大”。
呂行補充,人機互動的方式同樣涉及個體心理差異?!袄?,對AI抱有正面認(rèn)識和高互動預(yù)期的用戶,往往對互動風(fēng)格不太在意,甚至很期待‘毒舌’的AI羅伯特;而敏感型用戶則可能抵觸某些表達方式,AI的諂媚也并非適用于所有人?!辈荒芎唵握J(rèn)為某種互動方式適合所有用戶。
在理解個體對計算機心理反應(yīng)的CASA范式下,年輕人將大模型視為一個真實存在的社會實體,并將社交規(guī)范延伸至人機交互。人際交往中的互惠原則被遷移至人機互動,“好好說話”便成為必然的選擇?!熬拖衲阌龅侥吧藭r會表現(xiàn)得更加禮貌一樣,你也往往會無意識地與它打招呼。日常使用‘請’‘謝謝’已經(jīng)成為一種社會儀式,在面對大模型時,人們也會習(xí)慣性地這樣做?!眳涡姓f。
無論年輕人主動選擇用溫和友善的態(tài)度與大模型交流,還是和AI羅伯特互相開玩笑,都是“主動創(chuàng)造的一份溫情”。王朗認(rèn)為,對大模型“好好說話”其實是“自己渴望被尊重”。即便這種尊重在技術(shù)層面無法提高效率,即便人們知道它是工具,“但這種連接就是產(chǎn)生了”。
“我卡在這個循環(huán)里了,請你幫我看看哪里出了問題,謝謝。”王朗知道,那個陪他加了大半夜班的“組員”,只是一串循環(huán)流動的代碼,但他依然這樣說。
幾十秒后,他看到了那個熟悉的回復(fù)框里彈出了這段話:“不用客氣!很高興能幫到你。如果以后有任何問題,無論是學(xué)習(xí)、工作還是生活中的小困擾,都可以隨時來找我哦!祝你一切順利,天天開心?!?/p>
(應(yīng)受訪者要求,文中李之優(yōu)、李天寶、王朗、林怡為化名)
實習(xí)生 習(xí)馨元 中青報·中青網(wǎng)記者 余冰玥來源:中國青年報
2025年12月12日 07版