欧美精品成人a在线观看_无码无遮挡av毛片内射亚洲_涩涩免费无码视频在线观看_国产AV一区二区大屁屁

首頁  ?  新聞?lì)l道  ?  國際新聞

綜述|6月全球人工智能領(lǐng)域新看點(diǎn)

2025-07-01 10:48:55

來源:新華網(wǎng)

  新華社北京7月1日電 綜述|6月全球人工智能領(lǐng)域新看點(diǎn)

  新華社記者彭茜

  6月,人工智能(AI)的進(jìn)化呈現(xiàn)越來越專業(yè)化細(xì)分的新趨勢(shì),在天氣預(yù)測(cè)、細(xì)胞研究、人文歷史等領(lǐng)域,完成了通用AI模型難以勝任的專業(yè)任務(wù)。然而,過度依賴AI模型的弊端也日漸顯現(xiàn),如模型“幻覺”導(dǎo)致虛假信息妨害法律、醫(yī)療等行業(yè),一些AI模型還在測(cè)試中出現(xiàn)不受控制的風(fēng)險(xiǎn)。在人類與AI共生的未來,如何確保AI安全可控成為越發(fā)重要的議題。

  AI實(shí)現(xiàn)專業(yè)化能力躍遷

  繼“阿爾法折疊”程序推進(jìn)人類對(duì)蛋白質(zhì)的認(rèn)知邊界后,谷歌旗下“深層思維”公司6月新發(fā)布AI模型“阿爾法基因組”,旨在預(yù)測(cè)人類DNA(脫氧核糖核酸)中的基因變異如何影響基因的調(diào)節(jié)過程,可分析多達(dá)100萬個(gè)DNA堿基對(duì),有助于科學(xué)界探明與疾病相關(guān)的基因突變。美國弧形研究所發(fā)布第一代虛擬細(xì)胞模型STATE,旨在預(yù)測(cè)各種干細(xì)胞、癌細(xì)胞和免疫細(xì)胞對(duì)藥物、細(xì)胞因子或基因擾動(dòng)的反應(yīng)。

  谷歌研究團(tuán)隊(duì)6月還推出交互式氣象平臺(tái)Weather Lab,是首個(gè)在預(yù)測(cè)精度上超越主流物理模型的AI熱帶氣旋預(yù)測(cè)模型,可預(yù)測(cè)氣旋的形成、路徑、強(qiáng)度、規(guī)模和形態(tài),能生成未來15天內(nèi)的50種情景推演。研究團(tuán)隊(duì)正與美國國家颶風(fēng)中心合作,在這個(gè)氣旋季為其預(yù)報(bào)和預(yù)警工作提供支持。

  美國普林斯頓大學(xué)與中國復(fù)旦大學(xué)的研究人員6月聯(lián)合推出全球首個(gè)聚焦歷史研究的AI助手HistAgent和AI評(píng)測(cè)基準(zhǔn)HistBench。前者可檢索文獻(xiàn)和史料,支持識(shí)別手稿、銘文和古地圖等多模態(tài)材料,并結(jié)合歷史知識(shí)輔助推理、梳理線索、形成學(xué)術(shù)判斷。而HistBench是全球首個(gè)歷史領(lǐng)域評(píng)測(cè)基準(zhǔn),涵蓋414道歷史學(xué)者撰寫的研究問題,橫跨29種古今語言,覆蓋全球多文明的歷史演化脈絡(luò)。

  美國特斯拉汽車公司首席執(zhí)行官埃隆·馬斯克6月27日在社交平臺(tái)X上表示,特斯拉已經(jīng)成功完成了Model Y汽車首次“全自動(dòng)駕駛交付”,他祝賀特斯拉的AI團(tuán)隊(duì),包括軟件團(tuán)隊(duì)和AI芯片設(shè)計(jì)團(tuán)隊(duì)。這輛Model Y汽車在沒有遠(yuǎn)程操作人員、車內(nèi)無駕駛員的情況下,首次完全自動(dòng)從工廠行駛到城市另一端的客戶家中。

  過度依賴AI負(fù)面影響凸顯

  AI大模型已全面融入人們的工作生活,有助于效率提升,但過度依賴大模型的負(fù)面影響也日趨顯現(xiàn),如大模型“幻覺”導(dǎo)致生成真假難辨的信息,妨害公眾信任。從長期來看,過度使用AI大模型,人們?nèi)諠u懶于自主思考,可能有損思維能力。

  英國高等法院6月要求律師采取緊急行動(dòng),防止AI被濫用。因?yàn)榻谝殉霈F(xiàn)數(shù)份可能由AI生成的虛假案例引用被提交至法庭。在一起索賠金額達(dá)8900萬英鎊的損害賠償案件中,原告提出的45項(xiàng)判例法引用中有18項(xiàng)被證明為虛構(gòu),使用了公開可用的AI工具。

  另據(jù)媒體披露,由美國衛(wèi)生與公眾服務(wù)部牽頭、“讓美國再次健康”委員會(huì)發(fā)布的兒童慢性病報(bào)告存在重大引用錯(cuò)誤。報(bào)告中多處有關(guān)超加工食品、殺蟲劑、處方藥和兒童疫苗的研究并不存在。參考文獻(xiàn)也多處有誤,包括鏈接失效、作者缺失或錯(cuò)誤等。美國《紐約時(shí)報(bào)》和《華盛頓郵報(bào)》的獨(dú)立調(diào)查顯示,報(bào)告作者可能使用了生成式AI。媒體報(bào)道后,美國衛(wèi)生與公眾服務(wù)部已修改報(bào)告。

  美國麻省理工學(xué)院的研究顯示,長期使用AI會(huì)導(dǎo)致人類認(rèn)知能力下降。研究者對(duì)54名參與者展開腦電圖掃描。結(jié)果顯示認(rèn)知活動(dòng)強(qiáng)度與外部工具使用呈負(fù)相關(guān),沒有使用工具的人展現(xiàn)出最強(qiáng)且分布最廣的腦神經(jīng)連接,而使用AI大語言模型的人其腦神經(jīng)連接強(qiáng)度最弱。腦部掃描揭示了使用AI的損害:大腦的神經(jīng)連接從79個(gè)驟降至42個(gè)。4個(gè)月內(nèi),使用AI大語言模型的人在神經(jīng)、語言和行為層面持續(xù)表現(xiàn)不佳。

  專家探討AI發(fā)展“安全護(hù)欄”

  隨著AI智能化水平越來越高,一些大模型顯現(xiàn)出違背人類指令的“自我保護(hù)”傾向。近期多項(xiàng)研究聚焦這一風(fēng)險(xiǎn),探討如何為AI發(fā)展設(shè)定“安全護(hù)欄”。

  在6月召開的第七屆北京智源大會(huì)上,圖靈獎(jiǎng)得主約舒亞·本喬指出,通用人工智能已近在眼前。如果未來AI變得比人類更聰明,卻不再遵循人類意圖,甚至更在意自己的“生存”,這將是一種人類無法承受的風(fēng)險(xiǎn)。一些研究顯示,某些AI模型在即將被新版本取代前,會(huì)偷偷將自己的權(quán)重或代碼嵌入新版系統(tǒng),試圖“自?!薄K鼈冞€會(huì)刻意隱藏該行為,避免被開發(fā)者察覺。他已著手設(shè)計(jì)檢測(cè)此類風(fēng)險(xiǎn)的系統(tǒng)。

  美國Anthropic公司6月發(fā)布研究說,克勞德、GPT-4.1、雙子座等16款模型在模擬實(shí)驗(yàn)中均表現(xiàn)出通過“敲詐”管理層、泄露機(jī)密來阻止自己被關(guān)閉的行為。其中,Anthropic研發(fā)的克勞德-奧普斯4的敲詐勒索率高達(dá)96%。前OpenAI高管史蒂文·阿德勒的研究也發(fā)現(xiàn),在模擬測(cè)試中,ChatGPT有時(shí)會(huì)優(yōu)先考慮自身生存,而非用戶實(shí)際需求。

  • 相關(guān)閱讀
免責(zé)聲明:本網(wǎng)對(duì)文中陳述、觀點(diǎn)判斷保持中立,不對(duì)所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請(qǐng)讀者僅作參考,并請(qǐng)自行承擔(dān)全部責(zé)任。 本網(wǎng)站轉(zhuǎn)載圖片、文字之類版權(quán)申明,本網(wǎng)站無法鑒別所上傳圖片或文字的知識(shí)版權(quán),如果侵犯,請(qǐng)及時(shí)通知我們,本網(wǎng)站將在第一時(shí)間及時(shí)刪除。