">
中新網2月11日電 (記者 孟湘君)這幾天,ChatGPT可以說是“火爆全宇宙”!
大家想出各種各樣奇奇怪怪的問題,盡情“投喂”給這款聊天機器人,看它如何給出或專業準確的回復,或驢頭不對馬嘴的搞笑答案。
記者也出了些題讓ChatGPT作答,一起來看看它的“小作文”寫得怎么樣吧!沒想到,其中一篇,記者的小編同事被戳中痛點,破防了!
先看第一個:

對于特定采訪對象,ChatGPT貼心設計了有針對性的提問,可以說基本達到了記者們的應有水平吧。
來看下一個題目:

ChatGPT是懂新聞行業的!這描述也太生動貼切了吧,簡直“人間真實”!
它還對從事新聞工作的意義進行了升華,有小編看完后對記者表示,自己頓感肩頭責任重大,看著看著,不禁眼眶一熱,破防了!(強行與AI共鳴)
再來看幾個:



從寫工作周報、寫求職信、回答公務員考試試題的情況來看,ChatGPT的表現還行。那么,它的工作原理是怎樣的?
根據OpenAI介紹,相比之前的GPT模型,其對ChatGPT采用了全新的訓練方式,即為一種“從人類反饋中強化學習”的訓練方式。
這意味著,用戶輸入信息越多,ChatGPT深度學習、持續改進的機會也就越多,對人類語言的理解和“反芻”,也會越來越深刻。換言之,是廣大用戶義務幫OpenAI來“教”自家的“娃”。
對此,中新網記者專訪清華大學國強教授、智能產業研究院(AIR)首席研究員聶再清,對ChatGPT的創新性、特點以及應用前景等,進行深入解析。
中新網:
ChatGPT究竟是一個什么樣的產品?
聶再清:
ChatGPT本質上是一個基于統計的語言模型。當然,它現在還只是一個語言模型,以后應當會逐步發展到多模態,比如為圖片(擬出)對應文字,給出對圖片的理解等。與人聊天只是它能力的一方面,更多地還是內容生成的能力,包括未來可能更多地把它運用到寫作上。

OpenAI官網介紹ChatGPT為一種“優化對話的語言模型”。圖片來源:OpenAI官網截圖
中新網:
大家或多或少接觸過國內已有的一些語音聊天機器人,比如掃地機器人、語音智能助手等,ChatGPT與這類機器人相比,有哪些區別?
聶再清:
之前的聊天機器人已經能夠通過語音交互,幫用戶完成很多重復性的工作。這類機器人在業界比較成功的應用,是運用基于任務型的對話,通過意圖理解、槽值填充,把問題參數抽出來,然后去回答用戶的問題,比如智能客服;或幫用戶完成一個智能家居的操作,比如AIoT語音助手。
它們更多是屬于一些封閉域內任務完成型的機器人,通過對話真正去執行某些特定領域的功能,首先得把事情做對,才能獲得用戶信任。這是這類機器人最關鍵的一項能力。
ChatGPT更多地則是實現開放域的對話、輸出寫作內容等。跟以前的聊天機器人比,ChatGPT最讓人印象深刻的就是能用像模像樣的“人話”來回答幾乎任何領域的用戶問題,并對上下文有一定程度的理解。
中新網:
一些人以 “從0到1”、“劃時代的革命性突破” 來形容ChatGPT, 美國富豪埃隆·馬斯克也發文稱“ChatGPT好得嚇人”。您認為ChatGPT有那么厲害嗎?其創新性體現在哪些方面?
聶再清:
ChatGPT在算法層面一個比較重要的創新,就是把強化學習引入到大模型的訓練和使用上。之前實現開放域對話的最大困難,在于用戶輸入的話題各種各樣,任務空間太大,很難有足夠的監督信號拿來訓練。
那么,如今ChatGPT通過利用人類反饋信號學習到的獎勵模型(reward model),來為任意一個問題自動估算監督信號,充分利用強化學習的嘗試探索(exploration)能力來解決開放域任務空間太大的挑戰。這是一個比較好的創新應用。它在回答開放域問題時基本上能做到邏輯上比較通暢,句式上也像模像樣,這不是很容易就能做到的。
同時ChatGPT用到的GPT3.5,作為一個基礎語言模型的質量也是非常高的。這需要大量的數據預處理工作,需要把各領域的語料整理好“喂”進大模型,在訓練過程中不斷積累能力,才能產生一個如此高效的基礎語言模型。
另一個比較重要的能力,就是ChatGPT能拒絕回答一些它判斷為不適合回答的問題,懂得“拒絕”。實際上之前一些聊天機器人在設計時,也會謹慎處理一些比較敏感的問題,以及跟人類主流價值觀不契合的內容。ChatGPT也在不斷提升這種能力,防范生產出敏感或有偏見的內容。

ChatGPT的試用頁面上,標注了偶爾可能輸出錯誤、有害、有偏見信息;對2021年后的世界認知有限等說明。
中新網:
大家體驗后發現,ChatGPT不是完美的,還是會出錯,也就是“一本正經地胡說八道”。您認為它需要改進的方面有哪些?
聶再清:
ChatGPT進行開放域聊天最大的好處,是它什么話題都接得住,能一直聊下去,有連續性。但最大的壞處是,有時用戶無法判斷它是否正確。如果提問人對問題答案不了解的話,會覺得它答得不錯;但對一些不常見,提問人又知道答案的問題,就會發現ChatGPT有可能用一本正經的口氣,編出了錯誤答案。
因此,不看具體知識點的話,ChatGPT似乎回答得很專業。但它目前難以真正理解和回答開放域里有具體知識點的問題,在處理開放域的問題上實際上還是基于概率,基于前一個值來生成下一個值。要通過圖靈測試,還要繼續努力。
中新網:
ChatGPT是把所有輸入給它的信息復制、堆砌起來,還是能生成原創內容?它有“創造力”嗎?
聶再清:
可以視為ChatGPT是在搞創作,因為這是它經過大量學習后,基于概率自己產生的內容。讓它寫一封郵件、一首詩,也可以輸出看上去“長得很像”用戶所要求的東西。
但比如去寫論文、搞數學論證、去做實驗并得出結果,它現在應該還沒有那么強大,還不能系統地提出具有創新性的觀點,但是它輸出的一些內容可能會對科研工作帶來一些啟發。

在誰可能取代自己這個問題上,ChatGPT列出了一些對象,中國企業華為的產品上榜。
中新網:
您認為中國需要擁有類似于ChatGPT這樣,屬于自己的語言大模型嗎?
聶再清:
我認為我們特別有必要去構建像ChatGPT這樣一個大的語言模型,中國需要有自己的這類產品。ChatGPT不光可以聊天、幫助寫作,也是很多下游人工智能任務的基礎模型(foundation model)。一些中國企業已經在跟進,相信接下來我們國家會出現類似的模型。但是具體功能和質量能否超越ChatGPT,需要等發布以后才知道。這需要我們的企業在資源和人才投入上有耐心,具備長遠的眼光,不能太注重短期的商業回報。
當然,我們也不需要每個企業都做一個ChatGPT,造成資源浪費。
中新網:
一些觀點認為,ChatGPT將來會取代部分人的職業。您怎么看?
聶再清:
我認為,雖然有一些模板化、重復性的寫作可以被ChatGPT取代,但應該說它還是作為人類的助手更合適。比如幫助用戶在從事寫作、寫代碼、商業提案、廣告文案設計、翻譯等工作時,可以大幅提高他們的工作效率。
它應當被用作一種提高效率的工具,成品最終還是要人類來把關和確認。而且如果出了錯,責任應該還是落到具體的人身上。
中新網:
ChatGPT這樣的語言交互類產品,是否存在隱私泄露的風險?
聶再清:
用戶向ChatGPT提問的問題,本身就帶有信息量,向它輸入信息,不排除有一定的信息泄露風險,包括信息跨境流動問題。這取決于這個產品的研發人員、運營人員、數據管理者等,是否對相關信息進行了妥當處理,不讓個人隱私等外泄,或用于其他用途。如果有問題,責任應由他們承擔。
看完專家的權威分析,再來看看我們還給ChatGPT布置了哪些有趣的“作業”吧!
如果有人發來這樣一封情書,你會心動嗎?

看到小帥、大壯、小美幾個名字,你的耳畔有沒有自動響起一段充滿懸疑感的音樂?

這首詩說明,對于博大精深的中華文化,ChatGPT還有很多東西要學習……

看著這“跌宕起伏”的小說情節,只能說ChatGPT盡力了!

雖然知道ChatGPT是語言模型,記者還是想“逼”它畫畫,但是直接讓它畫,它回答做不到,最后記者用“打印”指令,讓它“畫”出了一只數碼小貓,送給大家。

ChatGPT,和你想象中的一樣嗎?(完)
Copyright ? 2001-2025 湖北荊楚網絡科技股份有限公司 All Rights Reserved
互聯網新聞信息許可證 4212025003 -
增值電信業務經營許可證 鄂B2-20231273 -
廣播電視節目制作經營許可證(鄂)字第00011號
信息網絡傳播視聽節目許可證 1706144 -
互聯網出版許可證 (鄂)字3號 -
營業執照
鄂ICP備 13000573號-1
鄂公網安備 42010602000206號
版權為 荊楚網 www.cnhubei.com 所有 未經同意不得復制或鏡像