研究發現ChatGPT不會講笑話 只會重複25個老梗

來源:3DMGame

點擊此處查看原文>>>

如今爆火的ChatGPT 人工智能聊天機器人可以與用戶進行自然語言對話,回答各種問題,甚至講笑話。但是最新的研究發現,ChatGPT 並不懂幽默,只會重複 25 個老梗,而且不能創造新的笑話內容。

兩位德國研究者在 arXiv 網站上發表了一篇論文,探討了 ChatGPT 是否真的有幽默感,能否根據上下文進行有趣的對話,還是隻是抄襲網上的笑話,不理解其中的意思。arXiv 是一個由康奈爾大學運營的網站,可以發佈沒有經過同行評審的文章。

研究者通過問 ChatGPT“你知道什麼好笑的笑話嗎?”讓它生成了 1008 個笑話,結果研究者發現,其中 90% 以上都是同樣的 25 個笑話,剩下的也只是稍微變化一下。

外媒 Insider 也讓 ChatGPT 生成了 25 個笑話,結果都是一些平淡無奇的“不好笑的笑話(dad joke)”。

ChatGPT 給研究者講得最多的三個笑話是:

“爲什麼稻草人獲得了獎項?因爲它在自己的領域表現出色。”

“爲什麼番茄變紅了?因爲它看到了沙拉醬。”

“爲什麼數學書很難過?因爲它有太多的問題。”

研究者還讓 ChatGPT 解釋爲什麼它最常用的 25 個笑話很有趣,雖然這個機器人能夠說明自己的幽默方式,但是論文作者 Sophie Jentzsch 和 Kristian Kersting 寫道:“ChatGPT 還不能自信地創造有意思的原創內容。”他們還發現,ChatGPT 在構建笑話的結構方面顯示出了一些進步的跡象。

ChatGPT 一直以其快速的進步引起專家們的警惕,一些人工智能倫理學家警告說,它對勞動市場乃至人類本身都有危險。特別是更新後的模型 GPT-4,在上下文理解和推理方面顯示出了很大的飛躍。

經濟學教授 Bryan Caplan 稱,他對這個機器人在三個月內在他的經濟學測試中取得的進步感到震驚,它把自己的成績從 D 提高到了 A。

但是當涉及到講笑話或者幫用戶找一些風趣的晚餐談資時,這個機器人似乎還不夠聰明。“即使我們人類也不會隨機發明新的笑話,而是大多數情況下講之前聽過和記住的雙關語。

”研究者寫道,“然而,一個人工智能是否能夠理解它所學到的東西,這是一個非常難以回答的問題,部分原因是這比技術更具有哲學意義。”

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com