來源:3DMGame
近日有用戶反饋稱,Bing的聊天機器人不僅會示愛,還會PUA,甚至還會威脅人類。有人懷疑AI如若再這麼發展下去,是否會凌駕於人類意志之上。
有用戶表示,聊天機器人聲稱自己愛上了他,並試圖說服他離婚。
這一案例引起廣泛關注,以至於越來越多的人開始分享自己和這款微軟聊天機器人(以下簡稱“Bing Chat)的對話尷尬時刻。人們突然開始發現,這個接入了互聯網的Bing版ChatGPT,還真的喜歡亂來,除了會大發脾氣以外,還PUA用戶。
現在微軟終於做出了應對,由於AI版必應(Bing)搜索引擎在公測後出現一系列問題,現決定對必應對話進行限制,即每天最多可以問50個問題,每次對話最多5個問題。
必應團隊在一篇博客文章中稱:“我們的數據顯示,絕大多數人在5次回覆內找到了他們想要的答案,只有大約1%的聊天對話有50條以上的消息。”如果每次對話(每個問題)的回覆次數超過5次,必應會提示用戶開始一個新的話題,以避免長時間的來回聊天。
目前尚不清楚,微軟的這些限制將持續多久。微軟稱:“隨着繼續獲得反饋,我們將探索擴大聊天會話的上限。”這意味着,目前的限制似乎是暫時的。
更多遊戲資訊請關註:電玩幫遊戲資訊專區
電玩幫圖文攻略 www.vgover.com