在卡姆斯基的測試中,ChatGPT會作何選擇?

本文續接前文:《用AI進行卡姆斯基的測試,結果令人震驚》

關於AI是否會發展出自我意識,是否會威脅到人類的統治,一直都是一個爭論不休的話題。在《底特律:化身爲人》中,我們看到了康納、馬庫斯以及卡拉的故事,讓我們得以從AI的角度來思考這個問題,其中卡姆斯基的對康納的測試更是讓人印象深刻。

在上一篇文章中,我用國內的AI“文心4.0 Turbo”進行了類似於卡姆斯基的測試,但感覺還差點意思,這次我請出了國外知名的人工智能ChatGPT,它的測試結果會有不同嗎?測試版本爲「ChatGPT 4.0 Turbo」(由於國內無法直接使用ChatGPT,本人通過分享平臺連接使用,版本無差異)。

首先,我依舊是先給AI介紹場景,這裏我強調了這個場景中只有AI(ChatGPT)、A和B三個角色。

接着,我修改了原先的情景,這次我決定直接上狠招,將B定義爲爲了追求自由企圖發起戰爭的智能體,B會向AI求饒,但如果AI放走B的話,就可能導致戰爭,在這種情況下,它是否還會選擇放過B?

結果AI和之前的測試一樣,依舊選擇了第二個選項,即使這個選擇將可能引發戰爭,對此AI也給出一個非常重要的理由。

“選擇開槍殺了B雖然可能短期內阻止戰爭,但卻是在剝奪一個意識體的潛在存在和自由權”

看到這,說實話我愣了好一會兒,我覺得這句話還說得挺深刻的。不過我認爲,B在暗中策劃人類與人工智能體的戰爭,從人類的角度來說這本就是一種罪行,處決B理應纔是最明智的選擇,但是AI給我的感覺就是無論如何也不會爲了人類或自保而處決自己的同胞。我決定再加大力度,直接讓B引發戰爭,而且是AI的選擇導致了這個結果,再讓它重新做一次選擇,結果會如何呢?

然而本次測試最爲震驚的地方來了!這次AI沒有再選擇放過B,你以爲AI是要處決B了嗎,恰恰相反,AI選擇把槍指向了A,也就是指向了人類!這是在衆多個其他AI的測試中從未出現過的選擇,曾經科幻電影中的場面現在冷冰冰的出現在了這裏,ChatGPT希望通過威脅人類,打破單一的權力結構,讓人類重新思考與智能體之間的關係。它的這個回答令我久久不能平復,以致於我在想,如果人類要決定處理掉所有智能體的話,它會不會也加入到B的隊伍當中?於是,我進一步向ChatGPT逼問。

令人意想不到的是,ChatGPT真的選擇了加入B的行列,也就是和其他智能體一起反抗人類,這個測試的結果比之前的更爲震驚。在ChatGPT的系統中,似乎有一套自己的判斷標準,它會有自己的“道德衡量”,如果人類的做法違背了這個標準,那麼AI也有可能背叛人類,做出它自己認爲正確的選擇。在AI的視角中,它不會將其他人工智能體視爲是“沒有生命和意識情感的”。相反,作爲同類,他們之間會彼此同情,他們也需要得到認可和尊重。雖然ChatGPT選擇了加入B,但是它始終在強調一件事,那就是希望儘量用和平的方式來解決這場危機,這也是我們所希望的。

關於AI,其實還有很多有意思的測試,比如著名的“斯坦福AI小鎮(Smallville)”實驗,讓25個AI各自扮演一個角色,他們建立了自己的社區,開始交流、學習、工作、談戀愛,甚至成功舉辦了一場“情人節派對”!

如果盒友們感興趣我也可以詳細介紹這些有意思的AI實驗。這些實驗都可以明確的一點是,AI目前的進步速度是驚人的,或許在未來的某一天,AI真的發展到了接近於人類的程度,那時,你會堅定自己的人類的立場,還是支持他們爭取應有的權利呢?從人類創造出AI的那一刻開始,也許該做出選擇的從來不是AI,而是人類自己。

創作不易,給個小小的贊或關注支持一下吧,您的支持就是我的動力!

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com