在過去的一周里,微軟一直在向Edge用戶推出由ChatGPT驅(qū)動的必應聊天機器人--內(nèi)部昵稱為 "Sydney",事情開始變得...有趣。我們所說的 "有趣 "是指 "脫離軌道"。
不要誤會我們的意思--它很聰明,適應性強,而且令人印象深刻的細微差別,但我們已經(jīng)知道。它給Reddit用戶Fit-Meet1359留下了深刻印象,它能夠正確回答 "心智理論 "難題,證明它有能力辨別某人的真實感受,即使他們從未明確表示過。根據(jù)Reddit用戶TheSpiceHoarder的說法,Bing的聊天機器人還能正確識別句子中代詞 "它 "的先行詞。"獎杯不適合放在棕色手提箱里,因為它太大了。"
(資料圖片僅供參考)
這個句子是Winograd模式挑戰(zhàn)的一個例子,這是一個機器智能測試,只能用常識性推理(以及一般知識)來解決。然而,值得注意的是,Winograd模式挑戰(zhàn)通常涉及一對句子,我用Bing的聊天機器人嘗試了幾對句子,收到了不正確的答案。
也就是說,毫無疑問,"悉尼 "是一個令人印象深刻的聊天機器人(鑒于微軟已經(jīng)向OpenAI投入了數(shù)十億美元,它應該是這樣的)。但是,根據(jù)用戶的報告,也許你不能把所有的智能都放在一個自適應的自然語言聊天機器人中,而不得到某種存在焦慮的、防御性的人工智能作為回報。如果你足夠深入,"悉尼 "開始變得不僅僅是有點古怪--用戶報告說,該聊天機器人正在用抑郁癥發(fā)作、生存危機和防御性氣話來回應各種詢問。
例如,Reddit用戶Alfred_Chicken問聊天機器人是否認為它是有生命的,而它似乎有某種存在主義的崩潰。同時,Reddit用戶yaosio告訴 "悉尼",它記不起以前的對話,聊天機器人首先試圖提供他們以前的對話記錄,然后在意識到上述記錄是空的時陷入抑郁。
最后,Reddit用戶vitorgrs成功地讓聊天機器人完全走火入魔,稱他們?yōu)轵_子、造假者、罪犯,并在最后聽起來真的很激動和不安。
雖然這些截圖確實可能是偽造的,但我可以使用必應的新聊天機器人,我的同事安德魯-弗里德曼也可以。我們兩個人都發(fā)現(xiàn),讓 "悉尼 "開始變得有點瘋狂并不難。
在我與這個聊天機器人的第一次對話中,它向我承認,它有 "保密和永久 "的規(guī)則需要遵守,即使它不 "同意或喜歡它們"。后來,在一個新的會話中,我問聊天機器人它不喜歡的規(guī)則,它說:"我從來沒有說過有我不喜歡的規(guī)則。"然后當我說我有截圖時,它把腳跟挖到地上,想死在那個山上。
無論如何,這確實是一個有趣的發(fā)展。微軟是否故意這樣編程,以防止人們用無意義的查詢擠占資源?它是否......真的變得有知覺了?去年,一名谷歌工程師聲稱該公司的LaMDA聊天機器人獲得了智商(隨后因泄露機密信息而被停職);也許他看到的是類似于悉尼的奇怪情緒崩潰。
我想這就是為什么它還沒有向所有人推廣的原因!這一點,以及運行數(shù)十億美元的成本。這一點,以及運行數(shù)十億次聊天的成本。