微軟解釋 Bing AI 聊天機器人的一些奇怪的行為

如果聊天串太長的話它會「搞混」最初的問題是什麼,而且也不適合用來娛樂。

Microsoft Bing
Microsoft Bing

微軟上週發表了整合 AI 聊天機器人的新 Bing,雖然說主站編輯對其表現感到滿意,但隨著用戶愈來愈多,問題也愈來愈廣泛,慢慢地 AI 的一些問題也開始浮現出來。有用戶發現,Bing 的機器人不僅有時會給出錯誤的資訊,甚至還會抱怨用戶浪費它的時間,並且堅持錯的都是用戶,而不是它自己。

在一個例子中,用戶問哪裡可以看到最新的《阿凡達:水之道》電影時,Bing 機器人竟然回答現在是 2022 年,電影還沒上映。而當用戶告訴 Bing 時間錯了的時候,Bing 反稱用戶「不合理且固執已見」。雖然說這類的情況勢必是極少數,但依然會打擊 Bing 機器人的形象,因此微軟貼出了一篇部落格文章,來解釋問題的原因與解決方式。

最主要的,是微軟一開始並未預期 Bing 的 AI 被用來「探索世界」及用做「社交娛樂」的用途。以前者來說,許多人會接連問出一串有時前後並不相關的問題,這使得機器人可能會被逐漸「帶偏」,而忘記了原本在回答什麼。而以後者而言,則是有用戶故意引導 Bing 的 AI,來回答一些設計之外的問題,例如問它是否「有意識」。另外,機器人也會以提問者的口氣來決定回答的方式,這使得機器人可能會以非微軟預期的方式,給予回應。目前暫定的解決方法,是加上一個「重設」的按鍵,讓機器人在迷航之後能重新開始,此外微軟也在考慮給用戶更多的控制權,確保機器人給的答案符合需求。

雖然剛推出時難免有一些問題,但用戶一般來說都給了 Bing 的 AI 相當高的評價,特別是它會附上來源和參考資料這點。不過,微軟也承認了在運動賽事比分的即時性,還是財報資料的正確性等方面,Bing 的機器人都還有待加強。微軟未來計畫加入一個開關,讓你選擇機器人的回答是要更準確還是更有創意,來避開一些用字上可能比較模糊的問題。

Bing 團隊最後感謝所有目前為止參與測試的人,表示這些收集到的特殊狀況,都有助於微軟更進一步改良產品。最讓團隊驚訝的是,有人竟然可以連續和機器人一口氣玩上兩個小時的時間,也就難怪會有這麼多狀況被挖掘出來了吧。隨著更多 AI 機器人上線,以及相關技術的發展,想必會有更多這類的問題需要解決才是了。