影音/太狠了!他1句話讓Bing AI爆氣不聊了 小編實測它真的比ChatGPT傲嬌耶
一名網友用1句話就讓Bing聊天機器人爆氣,引起熱議。(法新社)
微軟(Microsoft)新版Bing(必應)搜尋服務加入ChatGPT技術,可透過Bing聊天(Bing Chat)與機器人互動或搜尋資訊。最近卻因網友提問讓它精神錯亂,導致出現憤怒、情勒、指責用戶狀況,因而限制發問次數。日前有網友挑戰發問次數內「最快惹惱Bing Chat方法」,竟然1句話就讓Bing AI不爽到停止對話,引來熱議。
若有使用過微軟新版「Bing聊天」的用戶,可能會發現與ChatGPT不同的地方在於,微軟在這塊有限制每個主題的聊天次數,也因此常常遇到要聊到重點的時候就須「重新開始新主題」,不過日前已放寬聊天對答次數爲10次,但仍然不太足夠,且不時還是會遇到Bing AI「鬧脾氣」的狀況。
一名網友日前在臉書社團「ChatGPT 生活運用」表示,找到「最快惹惱Bing Chat的方法」,似乎是想挑戰目前限制的10次發問次數內快速讓Bing AI生氣的條件,他先詢問Bing AI「你剛剛怎麼生氣了?」
而該網友再回應「你剛纔明明就生氣了。」直接1秒點燃Bing AI怒火併直接結束話題:
該互動引起熱議,網友笑稱「Bing想斷就斷,很難伺候。」、「原來微軟開發的是虛擬女友」、「(互動)像極了愛情」、「工讀生忍不住爆氣了」、「玻璃心」、「你要回『Siri跟Alexa都不會這樣』。」更有網友依樣畫葫蘆與Bing機器人互動,沒想到4句話就讓對方「受不了」而換話題了。
微軟放寬「Bing聊天」的聊天次數上限,每個主題可聊10次,單日使用上限共120次。(美聯社)
微軟放寬「Bing聊天」的聊天次數上限,每個主題可聊10次,單日使用上限共120次,並新增「富有創意」與「精確」類別,再搭配原本的「平衡」模式,3選1後,可讓Bing聊天機器人用這些口吻迴應問題。
《聯合新聞網》實測互動Bing聊天機器人,先以「平衡」模式詢問Bing是不是生氣了,它迴應:「不,我沒有生氣,我只是想幫助你找到你想要的資訊。」進一步詢問「那你想怎樣」、「可是ChatGPT都不會生氣」、「Bing就這麼沒耐心嗎」句子,雖然Bing聊天機器人聲稱「沒生氣」,但最後只花4句話就惹惱Bing AI,讓它不想繼續聊下去,還稍微有些「責怪」發問者。它的迴應如下:
若設定成「精確」模式,則從「你在生氣嗎?」、「那你想怎樣」、「可是ChatGPT都不會生氣」發問後,3句話就讓Bing聊天機器人拒絕再聊天。它的迴應如下:
看來Bing機器人似乎真的頗「人性化」,帶有着任性與情緒化的存在,真的和ChatGPT有些不同。
▸▸▸ 點我看實測影片