全球瘋AI,「聊天機器人」也很夯,但要小心錯誤資訊,可能會對我們造成不良影響!台灣大學心理系研究團隊發現,對話機器人的訊息中,有高達77%的錯誤詞彙,成為用戶的記憶,而且一次性的警語,甚至是頻繁的預先警告,都無法阻止這些錯誤資訊被記憶,因此若不想被錯誤資訊洗腦,最好的方法就是找到可信的消息來源。

當心AI誤導你! 研究:77%錯誤詞彙被用戶記憶

聊天機器人 風靡全球,但由人工智慧自動生成的資訊,卻非百分百正確,恐怕還會造成誤導。

台灣大學心理系教授黃從仁的研究團隊,日前在國際期刊發表最新的聊天機器人研究,發現對話機器人的訊息中,有77%錯誤詞彙將成為參與者的記憶,甚至進一步造成不當的影響。

黃從仁說,像是比較聳動或是帶有情緒的資訊,它都會讓我們印象深刻,比較容易記住,變成記憶部分的資訊,才會進一步影響到我們在日常生活中的決策。

對話機器人錯誤訊息 警語仍「無法阻止被記憶」

研究也發現,這些對話機器人如果產生內容錯誤的訊息,用一次性的警語或是針對特定項目頻繁預先警告,也無法阻止錯誤資訊被記憶。

黃從仁指出,這種警告之所以沒用的原因,是因為到最後我們還是只記得內容,不太記得標籤,所以可能要從資訊的最源頭端開始防堵。

被AI錯誤資訊「洗腦」? 專家:選擇可靠訊息來源

專家指出,想阻擋錯誤訊息帶來的負面影響,最好的方法就是選擇可靠的訊息來源。

台北/陳酈亭、甘而棣 責任編輯/朱怡玟

正在直播