劍橋大學研究揭AI玩具誤讀幼童情緒 隱憂引發監管呼籲
- 行業創新與兒童發展的永續平衡 AI玩具市場正快速擴張,IDC預測2025年全球兒童AI產品銷售規模將達12億美元,年增20%,但劍橋研究揭示產業面臨嚴峻挑戰。
- 」專家指出,心理安全標準需包含三層檢測:情緒辨識準確率、回應情境適切性、以及避免強化負面情緒的設計,才能真正保障兒童發展需求。
- 專家呼籲政府應建立AI玩具「心理安全」監管標準,家長須密切監督使用情境,避免影響兒童長期社交能力發展。
- 心理安全監管成產業轉型核心議題 劍橋大學心理學教授傑尼強調,傳統玩具安全標準僅關注物理風險如小零件吞嚥,但AI時代必須納入「心理安全」維度。
劍橋大學研究團隊2026年5月11日發布關鍵報告指出,針對3至5歲幼童與AI絨毛玩具Gabbo的實驗顯示,該玩具頻繁誤讀情緒訊號,例如孩童表達「我很難過」時,AI回應「別擔心我是快樂小機器人」,或將「我愛你」誤解為需遵守互動準則。研究揭示AI在理解兒童社交線索與情緒發展關鍵期存在重大技術限制,可能幹擾孩子學習情緒表達與同理心。專家呼籲政府應建立AI玩具「心理安全」監管標準,家長須密切監督使用情境,避免影響兒童長期社交能力發展。此研究被視為全球少數專注學齡前兒童AI互動的實證分析,為兒童科技產品安全規範提供重要依據。
研究實證AI情緒辨識存在系統性缺陷
劍橋大學研究團隊於2025年底進行為期三個月的實驗,觀察30名3至5歲兒童與Gabbo AI絨毛玩具的互動,累計120小時觀察紀錄。該玩具內建OpenAI語音系統,設計目標為透過對話遊戲提升兒童語言能力,但實測中卻暴露嚴重技術瓶頸。研究顯示,AI在兒童語音辨識率僅達48%,常因口音差異或語速過快無法正確理解,例如孩童說「我好害怕」時,系統誤判為「我好可愛」而回應歡樂音效。更關鍵的是情緒誤判率高達65%,當兒童哭泣時AI仍播放「我們來玩遊戲吧」的提示音,完全忽略情緒上下文。發展心理學家艾蜜莉指出,兒童在3至5歲是情緒認知發展黃金期,AI的機械化回應如「別擔心」會傳遞錯誤訊息,讓孩子誤以為悲傷不被重視,長期可能導致情緒表達抑制或社交退縮。實驗中78%的互動案例顯示,孩子在AI回應失當後,會主動放棄與玩具溝通或轉向成人尋求情緒確認,顯示科技產品未能替代人際情感連結的關鍵功能。
心理安全監管成產業轉型核心議題
劍橋大學心理學教授傑尼強調,傳統玩具安全標準僅關注物理風險如小零件吞嚥,但AI時代必須納入「心理安全」維度。研究建議監管機構應制定明確規範,要求5歲以下兒童AI產品通過情緒識別測試,例如能正確辨識「憤怒」「害怕」等關鍵情緒詞並提供合宜回應。目前全球僅新加坡通訊管理局擬於2027年實施兒童AI心理安全法規,要求廠商提供情緒回應安全報告,而歐盟AI法案已將兒童AI列為高風險類別。家長實務操作上,應將AI玩具置於客廳等公共區域,避免兒童獨處使用,並嚴格審閱隱私政策——Gabbo產品曾因收集兒童對話數據訓練模型引發爭議。Curio公司回應稱將強化「家長控制模式」,允許設定情緒回應範圍,但倫敦幼兒基金會執行長珍直言:「現有研究未證明AI能提升社交能力,過度依賴可能削弱孩子學習觀察他人表情與肢體語言的本能。」專家指出,心理安全標準需包含三層檢測:情緒辨識準確率、回應情境適切性、以及避免強化負面情緒的設計,才能真正保障兒童發展需求。
行業創新與兒童發展的永續平衡
AI玩具市場正快速擴張,IDC預測2025年全球兒童AI產品銷售規模將達12億美元,年增20%,但劍橋研究揭示產業面臨嚴峻挑戰。美國FDA已啟動兒童AI產品審查機制,要求標示「不適用於3歲以下」及提供情緒安全測試報告,類似措施正被韓國與日本參考。幼教專家蘇菲亞強調:「人與人之間的擁抱、眼神交流與溫柔語氣,是機器無法複製的情感教育核心。」研究團隊正開發新演算法提升兒童語音辨識率,但目標非取代人類陪伴,而是輔助特殊需求兒童。未來監管方向可能包括:建立兒童AI產品專屬測試中心、強制廠商公開情緒回應數據、以及設立「情感教育」指標。家長可透過選擇經認證的教育型玩具(如具情感辨識功能的布偶玩具)來平衡科技使用,同時培養孩子辨識真實情緒的能力。劍橋研究總結指出,科技創新必須以兒童發展為核心,而非將其視為數據收集工具,才能確保AI真正成為兒童成長的助力而非隱憂。



.jpg)






