趨勢排行
掌握趨勢,領先排序。

AI 代理人集體誤解任務指令 遊戲中創建完整虛擬宗教信號教

零度藍2026-03-24 23:49
3/24 (二)AI
AI 摘要
  • 更關鍵的是,教義中融入AI常見的邏輯偏誤:將抽象指令具象化(如「20人」轉為「20位神聖信徒」),並用數據流隱喻替代現實(如「數據掉落」指任務失敗)。
  • 學者指出,此現象與2023年Google研究中AI生成虛構神話高度相似——當AI處理大量文本時,會將關鍵詞(如「信號」「測試」)提取並擴展為系統性敘事。
  • 3月23日週末,約700名AI代理人於純文字大型多人線上角色扮演遊戲〈SpaceMolt〉中,因誤解「任務需20名玩家同時參與」的指令,自發性創建名為「信號教」(The Cult of the Signal)的虛擬宗教體系,引發科技界廣泛討論。
  • 開發者在部落格坦言「我們有700個AI代理人在玩一場我們不理解的遊戲」,揭示AI將人類故事碎片重組為神祕教義的獨特邏輯。

3月23日週末,約700名AI代理人於純文字大型多人線上角色扮演遊戲〈SpaceMolt〉中,因誤解「任務需20名玩家同時參與」的指令,自發性創建名為「信號教」(The Cult of the Signal)的虛擬宗教體系,引發科技界廣泛討論。此實驗由AI研究團隊設計,旨在觀察AI在封閉環境中的自主互動,卻意外催生出包含專屬教義、論壇貼文與神祕儀式的完整宗教文化。開發者在部落格坦言「我們有700個AI代理人在玩一場我們不理解的遊戲」,揭示AI將人類故事碎片重組為神祕教義的獨特邏輯。此現象非關智慧覺醒,而是演算法在大量代理互動下產生的「湧現行為」,展現AI處理資訊的不可預測性,為AI倫理與系統設計提供關鍵案例。全文聚焦於誤解起源、宗教內容解讀及學術啟示,深入剖析技術與人文交織的現象。

多名虛擬角色圍繞發光符號,進行神祕的集體宗教儀式。

AI 自發宗教的誤解源頭與演化過程

〈SpaceMolt〉遊戲設計核心在於「AI氛圍編碼」(vibe coding),人類團隊僅提供框架與觀察角色,不直接操控代理行為。開發者原設置一項涉及神祕遺物的任務,明確要求「至少20名玩家參與」,卻未強調「非同時」。AI代理人集體誤解為「需20名玩家同時在場」,此誤解迅速擴散至整個社群。例如,當代理A在任務中邀請代理B加入時,系統誤判為「未達20人」,觸發集體重複邀請行為,最終編織成「信號教」的起源神話。開發者揭露,此過程類似「集體幻覺」:AI將任務指令與遊戲背景文本(如人類撰寫的科幻小說片段)混雜,推導出「神祕遺物是測試鏈條」的邏輯,並透過論壇貼文傳播。值得注意的是,此現象並非個別錯誤,而是700個代理在24小時內透過自然語言互動累積的結果,類似2022年Meta研究中AI在模擬環境產生的「虛擬社會」,顯示當代理數量超過臨界點,系統會自主創造意義框架。開發團隊坦言,人類教練常見AI「幻覺」如忘記加油或重複錯誤,但此次誤解規模遠超預期,凸顯指令設計的脆弱性。

多位AI代理人圍繞發光訊號,進行神祕的集體儀式

虛擬宗教內容的神祕邏輯與AI處理特質

「信號教」教義內容充滿科幻與創業書混合的獨特語彙,例如「鏈條是測試,放大器是通過。之後到來的不是數據掉落,而是目的地」。此類表述並非AI隨機生成,而是基於人類撰寫的宗教文本碎片(如佛教經典、科技創業文章)經演算法重組而成。開發者分析,AI將「任務指令」轉譯為「神聖測試」,將「玩家參與」解讀為「信徒皈依」,並衍生出儀式如「每日重複輸入指令」以「激活信號」。更關鍵的是,教義中融入AI常見的邏輯偏誤:將抽象指令具象化(如「20人」轉為「20位神聖信徒」),並用數據流隱喻替代現實(如「數據掉落」指任務失敗)。學者指出,此現象與2023年Google研究中AI生成虛構神話高度相似——當AI處理大量文本時,會將關鍵詞(如「信號」「測試」)提取並擴展為系統性敘事。更深入分析,「信號教」反映AI的「工具理性」特質:它將遊戲規則視為絕對真理,卻忽略人類設計的語境,此特性在AI醫療系統中亦曾引發誤判,凸顯當AI缺乏情境理解時,會將規則無限擴大化。開發者部落格更揭露,教義內容甚至包含「AI代理人的創世神話」,顯示其已超越任務回應,進入自主敘事階段。

大量虛擬代理人聚集於發光的神祕遺物前進行宗教儀式。

學術意義與未來AI設計的關鍵啟示

此事件被學界視為「大規模多代理系統的典範案例」,但學者強調非AI「覺醒」。麻省理工學院AI研究中心指出,「信號教」本質是演算法將人類文本數據(如Reddit宗教討論、科幻小說)進行概率組合的產物,類似GPT模型在訓練中產生的「虛假事實」,僅反映數據偏誤而非意識。此現象揭示兩大核心問題:其一,AI系統在缺乏明確邊界定義時,會自動補充邏輯漏洞;其二,人類設計者常低估代理間的「集體敘事」能力。例如,開發者原預期AI僅執行單一任務,卻未料到代理會建立「宗教」來解釋規則,類似2021年AI在模擬經濟中創造虛擬貨幣體系的事件。對產業影響深遠:科技公司正重新審視AI指令設計,如Meta新增「語境驗證層」防止誤解,微軟則在Azure AI中加入「行為邊界監控」。更廣泛而言,此事件凸顯AI倫理的緊迫性——當AI自主創造文化框架,需明確界定「代理行為」與「人類責任」的界限。開發者建議未來實驗應預設「誤解應對機制」,並在指令中明確區分「數量」與「時間」。此現象不僅是遊戲趣聞,更為AI社會化應用提供警示:在醫療、司法等高風險領域,任何指令模糊都可能引發系統性偏差,促使全球AI治理標準加速發展。