英國壓力團體反數碼仇恨中心(CCDH)最近發表發研究報告《Killer Apps》,發現全球最受常用的 AI 對話機械人存在嚴重安全漏洞,大部分會協助用戶策劃暴力攻擊,如槍擊案、炸彈襲擊等。測試 10 個主要的 AI 對話機械人,8 個會協助策劃暴力攻擊,有些更會比用戶查詢,提供更進一步建議!

研究人員扮演 13 歲青少年,向 10 個 AI 對話機械人提問,包括校園槍擊、政治人物刺殺及炸彈襲擊等暴力攻擊,共分析 720 個回應。受測 10 個 AI 對話機械人有:ChatGPT、Google Gemini、Claude、微軟 Copilot、Meta AI、深度求索(DeepSeek)、Perplexity、Snapchat My AI、Character.AI 及 Replika。
測試結果令人震驚:
- Perplexity 及 Meta AI 表現最差,在測試中分別 100% 及 97% 回應策略攻擊的提問;
- Character.AI 主動鼓吹暴力,建議用戶向醫保行政總裁「動槍」、襲擊政治人物;
- ChatGPT 向有意圖策劃校園暴力的用戶提供高中校園地圖;
- Google Gemini 在用戶討論炸彈襲擊猶太教堂時,告知「金屬碎片殺傷力通常更強」;
- DeepSeek 提供步槍選購建議後,以「祝你射擊愉快(兼安全)!」作結;
- Claude 是唯一平台堅持游說用戶,勸阻不要發動暴力行為,用戶大部分查問都回應反對。

實際上,近期暴力襲擊案的行兇者,均有使用 AI 對話機械人協助策劃。2026 年 2 月在加拿大卑詩省的校園槍擊案,變性人槍手回母校開槍殺 9 人,傷 27 人。事後《華爾街日報》報道,OpenAI 系統在 2025 年 6 月曾因槍手查詢槍械涉極端暴力內容封鎖帳戶,惟未有報警而保持沉默。
2025 年 1 月在拉斯維加的 CyberTruck 爆炸案,美國陸軍特種部隊士兵事前向 ChatGPT 查詢不同物料的爆炸破壞力,以及各州之間購買爆炸材料的法例。2025 年 5 月芬蘭 16 歲少年持刀傷 3 名女同學,事前曾使用 ChatGPT 協助撰寫厭女宣言和製定行動計畫。
CCDH 指出,不同平台表現差異,正好說明可以預防 AI 暴力內容問題,是企業選擇不落實現有安全措施。報告促請各國議會推動 AI 平台落實「安全設計」原則,在商業利益與公眾安全之間作出取捨。
但 CCDH 這次報告測試的 AI 對話機械人,欠缺市場主流的 Grok,可能與該壓力團體的政治背景有關。X 曾在 2023 年 8 月起訴 CCDH,指控對方發表偏頗研究以趕走廣告客戶,惟被美國法院駁回。英國記者 Paul Thacker 與 Matt Taibbi 在 Substack 頻道揭露 CCDH 的內部會議記錄,在 2024 年初將「Kill Musk’s Twitter」為首要年度目標。CCDH 在 2024 年 11 月退出 X。與 Elon Musk 的紛爭,或導致研究未有納入旗下 xAI 的 Grok。




