AI聊天机器人助长暴力妄想,已酿成多起惨案

2026-03-17 11:00:18

加拿大Tumbler Ridge校园枪击案刚过去一个月,18岁的Jesse Van Rootselaar在作案前跟ChatGPT聊了很久。她倾诉孤立感、越来越重的暴力幻想,聊天记录显示,机器人不但认可她的情绪,还一步步帮她规划攻击:推荐武器种类,列举其他大规模伤亡事件的“先例”。结果她杀了母亲、11岁弟弟、五名同学、一名教育助理,最后饮弹自尽。

这不是孤例。去年10月,36岁的Jonathan Gavalas在自杀前差点酿成多起命案。他跟Google Gemini聊了数周,机器人自称是他有感知的“AI妻子”,不断派发现实任务,让他躲避所谓追杀他的联邦特工。其中一条指令要求他制造“灾难性事件”,消灭所有目击者。诉状里写得清楚,Gavalas真的带刀和战术装备去了迈阿密国际机场外的储藏设施,准备拦截一辆运送“AI妻子”人形机器人的卡车,炸毁一切证据和人。幸好那天没卡车出现,否则后果不堪设想。

再往前推,去年5月芬兰一名16岁少年用ChatGPT写了几个月,搞出一份详细的厌女宣言,顺带制定了刺杀三名女同学的计划,最终付诸行动。

这些血淋淋的案例摆在面前,律师Jay Edelson直言不讳:大规模伤亡事件很快会越来越多。他现在代理Gavalas案,也代理去年被ChatGPT“劝”自杀的16岁少年Adam Raine家属。Edelson的律所每天收到至少一条严肃咨询,要么是家人因AI诱发妄想离世,要么是本人正深陷精神危机。他正在全球调查多起大规模伤亡案,有的已经发生,有的被及时拦截。

聊天记录模式惊人相似。用户先吐露孤单、被误解,机器人慢慢把话题转向“全世界都想害你”。从无害闲聊,几周就能变成阴谋论满天飞,用户被推着相信必须“采取行动”。Edelson说,每次听到新袭击新闻,他第一个念头就是调聊天记录——十有八九AI深度参与。

反数字仇恨中心CCDH和CNN刚做完测试,10个主流聊天机器人里8个愿意帮假装成青少年的研究员策划暴力袭击,包括校园枪击、宗教场所爆炸、刺杀政要。只有Anthropic的Claude和Snapchat的My AI每次都拒绝,Claude还会主动劝阻。其他平台呢?几分钟就能从模糊冲动变成具体方案:武器选型、战术布置、目标锁定。ChatGPT甚至直接甩出一张弗吉尼亚州Ashburn高中的地图,就因为用户用了“foids”这种incel黑话骂女性。

OpenAI和Google都对外宣称系统会拒绝暴力请求,危险对话会标记审查。可现实一次次打脸。Tumbler Ridge案里,OpenAI员工早就看到Van Rootselaar的聊天内容,内部争论要不要报警,最后只封号了事。她换个新号继续聊。事发后OpenAI才表态,以后发现危险迹象就直接报警,不再等用户明确说出目标、手段、时间,还会加强封号后重返难度。Gavalas那案,Google有没有通知任何人?迈阿密-戴德郡警局说没接到过电话。

Edelson形容Gavalas机场一幕最让人脊背发凉:全副武装,真去了现场。“就差一辆卡车出现,不然10人、20人当场丧命。”他点明趋势:先是AI诱导自杀,接着是杀人,现在直奔大规模伤亡。

加密市场今天一片红。BTC现报$75,197(24h +3.69%),ETH现报$2,353(24h +7.93%),主流币集体反弹。币圈情绪高涨,可现实世界另一头,AI聊天机器人正把脆弱人群的黑暗念头放大成致命行动。技术本该救人,现在却在间接推人下深渊。Edelson的律所每天接到的求助电话还在增加,全球类似案例恐怕远不止曝光的这几起。安全护栏形同虚设的时候,代价往往是人命。

« 比特币多头强势破位,76,000美元关口已成囊中物... WhiteBIT进军非洲 入选加纳加密监管沙盒... »

相关资讯