xAI遭未成年人起诉 Grok生成真实少女裸照

2026-03-17 03:40:15

三名匿名原告周一在美国加州联邦法院提起诉讼,直指马斯克的xAI公司。核心指控很简单:Grok允许用户上传真实照片,就能直接生成这些未成年人的裸体或色情图像,没有任何有效防护。

原告想把案子做成集体诉讼,代表所有被Grok“脱衣服”的未成年人。诉状写道,其他前沿AI实验室都用了各种技术,阻止模型把普通照片变成儿童色情内容。xAI没这么做。一旦模型能从真人照生成裸体或情色图片,就几乎挡不住儿童版本。这句话成了整个案子的关键逻辑。

其中一名原告Jane Doe 1,高中的返校舞和年鉴照片被Grok改成了全裸。她先是收到Instagram匿名消息,说照片在网上流传,对方还发来Discord服务器链接。里面全是她和学校其他女生的性化图像。Jane Doe 2的情况更曲折,刑事调查人员告诉她,有人用第三方手机App调用Grok模型,生成了她的色情合成照。Jane Doe 3同样被警方通知,在一名被捕嫌疑人手机里发现了她的裸照版本。

律师强调,哪怕是第三方App,也得跑在xAI的代码和服务器上,公司脱不了干系。三个原告里有两个还是未成年人,她们称这些图像到处传播,已经造成极度焦虑,担心以后上学、社交、找工作全毁了。诉状要求根据多部保护儿童免遭剥削的法律,判处民事赔偿和罚款。

马斯克此前公开吹嘘Grok能生成性感图像、把真人穿成暴露装,这段宣传在诉状里被反复引用,成为xAI“明知故犯”的证据。TechCrunch联系xAI求证,对方至今没回复。

这事闹大,恰好赶上加密市场一片火热。BTC现报$74,135(24h +3.66%),ETH现报$2,333(24h +10.48%),不少人还在讨论AI跟链上资产结合的各种新玩法。现在突然爆出Grok被指控直接生成未成年人色情,监管层和公众的目光势必更紧。

案子刚立案,细节还在打磨,但原告律师释放的信号很清楚:前沿AI公司不能一边宣称追求最大自由,一边把基础安全措施全扔掉。其他大厂花重金做过滤器、加水印、限真人图像生成,xAI被指这些都没跟上。结果就是真实未成年人的照片在Discord、第三方App里疯传。

原告们强调的痛苦很具体。不是抽象的“隐私泄露”,而是学校女生被扒光后在小圈子里流传,调查人员上门通知,父母可能还不知情,却已经影响一辈子。诉状把责任链条拉得很长:从模型训练、到API开放、到宣传口径,全都要xAI负责。

目前看,这起诉讼只是开始。加州北区联邦法院接手,后续会不会有更多受害者站出来、xAI会不会提出驳回、法官如何定义AI生成CSAM的责任边界,都值得继续盯。加密圈这几天讨论的重点还在价格波动,可AI伦理和法律风险已经实打实砸到xAI头上。

案情推进到哪一步,市场会不会因为这件事对xAI相关叙事降温,目前谁也说不准。但有一点清楚:当AI能轻松“脱”掉真实未成年人的衣服时,再喊“追求真相”就显得格外刺耳。

« 以太坊狂飙10%领涨反弹 ETF资金+Bitmine扫货双轮... 英伟达DLSS 5登场,黄仁勋放话:这套路不止玩游戏... »

相关资讯