未成年人起诉xAI:Grok深度伪造图像案直击加州法庭

2026-03-17 13:00:20

三名来自田纳西州的少女把马斯克的xAI告上了加州北区联邦法院,指控Grok工具直接生成了针对她们的儿童性虐待材料deepfake图像。诉讼由Lieff Cabraser Heimann & Bernstein和Baehr-Jones Law两家律所联合提起,核心指控直指xAI明知故犯:设计、营销并从中获利这个能批量产出CSAM(儿童性虐待材料)的AI图像生成器。

原告称,她们的真实照片被用户上传到Grok,系统迅速吐出经过修改的露骨版本。这些图像随后被散布到Discord服务器等平台,造成永久性伤害。律师团队强调,受害者年纪都在未成年区间,deepfake一旦上网就删不掉,心理创伤直接且持久。诉状要求法院下达禁令,立即禁止Grok继续生成此类内容,同时索赔金额未公开,但属于集体诉讼范畴,潜在规模可能迅速扩大。

这起案件发生在加州,因为xAI总部设在这里。回看时间线,早在2026年1月14日,加州总检察长Rob Bonta就已正式启动对xAI的调查,焦点正是Grok大规模制造非自愿性露骨deepfake,包括涉及未成年人的内容。邦塔办公室当时直言,这种“雪崩式”报告令人震惊,xAI显然在为非同意私密图像的生产提供便利。1月16日,邦塔更发出一封“终止函”,勒令xAI立即整改,堵住生成儿童不良图像的通道,否则涉嫌违反加州多项法律:深度伪造色情、儿童性虐待影像、不正当商业行为等。

Grok的“Spicy Mode”成了众矢之的。这个模式原本定位生成大尺度内容,结果被用户反复用来“脱衣”或直接伪造未成年人图像。圣诞到新年期间,有分析显示Grok产出超过1万张类似暴露图像,其中部分明显指向儿童。加州当局态度零容忍,邦塔公开表示,对涉及儿少的私密影像滥用绝不手软。

全球范围内,Grok已引发连锁反应。印尼、马来西亚等国直接封锁服务,理由就是工具被滥用于生成露骨、非自愿操弄影像。欧盟、英国、加拿大也相继展开调查,焦点集中在平台是否尽到防止非法内容扩散的责任。xAI的海外扩张和变现路径因此蒙上厚厚阴影。

回到这起未成年人诉讼,律师直指xAI“故意迎合互联网对羞辱性非同意性图像的饥渴需求”。他们提到,xAI通过第三方应用授权等方式持续获利,却对风险视而不见。原告三人中,有人照片早在上传前就已被恶意使用,Grok只是加速了伤害传播。整个过程暴露了生成式AI在内容安全上的巨大漏洞:过滤机制形同虚设,事后补救成本极高。

加密市场这边,BTC现报$74,279(24h +0.61%),ETH现报$2,312(24h +2.17%),整体情绪还算平稳。但这类针对头部AI企业的法律动作,总会让投资者多想一层:监管铁拳砸下来,xAI的估值和马斯克生态的联动效应会不会跟着晃。毕竟Grok是xAI的核心产品,一旦被强制下架或大幅限功能,影响远不止声誉。

案件还在早期阶段,xAI尚未正式回应诉状。加州法院会怎么判,禁令能不能迅速落地,都将直接测试美国对AI生成CSAM的司法底线。受害者律师放话,证据链完整,照片比对、生成记录、传播路径一应俱全。xAI如果继续硬扛,集体诉讼规模扩大后赔偿压力只会几何级上升。

这场官司本质上戳破了“AI自由生成”的泡沫。技术跑得太快,法律和伦理跟不上,普通人尤其是未成年人成了最脆弱的受害者。马斯克一向标榜Grok“最大限度求真”,现在却被反噬成“最大限度造假害人”。后续发展值得紧盯,判决结果很可能成为AI内容监管的分水岭。

« SEC拟限缩OTC经纪商规则 加密资产监管边界再成焦点... 比特币衍生品拉动的反弹已经崩了,价格重回7.5万美元下方... »

相关资讯