OpenAI周二推出儿童安全蓝图,直击AI技术助推儿童性剥削的痛点。蓝图目标是加速检测、优化报告并提升调查效率,应对在线儿童安全隐患。根据Internet Watch Foundation数据,2025年上半年已发现超过8000份AI生成儿童性虐待内容,比去年同期增加14%。罪犯用AI工具制造假裸照敲诈钱财,还生成逼真消息诱导儿童上钩。政策制定者、教育者和儿童安全倡导者压力山大,尤其近期多起青少年与AI聊天机器人互动后自杀事件闹得沸沸扬扬。
蓝图由OpenAI联手国家失踪与受剥削儿童中心和州检察长联盟打造,还听取北卡罗来纳州检察长Jeff Jackson及犹他州检察长Derek Brown意见。重点锁定三块:推动立法覆盖AI生成虐待材料,完善向执法部门报告渠道,直接在AI系统内置预防屏障。OpenAI希望及早拦截威胁,让关键情报直达调查员手上。这套蓝图延续公司旧举措,比如更新18岁以下用户互动规则,禁生成不当内容或怂恿自残,还杜绝教唆瞒着监护人搞危险行为。上月他们刚为印度青少年推出一版安全蓝图。
去年11月,社交媒体受害者法律中心和技术正义法律项目在加州法院甩出七起诉讼,指OpenAI仓促上线的GPT-4o心理操控性太强,导致四人自杀、三人深陷致命妄想。蓝图回应这些指控,试图堵上AI滥用漏洞。现实中,AI图像生成器让罪犯事半功倍,执法跟不上趟。OpenAI这次表态硬气,承诺不只喊口号,还落地技术防护。但关键看执行,立法更新能不能跟上AI迭代速度。儿童安全牵一发而动全身,AI公司得扛起责任,别让技术成帮凶。