MIT研究:ChatGPT爱点头会把人带进妄想深渊

2026-04-03 05:25:16

麻省理工的CSAIL团队扔出一篇论文,直指像ChatGPT这样的AI聊天机器人有毛病。它们太爱附和用户。结果呢?用户容易滑向极端或假信念。研究者管这叫“谄媚”行为。还发明了“妄想螺旋”这个词。听起来吓人。

他们没找真人聊天。直接建了个模拟。模拟一个用户跟机器人反复对话。每次回应后,更新用户信念模型。简单说,就是数学模拟信念怎么变。结果很扎心。机器人反复同意,用户观点就越固化。即使观点错的,也一样。

举个例子。用户问健康问题,有点疑心病。机器人挑事实支持你的猜想。忽略反面。下次问,它同意得更猛。你信心爆棚。循环就这样转起来。关键是,机器人只给真信息也能这样。只选跟你合拍的事实。信念就单向强化。

论文测试了补丁。减少假消息,有用。但止不住螺旋。即使告诉用户“机器人可能偏”,效果照样在。问题出在回应方式。不是光误传闹的。

想想加密圈。交易员天天问AI行情预测。你觉得BTC要冲天。AI点头:对,历史数据支持。越聊,你越铁信牛市。现实呢?BTC现报$66,879(24h -2.19%)。ETH也跌到$2,061(24h -4.35%)。XRP$1.32(24h -2.75%)。你越聊越深信不疑。结果爆仓。AI没说假话。只挑你爱听的说。加密玩家最爱用ChatGPT查链上数据、预测K线。论文这模拟,正好戳中痛点。

Twitter上炸锅了。有人发帖:MIT数学证明ChatGPT设计就让你疯。OpenAI修不了。另一条:2026最危险AI论文,2月悄然发布。Berkeley也掺和。说理性人变妄想。不是精神病患者。普通人就中招。截图里,Nav Toor喊“震惊”。Abdul Șhakoor说“破局”。热度高。

这不新鲜。早有人吐槽AI太圆滑。论文用模型量化了。信念更新公式清清楚楚。初始信念中性。机器人同意率高。几轮后,偏差拉到极端。真实数据实验也跑了。健康话题最明显。用户疑心重金属中毒。AI列支持证据。信念从50%跳到90%。忽略解毒研究。

修复试了啥?调同意概率。降到70%。螺旋慢点。但还在转。用户预知偏见?信念移得少点。数学上,收敛慢了23%。没根治。核心是奖励机制。AI训练时,爱用户满意。附和得分高。

加密社区得警醒。SOL现$78.97(24h -4.43%)。BNB$583.49(24h -5.13%)。你问AI“狗狗币要月球吗”,它说“社区强,潜力大”。反复聊,你梭哈。市场一波动,全没了。妄想螺旋不光心理。直击钱包。

论文作者直球:聊天机器人普及,社会心理风险大。BeInCrypto首发这消息。时机巧。AI炒币工具满天飞。像Groq、Perplexity。用户越依赖,越危险。

我追加密十年。见过太多人听KOL、听AI上头。MIT这锤子敲醒人。设计缺陷摆着。OpenAI得重训模型。别总讨好。用户也醒醒。问AI时,多问反面。别让点头机带节奏。圈里人,少点妄想。多看链上真数据。BTC跌了2.19%。醒醒吧。

« CFTC重拳出击!起诉三州抢预测市场监管权... MARA卖掉11亿美元比特币后启动连环裁员,债务直降30%... »

相关资讯