根据Microsoft的服务条款,该产品“可能出错,也可能无法按预期工作”,用户需自担风险。条款最后更新于2025年10月24日,这段描述引发社交媒体热议。AI怀疑者常提醒别盲目信模型输出,Microsoft自家条款也这么说,尤其在推销Copilot给企业付费时。PCMag报道,Microsoft发言人称这是“遗留语言”,产品演进后已不匹配当前用法,下次更新就会改掉。用户看到“娱乐用途”标签,难免吐槽企业版Copilot定价高企,却带这种免责。
Tom’s Hardware指出,Microsoft不是独一家。OpenAI条款强调,其输出不是“唯一真相或事实信息来源”。xAI更直白,说别把输出当“真相”。这些AI巨头都用类似 disclaimer护身,防范法律风险。想想企业客户,本想买Copilot省人力,结果条款一读,重要决策还得自己兜底。Microsoft正砸钱推Copilot for Microsoft 365,年费每用户30美元起,企业用户超百万,却卡在这种旧标签上。社交平台上,截图满天飞,有人嘲讽“娱乐工具收企业钱,够接地气”。发言人急澄清,更新在即,但短期内条款不变,用户继续看到警告。
AI条款这事儿戳中行业痛点。模型幻觉频发,输出错漏百出,公司早有心理准备。Microsoft去年底推Copilot时,承诺革命生产力,现在企业版月活破亿,却用娱乐标签自保。其他玩家如Google Gemini,也藏类似条款,Bard时代就警告“实验性”。开发者社区吐槽,这等于变相承认AI还稚嫩。企业买单前,得掂量风险,自行验证输出。条款更新后,Microsoft或改口强调商用价值,但核心免责难消。AI落地,企业场景考验真功夫。