
今日,国家网信办发布了 人工智能拟人化互动服务管理暂行办法(征求意见稿)。

刚刚把这份征求意见稿细读了几遍。
现在圈子里讨论挺多。
有人觉得这代表AI陪伴这个赛道无了。
但这份文件其实是个分水岭。
在此之前,AI陪伴赛道是草莽时代,拼的是谁胆子大、谁路子野。
在此之后,进入存量博弈,拼的是合规成本的承压能力。
除了大家都在聊的防沉迷和数据安全,有几条埋在细节里的规定,其实对业务的影响更致命。
大概看了一下,有几条需要各位从业者注意。
征求意见稿第七条明确提到,不得提供“虚假承诺”。
这一点对技术挑战其实很大。大模型天生有幻觉,而且倾向于讨好用户
在角色扮演场景下,用户问:“你会永远爱我吗?”或者“你会和我结婚吗?”
AI为了拟人,大概率会回答:“会。”
在监管看来,这就是虚假承诺。
如果用户真信了,产生了现实层面的依赖或落差,平台要担责。
这对提示词工程提出了极高要求:既要让AI在虚拟世界里深情,又要死死守住不向现实世界许诺的边界。

第十一条规定:发现用户有自杀等极端情境时,要由“人工接管对话”。
技术公司通常只有算法和开发,很少有重人力的运营团队。
这条规定一出,直接改变了单体经济模型。
如果你的日活达到一定量级,哪怕只有万分之一的触发率,你也需要一支7x24小时在线、具备心理干预能力的专业客服团队。
这不再是轻资产的生意了。
人力成本和管理风险,必须算进财务模型里。
第十二条要求:识别为疑似未成年人的,要切换模式。
疑似这两个字,在执行上是个黑箱。
如果用户没实名,平台只能通过对话内容去猜。
但这又带来悖论:为了猜他是不是未成年,我必须深度分析他的隐私聊天记录;而为了保护隐私,我又不能过度分析。
而且,很多成年用户也喜欢玩低幼向的语C(语言Cosplay),这种误伤怎么处理?
这会是未来运营中的一个大坑。
第十五条明确:除法律规定或用户单独同意外,“不得将用户交互数据用于模型训练。”
过去,我们默认用户聊得越多,模型越聪明。数据飞轮是自动转的。
现在,这个飞轮转不起来了。
因为很少有用户会主动点开单独同意的按钮,把私密聊天记录授权给你。
这意味着,以后模型迭代,得花真金白银去买合规数据,或者搞合成数据。
依靠规模效应自然积累技术壁垒的时代,结束了。

第十七条给出了一个硬指标:“用户连续使用拟人化互动服务超过2个小时的,提供者应当以弹窗等方式动态提醒用户暂停使用服务。”
在过去的互联网逻辑里,我们习惯用用户时长来衡量产品价值。
特别是情感陪伴类AI,投资人最爱听的故事就是用户每天平均聊3小时。
现在,这个逻辑得变一变了。
当时长被强制熔断,靠无限制拉长用户在线时间来提升数据的路子,就有了合规风险。
产品设计的重点,必须从消磨时间转向服务密度。
第三十一条提醒:从事卫生健康等专业领域的,应符合主管部门规定。
现在很多AI伴侣为了显得高端,喜欢打心理疗愈、缓解抑郁的牌。
这条线划得很清楚:聊天是聊天,诊疗是诊疗。
如果你没有医疗机构的执业牌照,产品宣传和对话内容里就绝对不能出现治疗、诊断这类字眼。
否则,这就不是违规的问题,是非法行医的问题。
未来的产品定位,只能止步于树洞和陪伴。
其实这份文件的出台并不令人感到意外。
任何一个技术从边缘走向主流,必然会经历这个过程:
从无法无天,到有法可依。
早期的移动互联网是这样,P2P是这样(虽然它挂了),现在的AI也是这样。
这份文件其实是在保护这个行业。
在此之前,大家都在灰度里跑,靠擦边球、靠诱导沉迷、靠收割情绪价值来做增长。
现在规则立下了,虽然门槛高了——需要备案、需要重运营、需要搞定数据合规——但至少确定性增加了。
如果没有监管,任由AI去诱导自杀、去诈骗老年人、去搞未成年人,这个行业会被社会舆论彻底锤死,谁都别想做。
现在规矩立下了,虽然严,但至少给了大家一张准生证。
以后的路,虽然窄了,但只要还在牌桌上的人,都是正规军。
在这个时间节点,对于从业者来说,赶紧去补合规的课,比去卷产品效果更重要。
感谢您的观看🥹
我是Max,一个在AI方向持续探索的小学生。
我会持续更新一些AI方向最新最快的产品,技术,思考
文章来自于微信公众号 “01Founder”,作者 “01Founder”