一条视频,1034万播放量。
画面是一条大米生产线,配音说这东西不行,是人造的。湖北溆浦,有人信了,开始慌了。
然后网警敲了舒某的门。
溆浦公安认定:内容不实,视频是AI写的,造谣者被行政处罚,责令删除。
事情就这么结束了?不。法律问题,才刚刚开始。
造谣的代价,从来不是罚款那么简单
《治安管理处罚法》第二十五条:散布谣言,谎报险情、疫情、警情或者以其他方法故意扰乱公共秩序的,处五日以上十日以下拘留,可以并处五百元以下罚款。
食品安全领域的谣言,踩的是民生红线。”人造大米”这四个字,意味着有人在暗示:你们吃的东西有问题。
这不是”说说而已”,是会引发实质性恐慌的。所以公安说”造成部分群众恐慌”,有依据,有后果。罚款只是表面,核心是:你让一批人害怕了,这个害怕是你制造出来的,你得负责消除。
责令删除,最大限度消除不良影响——这句话容易被忽略,但它比罚款更重要。因为它把”造谣”和”修复”绑在了一起:你挖的坑,你填。
AI写的谣,责任还是人的
这是这个案子真正的法律价值所在。舒某说”视频是AI生成的”。这句话本身就在暗示:我是传播者,不是制造者。但法律不认这个逻辑。
《生成式人工智能服务管理暂行办法》2023年已经施行,明确AI服务提供者不得生成虚假信息——但这条规矩约束的是AI平台,不是用AI的人。
也就是说:你拿AI造谣,AI不替你背锅。责任链条的终点,还是你。
但问题没有结束。如果有人专门训练AI批量生产谣言,量级和人工造谣完全不同——成本低,产量大,传播快。追责的时候,AI算”工具”还是算”主体”?这个问题的答案,现在还没有明确的法律边界。
AI降低了造谣的门槛,但没有降低造谣的法律代价。这一次,舒某用自己的账号发了自己的谣。下一次,可能是一个AI系统在凌晨三点自动生产了一百条谣言,而注册那个账号的人早就睡下了。法律跟得上吗?
平台在放大,却装作没看见
1034万播放。算法推的。短视频平台的逻辑很简单:互动数据越好,推得越广。谣言比辟谣更容易引发情绪——愤怒、恐惧、猎奇,这些都是高互动的燃料。
所以一条来路不明的”大米生产线”视频,在算法眼里和一条真实的新闻没有区别。都是内容,都是流量,都值得放大。
平台有没有责任?有。《网络安全法》明确平台对违法内容负有审核义务。但”明显违法”的判断依赖技术识别——一段AI生成的配音,配上一段从网上扒来的生产线视频,这种”混搭型”谣言,技术识别难度极高。
所以现阶段,平台的责任暂时无法直接追责。但有一条是明确的:当主管部门发出删除通知,平台必须执行。这一次,是溆浦公安发出的”责令删除”。配合是义务,不是功劳。
这个系统里,每个人都在等别人
如果我们把这条谣言的传播链条拆开,会看到这样一个结构:AI工具降低了内容的生产成本——低门槛内容进入平台算法——算法放大了传播势能——谣言到达千万量级——主管部门介入——处罚造谣者,责令删除。
每一步都有问题,但每一步都没有提前切断。
这不是一个”坏人造谣”的案子。这是一个系统失灵的切片。
造谣者没有被拦住,因为AI让他的成本足够低。平台没有被提前预警,因为算法眼里只有流量,没有真假。公众没有被保护,因为辟谣的声音跑不过谣言的速度。每一个人都在等下一个环节的人出手。
法律能做的,是把每一环的责任落清楚。但制度能改变的,是让”等”变成”拦住”。
结尾
网警罚款了,视频删了,这个案子结了。但AI还在被使用,平台算法还在跑,造谣的成本还在降低。
法律能追上吗?这个问题,比罚款舒某更重要。
本文仅基于公开信息进行法律知识普及,不构成法律意见。

发表回复
要发表评论,您必须先登录。