“只是看了几张照片,怎么就违法了?”
如果你身边有人这么说,说明他根本不懂这个时代的法律风险。
最近有个案子在网络上炸开:一名23岁的男子,用AI工具把高校女生的社交媒体照片篡改成色情图片,然后发布到色情App上。被网友举报后,警方介入,最后以“侵犯肖像权”调解处理——涉事男子道歉、赔偿、删照片,案件结案。
很多人在评论区松了一口气:“还好只是调解”“道歉就完事了”。
但作为一个办了多年刑事案件的律师,我想说一句:这件事没那么简单。
AI换脸,从民事纠纷到刑事犯罪的距离
很多人把这件事理解成“有人偷了我的照片做不雅用途,所以侵犯肖像权”。这个理解不能说错,但太浅了。
我们来拆解一下法律上到底发生了什么。
第一步,男子获取了受害女生的照片。这一步,如果他是正常从公开社交平台保存的,本身不违法。但第二步——用AI工具把照片的脸“嫁接”到色情内容的身体上——这就复杂了。
如果仅仅是“把脸P到黄图上”,在现行法律框架下,可能确实很难认定强奸罪(因为没有发生真实的性行为),也很难认定强制侮辱罪(因为刑法第二百三十七条要求的“猥亵”通常需要行为人与被害人产生直接接触)。最后以侵犯肖像权处理,在某种程度上,是现有罪名体系对这个新问题的一种“权宜之计”。
但问题的关键在于:这真的只是一种“民事侵权”吗?
为什么说这个判法开了个坏头
我用大白话讲:一个人,用技术手段,把另一个无辜女性的脸,嫁接到虚假的色情内容上,让她在互联网上“以假乱真”地“被黄暴”。这件事对受害人的精神损害、对社会公序良俗的破坏,难道不比一般的民事纠纷严重十倍?
更值得警惕的是,这个案例可能成为一个“示范”——后来者会想:哦,原来这么做最多就是道歉加赔钱?那我试试也无妨。
技术跑在法律前面,这已经是常态。但当技术作恶的代价如此之低,就会形成一种反向激励。
我们现在的法律缺什么
有人会问:现行法律真的管不了吗?也不完全是。
刑法第三百六十四条有“制作、传播淫秽物品罪”,第三百六十七条定义了什么是“淫秽物品”。如果涉案内容被认定为淫秽物品,制作者确实可能面临行政处罚。
问题是,AI生成的“换脸”内容,在司法实践中对“淫秽物品”的认定往往存在争议——它不是传统意义上的录像或照片,而是一种合成内容。再加上证明“传播意图”和“牟利目的”的举证难度,检察机关在立案时往往谨慎。
另外,还有一个路径值得探讨——如果受害女生以“名誉权受损”提起民事诉讼,胜诉概率不低,赔偿金额也能覆盖一部分损失。但这是一条漫长的路,需要时间、精力、金钱,大部分受害女生选择了沉默。
所以你看,不是法律完全真空,而是现有的救济路径要么太重、要么太慢、要么太贵。中间这一段,被技术钻了空子。
真正需要补的短板
我接触过不少网络犯罪案件,一个越来越明显的感受是:技术犯罪正在“轻罪化”。什么意思呢?过去做一件坏事,门槛很高——你需要有体力、有工具、有胆量。但现在,一台电脑、一个AI工具、一个互联网账号,就能对大量陌生人造成真实的、持续的精神伤害。
而法律的反应速度,注定跟不上技术迭代。
这不应该是受害人和律师独自面对的问题。立法机关应该考虑:是否需要针对“AI合成内容犯罪”设立独立的罪名和罚则?是否应该降低这类案件的刑事立案门槛?受害人的举证责任是否应该适度转移,由被告人证明内容并非受害人真实参与?
这些议题,在其他国家已经有了不同程度的探索。德国去年修订了《计算机犯罪法》,将深度伪造色情内容单独立法;美国多个州也在推动“未经同意的亲密影像传播”专项立法。
我们国家在这个方向上,动作还不够快。
写在最后:
法律存在的意义,从来不只是惩罚已经发生的恶。它更重要的作用,是划定一条红线,让人知道什么不能做,让潜在的施害者意识到——“这件事的代价,比你想象的高得多”。
一个23岁的男子,用几秒钟的操作,毁掉了一个女生在互联网上的清白。最后的代价是几千块钱赔偿和一句道歉。
这不是一个公正的结局。这是一个警示——它告诉我们,在这个AI泛滥的时代,保护自己的脸、自己的影像、自己的数字身份,已经和保护自己的财产一样重要。
而立法者和执法者需要做的,是让这条线更清晰,让越线的人付出真正有威慑力的代价。

发表回复
要发表评论,您必须先登录。