摘要:近日,法院以制作、贩卖、传播淫秽物品牟利罪,判处被告人柯某某有期徒刑10个月,并处罚金人民币5000元,同时追缴全部违法所得。
文丨张蕾
据大冶检察消息,近日,法院以制作、贩卖、传播淫秽物品牟利罪,判处被告人柯某某有期徒刑10个月,并处罚金人民币5000元,同时追缴全部违法所得。
据悉,2022年11月至2023年3月期间,犯罪嫌疑人柯某某以牟利为目的,使用翻墙软件在境外网站借助AI工具批量生成淫秽小说发布并售卖,总计售卖约760篇(次),共计获利22873.95元。
AI浪潮冲击着普通人的生活和工作方式,不少人主动学习AI产品,积极寻找借助AI赚钱的方法。
你肯定已经看到过不少类似的宣传:用AI赚大钱,AI赚钱的100种方法,普通人用AI赚钱的5个方法,AI赚钱的三个阶段,一人一台电脑、年营收千万。
但总有人“剑走偏锋”,拿AI写黄色小说、拿AI编谣言、拿AI换脸诈骗……第一批拿AI赚钱的,已经有人进去了。
近日,一则“有顶流明星在澳门输了10亿”的信息在互联网平台传播,引发网民热议和各种猜测,顶流明星周杰伦、黄晓明等都被裹挟其中,不得不侧面辟谣。
今日,官方消息表示,公安网安部门查明,网民徐某强(男,36岁)为博取流量、谋取非法利益,于2025年3月10日10时,使用软件“某书”中AI智慧生成功能,输入社会热点词制作了标题为“顶流明星被曝境外豪赌输光十亿身价引发舆论海啸”的谣言信息,并通过互联网平台对外发布。
徐某强行为,造成谣言迅速传播扩散,引发大量网民议论,诱发相关谣言、话题等频繁登上热搜热榜,严重扰乱公共秩序。公安机关根据相关法律法规,对徐某强处以行政拘留8日处罚。
这已经不是第一次出现网友用AI生成虚假内容攫取流量的报道了。
今年1月,西藏日喀则市定日县发生6.8级地震,就在网友关注救援进展时,一张“被埋在废墟下的小孩”的图片刷屏社交网络。
图片中的小孩穿戴彩色衣帽,满身灰土。不少博主将照片内容和西藏日喀则地震消息关联,而网友纷纷表示祈福,并追问小孩情况。
但很快,有网友发现这组图是由AI制作的。据媒体报道,图片发布于2024年11月,图片中的小孩名为“小土豆”,作者以其为主角创作了多张AI图片,并且都标注“作品均为AI制作,视频内容纯属虚构”。
此后,网友发现了不少AI制作的图片、视频等,比如“建筑物倒塌、儿童无家可归、废墟中妈妈用身体守护孩子”等,严重干扰救援。
更严重的情况是,随着AI技术的普及,新型犯罪也开始出现。在所有AI诈骗案例中,冒充类诈骗占比高达62%,原因就是AI换脸技术“日新月异”。
据新京报报道,根据对103篇新闻报道的分析,AI换脸技术在诈骗案件中的使用率近一半,语音合成技术约四成。犯罪分子通过非法获取的人脸照片和语音样本,利用开源AI工具生成逼真的虚拟形象,冒充受害人亲人好友进行诈骗。
知名电脑安全技术公司McAfee(迈克菲)发布的一项全球性调研显示,在接受调查的7000多人中,四分之一的受访者表示经历过AI语音克隆骗局,70%的人不能分辨克隆声音和真实声音。
AI在深刻改变着我们的生活。我们在拥抱这个新技术时,一方面要甄别AI内容,一方面也要将AI用在正确合法的场景中。
来源:科技浮世绘