男子非法制售 AI 换脸不雅照,7000 多张被捕

近日,我国中央电视台CCTV13的节目《法治在线》曝光了一起与人工智能有关的犯罪案件。一名男子白某某通过社交平台发布广告,声称可以提供“一键去衣”的服务,单张价格为1.5元。警方依据其留下的账户线索成功将其抓获。

据悉,自2023年以来,白某某利用深度学习技术中的Stable Diffusion框架以及特定的AI模型,在社交平台上广泛发布此类广告,并通过微信、QQ等即时通讯工具与他人进行交流和转账。他将他人提供的明星、同事、同学等照片,通过AI技术处理成裸体不雅图片。据检察机关统计,白某某在社交平台上发布的广告浏览量达到3万人次。仅两个月时间,他就制作了近7000张不雅图片,非法获利近万元,给众多被害人造成了严重的名誉损害。

目前,我国北京市海淀区人民检察院已对白某某以涉嫌制作、贩卖淫秽物品牟利罪提起公诉,依法追责。这一案件的曝光再次提醒我们,人工智能技术的广泛应用既带来了便利,也带来了风险。在使用AI技术的同时,我们必须加强对其合理、合法使用的监管,防止类似违法犯罪行为的发生。

发表回复