韩国AI换脸色情犯罪猖獗,今年受害者已超883名!
“同班同学谁都不敢相信。”“现在学校和人都太可怕了。”“那些合成的色情内容和我的伤口一样,都能完全抹去吗?”这些来自韩国受害儿童们的哭诉,生动揭示了近期在社会上引起巨大冲击的“AI换脸色情”犯罪所带来的创伤。
“AI换脸”,这一原本应用于娱乐和创意领域的技术,如今却沦为了性犯罪的帮凶。利用深度学习技术进行的人脸替换,正被广泛用于制作色情内容,成为了韩国社会的一大毒瘤。尤为令人震惊的是,10岁以下儿童及青少年往往成为这类犯罪的受害者,甚至有时也被无辜地卷入成为加害者,其广泛牵连程度令人痛心疾首。
据韩国教育部最新公布的《学校AI换脸色情视频受害情况》第9次调查结果显示,截至今年11月1日,因学校相关AI换脸色情剥削而受害的学生总数已达883人,仅在一周内就增加了18人。这一数据令人触目惊心,也再次为全社会敲响了警钟。
具体而言,除了学生受害者外,职员等受害者也增加了1人,累计达到4人,而教员受害者数量则保持在一周前的33人不变。统计显示,学生和教职员合计的累计受害者已高达920人,这一数字背后是无数个家庭的痛苦和无奈。
面对AI换脸色情内容在Telegram等聊天工具中的大肆传播,韩国教育部已迅速行动,每周对全国17个市道教育厅进行受害情况调查。截至目前,今年累计报告的AI换脸色情受害案件已达552起,一周内就增加了10起。同时,教育部还接到了467件调查委托,其中247件涉及支持删除相关色情视频,以减轻受害者的精神负担。
韩国AI换脸色情犯罪的频发已引起了社会的高度关注和广泛担忧。,为了进一步消除学生和教师的不安感,并提供必要的保护和支持,韩国教育部正在积极组建受害现状调查及紧急专门组织(TF)进行专项支援。这一举措旨在通过更加专业、系统的手段,严厉打击AI换脸色情犯罪,切实保护青少年的身心健康和合法权益。