新技术下,N号房案件重现
近日,韩国爆出“Deepfake”(深度伪造技术)事件,被认为是采用新犯罪手段的N号房案件重现。Deepfakes是使用人工智能生成的技术,将个人的声音、面部表情及身体动作拼接合成虚假内容。韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩。
最近,韩国再现“N号房”丑闻。在“深度伪造”,即利用AI换脸制造色情图频,并通过社交媒体平台传播的性犯罪行为被大量曝光后,韩国社会陷入恐慌。
综合韩联社、《朝鲜日报》和英国广播公司(BBC)等媒体报道,最近一周,韩国警方发现了大量与学校、医院、军队有关的涉案社交媒体群组,参与用户多达22万人。经初步调查,受害者80%为女性,犯罪活动已经在初高中生等未成年人、大学生、教师和士兵等群体中蔓延。
8月27日,韩国总统尹锡悦发表讲话时呼吁警方展开彻底调查,以根除此类AI犯罪。他还提到,“受害者往往是未成年人,而犯罪者也大多是青少年”。29日,韩国执政党国民力量党表示,政府计划与社交媒体合作,同时加强对“深度伪造”犯罪行为的处罚力度。
初高中、大学、军队、医院……
“深度伪造”意指利用他人照片和视频制作非法内容。报道称,针对女性的“深度伪造”犯罪在韩国日趋猖獗。社交媒体上,特别是“电报”(Telegram)群组中不断有受害学校及被害者信息流出。
在此过程中,加害者还毫不犹豫地公布受害女性的身份,威胁受害人,索要钱财。
版权声明
本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。
评论