近日,韩国曝出“Deepfake”(深度伪造技术)事件,多个关于“韩国AI深度伪造”的话题词引发网友热议。
据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗,Deepfakes是利用AI换脸制造色情图频,韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩。
在此过程中,加害者还毫不犹豫地公布受害女性的身份,威胁受害人,索要钱财。
据央视新闻报道,韩国教育部9日表示,今年已发生400多起涉及中小学的相关案件,受害者累计超过600人。
韩国教育部就涉深度伪造性犯罪问题,对全国17个地方教育厅展开调查。结果显示,今年初至9月6日,全国小学、初中和高中共发生434起利用深度伪造技术实施的性犯罪,受害者数量共计617人。其中,受害学生588人,教职员工29人。
从学校级别来看,上述案件中,涉高中的有243起、初中179起、小学12起。
从调查数据看,利用深度伪造技术的犯罪数量呈激增势头。8月28日至9月6日仅10天内,韩国新增238起涉中小学的相关案件。从年初到8月27日,相关案件总数为196起。
韩联社资料图
如何快速识别AI换脸变声诈骗?深度鉴伪5秒让AI换脸诈骗无处遁形
如何为“一老一小”构建安全通讯环境?AI技术强力反制电信诈骗
9月8日,2024年国家网络安全宣传周在南沙正式拉开帷幕,关于AI换脸、换声等对个人隐私侵害的话题成为大家关注的焦点。一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。
画面中技术人员正在演示的就是“AI换脸”技术,仅需一张目标人物的静态照片,就能让照片中的人物动起来。
中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍,“尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取的情况下,就有可能被用来假冒他人,实施相关的犯罪活动。”
AI换脸、换声等技术一旦被不法分子利用,还会成为敲诈勒索的工具,此类案例在各地已经发生了很多起,前不久,深圳警方打掉一个犯罪团伙。
|