Discuz! Board

服务

招聘房产本地信息

优选简历在线看报

信息

家政保洁 月嫂保姆 搬家货运

培训招生 二手车    二手市场

社区

乐亭头条 海港头条 乐亭文艺 光与影    乡镇动态 网警说事 法治乐亭 乐亭教育

乐亭医讯 农业信息 情感天地 寻人寻物 老景说事 乐亭旅游 新人手册 商务合作

@乐亭/海港人,这种照片不要随便发!紧急提醒!

2024-9-14 14:33:58 1576 0

[复制链接] 1
乐亭通大蓝猫 发表于 2024-9-14 14:33:58 |阅读模式

乐亭通大蓝猫 楼主

2024-9-14 14:33:58

1 (12).jpg

近日,韩国曝出“Deepfake”(深度伪造技术)事件,多个关于“韩国AI深度伪造”的话题词引发网友热议。


图片

图片


据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗,Deepfakes是利用AI换脸制造色情图频,韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩。


在此过程中,加害者还毫不犹豫地公布受害女性的身份,威胁受害人,索要钱财。


据央视新闻报道,韩国教育部9日表示,今年已发生400多起涉及中小学的相关案件,受害者累计超过600人。


韩国教育部就涉深度伪造性犯罪问题,对全国17个地方教育厅展开调查。结果显示,今年初至9月6日,全国小学、初中和高中共发生434起利用深度伪造技术实施的性犯罪,受害者数量共计617人。其中,受害学生588人,教职员工29人。


从学校级别来看,上述案件中,涉高中的有243起、初中179起、小学12起。


从调查数据看,利用深度伪造技术的犯罪数量呈激增势头。8月28日至9月6日仅10天内,韩国新增238起涉中小学的相关案件。从年初到8月27日,相关案件总数为196起。


图片

韩联社资料图


如何快速识别AI换脸变声诈骗?深度鉴伪5秒让AI换脸诈骗无处遁形


如何为“一老一小”构建安全通讯环境?AI技术强力反制电信诈骗


9月8日,2024年国家网络安全宣传周在南沙正式拉开帷幕,关于AI换脸、换声等对个人隐私侵害的话题成为大家关注的焦点。一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。


画面中技术人员正在演示的就是“AI换脸”技术,仅需一张目标人物的静态照片,就能让照片中的人物动起来。


图片

中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍,“尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取的情况下,就有可能被用来假冒他人,实施相关的犯罪活动。”


通过“换脸”伪造不雅照,深圳警方打掉一个犯罪团伙

AI换脸、换声等技术一旦被不法分子利用,还会成为敲诈勒索的工具,此类案例在各地已经发生了很多起,前不久,深圳警方打掉一个犯罪团伙。


回复

使用道具 举报

发表回复

设置回复发布时间:(填写您想要此回复定时发帖的时间,留空表示立即发布!)
您需要登录后才可以回帖 登录 | 立即注册 |

返回列表 本版积分规则

:
管理员
:
dpaog090r5zhl9zapp@app.com
:
未填写
:
未填写
:
未填写

主题11727

帖子13128

积分41213

  • 发布新帖

  • 在线客服

  • 微信

  • 客户端

  • 返回顶部