2019年6月,一个程序员开发的名为DeepNude的应用在国内外大行其道。
然而,在其发布的几个小时内,这个深加工软件迅速关闭,由于过多的访问请求。原因是它可以一键脱掉女人的衣服,制造出大量的色情图片。。
最近,根据调查,这个色情软件重新出现在即时通讯应用-电报。。
到目前为止,该软件已经在TeleGram平台上公开发布了约104852张色情图片,而这一数据还不包括私下分享和传播的图片。
更重要的是,这些图片中有70%来自社交网络中的真实女性,甚至包括未成年人。也就是说,在Facebook、微博等社交媒体上分享的自拍照,很有可能被人们用来生成“水果照”。
DeepNude的目标是“你可能认识的人”。
这项调查来自阿姆斯特丹的网络安全公司Sensity,该公司专注于所谓的“视觉威胁情报”,尤其是深度假视频的传播。。
他们的调查发现,截至今年7月底,Telegram平台的7个主要频道使用的是DeepNude软件。
软件在全球范围内已经吸引了103,585个用户,该频道的用户数最多的是45,615个。这些用户大部分集中在俄罗斯和东欧周边地区。
不过,它也有盈利模式。未付费用户获得的裸照将被加水印或仅部分曝光。用户可以支付1.28美元获得未加水印的图片,但使用权限限制为7天内100张照片。。
第三是得到熟悉的人的裸照。deep fake假色情视频已经变得司空见惯,主要针对名人。但根据一项民意调查显示,大多数用户对“现实生活中认识的女性”更感兴趣,占63%。
而DeepNude恰恰提供了这样的支持,任何用户都可以使用任何照片生成裸照。从TeleGram平台的公开数据来看,照片中的女性很多都是普通的上班族和大学生,而这些照片都是来自TikTok、Instagram、Facebook等平台的自拍。
需要注意的是,这个deepfake软件只针对女性。如果你上传的是男性或其他无生命的照片,系统会自动替换为女孩的身体,并识别为相应的器官。
Sensity的首席科学家Giorgio Patrini(乔治·帕特里尼)说,超过680,000名女性在自己不知情的情况下被伪装成色情图片,并上传到公共媒体平台上。
目前,Sensity的相关调查数据已对外披露,相关执法部门也已对其展开调查。。到目前为止,Telegram还没有给出一个公开的答案,为什么会允许这款色情软件出现在社交平台。
此外,根据Sensity的调查,除了Telegram,另一家俄罗斯社交媒体平台VK也发现了DeepNude,并且它已经开始公开宣传这款软件。
不过,事件一爆发,相关负责人立即做出回应,否认了这一说法。。同时,他强调,VK不会容忍平台上出现这样的内容或链接,也会屏蔽发布这些内容的社区。。
此外,此类社区或链接不使用VK广告工具进行推广,我们还进行额外的检查,防止出现不适当的内容。
作者:我不是偷窥者,只是出于好奇。
然而就是这样一款色情诈骗软件,其初衷是出于对技术的好奇和热情。2019年6月27日,DeepNude软件首次公开发布,此后不久,系统因用户访问过多而宕机。。
但就在这几个小时里,这种针对女性的“一键脱下人工智能”在国内外引起了轩然大波。。关于“侵犯隐私、性别歧视”以及推特、红迪网、微博等各大社交媒体平台的批评层出不穷。深度学习先驱吴恩达(Andrew Ng)也在推特上表示,DeepNude是“人工智能最恶心的应用之一”。
因此,要关闭Deepfake的潘多拉魔盒,需要制度的约束和人心的引导。