您的位置:主页 > 公司动态 > 每日行情 > 每日行情
AI换脸「Deepfakes」手艺未来的3大真正危险-国际原
制造虚伪图像的Deepfake手艺(深度伪造手艺) 玩起来很有趣,但它潜在危害是伟大的。
Deepfake天生图像的迹象已往很容易被发现,但天生式人工智能让我们质疑我们现在所见所闻的一切。随着每一个新的 AI 模子的公布,虚伪图像的迹象都在削减,更让人疑心的是,你现在可以在几秒钟内确立 deepfake 视频、你所爱之人的声音克隆以及伪造文章。
为了制止被 AI deepfakes 手艺愚弄,有需要领会它们会带来什么样的危险。
Deepfakes手艺的演变
Deepfake 显示一小我私人正在做现实生涯中从未发生过的事情。这完全是假的。当 deepfakes 作为模因或笑话在互联网上分享时,我们会冷笑它们,但当它们被用来误导我们时,很少有人以为这很有趣。
已往,deepfakes 是通过拍摄现有照片并在 Photoshop 等图像编辑软件中对其举行修改而确立的。但 AI deepfake 的差异之处在于它可以使用深度学习算法重新最先天生。
词典中将 deepfake 界说为:
令人信服地修改和操作的图像或录音,以误传某人正在做或说的事情,现实上某人并未做过或说过。
但随着人工智能手艺的提高,这个界说最先显得过时了。通过使用 AI 工具,deepfakes 现在包罗图像、文本、视频和语音克隆。有时,会同时使用所有四种 AI 天生模式。
由于它是一个自动化的历程,使用起来异常快速和廉价,以是它是以我们以前从未见过的速率大量制作 deepfakes 的*工具——所有这些都不需要我们知道若何编辑照片、视频或音频.
AI Deepfakes 的伟大危险
许多AI 视频天生器已经存在,尚有大量AI 语音天生器。加入像 GPT-4 这样的大型语言模子,你就有了确立迄今为止我们在现代历史上看到的最可信的深度造假的方式。
领会差异类型的 AI deepfakes,以及它们可能若何被用来诱骗你,是制止被误导的一种方式。这里是几个严重的例子,说明 AI deepfake 手艺若何组成真正的威胁。
1. 人工智能身份偷窃
你可能见过他们。在天下局限内*批真正病毒式流传的 AI deepfakes 包罗唐纳德特朗普被捕的照片,以及身穿白色羽绒服的教皇方济各的照片。
虽然这似乎是对一位著名的宗教人物在罗马严寒的日子里可能会穿什么的无邪无邪的重新想象;另一张图片显示的是一名政治人物在严重的违法情形下被捕,若是被以为是真实的,结果会严重得多。
到现在为止,人们在确立 AI deepfakes 时主要针对名人、政治人物和其他着名人士。在某种水平上,这是由于名人在互联网上有大量他们的照片,这可能首先有助于训练模子。
对于像 Midjourney 这样的 AI 图像天生器——用于特朗普和教皇的深度造假图像——用户只需输入形貌他们想要看到的内容文本。要害字可用于指定艺术气概,例如照片或照片写实主义,而且可以通过提高分辨率来微调效果。
老当益壮的微软,危机四伏的谷歌
人们可以轻松地学习使用 Midjourney并自己举行测试,但出于显著的道德和执法缘故原由,人们应该制止果然公布这些图像。
不幸的是,作为一个通俗的、不着名的人也不能保证你不会受到 AI deepfakes 的损害。
问题在于 AI 图像天生器提供的一个要害功效:上传你自己的图像并使用 AI 对其举行操作的能力。而像DALL-E 2 中的 Outpainting这样的工具可以通过输入文本提醒并形貌你想要天生的其他内容来扩展现有图像的界线。
若是其他人用你的照片做这个,危险可能比穿白夹克的教皇的深度伪造图像要大得多——他们可以在任何地方使用它,冒充是你。虽然大多数人通常出于善意使用人工智能,但很少有限制阻止人们使用它造成危险,尤其是在身份盗用的情形下。
2. Deepfake 语音克隆诈骗
在 AI 的辅助下,deepfakes 跨越了我们大多数人都没有准备好的界线:假声音克隆。只需少量原始音频——可能来自你曾经公布的 TikTok 视频,或者你泛起在其中的 YouTube 视频——人工智能模子就可以复制你*的声音。
想象一下接到一个听起来就像家人、同伙或同事的电话,既不能思议又令人恐惧。Deepfake 语音克隆是一个异常严重的问题,联邦商业委员会 (FTC)已就此发出忠言。
不要信托声音。打电话给应该与你联系的人核实故事。使用你知道是他们的电话号码。若是你无法联系到你所爱的人,请实验通过其他家庭成员或他们的同伙与他们取得联系。
《华盛顿邮报》报道了一个案例,一对 70 多岁的配偶接到了一个听起来像他们孙子的人打来的电话。他在牢狱里,急需保释金。没有其他理由嫌疑他们在和谁语言,他们就把钱交给了骗子。
面临风险的不仅仅是老一代,卫报报道了另一个例子,一位银行司理在他们以为是银行董事的人发出一系列“伪造的电话”后批准了一笔 3500 万美元的生意。
3.大量生产的假新闻
像ChatGPT这样的大型语言模子异常异常擅永天生听起来像人类的文本,而我们现在没有有用的工具来发现差异。在错误的人手中,假新闻和阴谋论的制作成本很低,揭穿的时间也更长。
流传错误信息固然不是什么新鲜事,但2023 年 1 月在 arXiv 上揭晓的一篇研究论文注释说,问题在于使用 AI 工具扩大输出是何等容易。他们将其称为“人工智能发生的影响力运动”,他们说,例如,政治家可以行使它来外包他们的政治运动。
连系多个 AI 天生的源确立一个高级 deepfake。例如,人工智能模子可以天生一个写得很好且令人信服的新闻故事,以配合唐纳德特朗普被捕的虚伪形象。与单独共享图像相比,这赋予了它更多的合理性。
假新闻不仅限于图像和文字,人工智能视频天生的生长意味着我们看到更多的深度伪造视频泛起。这是 Robert Downey Jr. 移植到 YouTube 频道 Deepfakery 公布的 Elon Musk 视频中的其中一个。
确立 deepfake 就像下载应用程序一样简朴。人们可以使用 TokkingHeads 之类的应用程序将静止图像转换为动画化身,这样人们就可以上传自己的图像和音频,使人看起来就像在语言。
在大多数情形下,它既生动又有趣,但也有潜在的贫苦。它向我们展示了使用任何人的形象是何等容易,使它看起来似乎那小我私人说出了他们从未说过的话。
不要被 AI Deepfake 愚弄
Deepfakes 可以以极低的成本快速部署,而且所需的专业知识或盘算能力也很低。它们可以接纳天生的图像、语音克隆或 AI 天生的图像、音频和文本组合的形式。
已往制作 Deepfake 加倍难题和劳动麋集,但现在,随着大量 AI 应用程序的泛起,险些任何人都可以使用用于确立 Deepfake 的工具。随着 AI deepfake 手艺变得越来越先进,值得亲热关注它带来的危险。