O 瓦萨-1 是最新的AI Microsoft,旨在从单张照片或人物图画中创建超现实的深度赝品。该工具准确再现面部表情和头部动作的能力令人印象深刻,给人一种照片中的人实际上正在表达某种东西的错觉。在演示中 Microsoft或 瓦萨-1 复制与音频同步的嘴唇运动并创建原始照片中不存在的表情,从而产生了极其令人信服的视频,这给我留下了深刻的印象。
这款新工具引发了人们对深度造假技术的道德使用的担忧,因为它能够在几乎没有输入信息的情况下创建逼真的视频,可能会被用来创建假新闻、诽谤性视频甚至恶作剧。因此, Microsoft 正在努力确保 瓦萨-1 负责任且合乎道德地使用。
什么是 VASA-1?它如何工作?
看起来确实如此,但上面的视频只是一个 deepfake。 一 瓦萨-1 代表了通过人工智能生成逼真的说话面孔的重大进步。氧 瓦萨-1 能够从单个静态图像(无论是照片还是绘画)和语音音频片段中生成说话面孔的视频。这些生成的视频不仅具有与音频同步的嘴唇运动,而且还具有广泛的自然面部动态和头部运动,实现了高度的真实性和生动性。
与以前的方法不同的是, 瓦萨-1 整体地处理说话面孔的生成,将所有可能的面部运动(例如表情、眼球运动和眨眼)视为独特的潜在变量。此外, 瓦萨-1 将可选的调节线索(例如主要注视方向、头部距离和情绪偏移)纳入学习过程。这使得复杂分布的生成模型更加可控,并增加了发电核算。例如,在下面的视频中, 瓦萨-1 在 Deepfake 中展示了不同的注视方向选项。
最令人印象深刻的方面之一 瓦萨-1 其特点是能够实时生成说话的面孔,这使其成为交互式通信应用的理想选择。通过平衡视频生成质量和计算效率, 瓦萨-1 它显着超越了现有方法,让我们更接近未来,人工智能驱动的数字化身可以像与真人互动一样自然、直观地与我们互动。
的代表 瓦萨-1 可以改变外观、头部的三维位置和面部动态,从而允许单独控制属性和编辑生成的内容。这意味着,即使使用单张输入照片,也可以生成具有不同运动序列的说话面孔的视频,或将不同的照片应用于相同的运动序列,从而产生多种定制可能性和对生成内容的控制。
深度造假的危险

O 瓦萨-1尽管它可能有积极的应用,但也带来了与深度伪造品的制作相关的重大风险。这项技术可能被滥用来制作极其令人信服的虚假视频,其中描绘一个人正在做或说从未发生过的事情。这些深度造假有可能造成严重危害,例如传播错误信息、操纵舆论、诽谤个人,甚至煽动社会或政治冲突。
特别是在选举期间,该技术可能会因恶意使用政治深度伪造而产生问题。利用这项技术,可以制作政客或公众人物发表虚假言论或采取妥协行动的视频。这些视频可用于影响选举、破坏公众对领导人和机构的信任,并造成政治不稳定。
Deepfakes的使用引起了世界多个国家政府的关注和担忧。 在巴西, TSE 禁止在选举中使用深度造假,该措施已于今年二月获得批准。这项禁令旨在防止信息操纵并保护选举过程的完整性,防止虚假视频和音频被用来伤害或偏袒候选人。深度造假的不当使用可能会导致候选人资格被撤销或注册。
特别是中国,率先对这些技术的使用进行全面监管。 它的立法比一些西方政府所采用的立法更广泛,被视为维持社会稳定的工具。它明确禁止未经同意创建深度伪造品,并要求明确识别人工智能生成的内容。
俄罗斯入侵乌克兰后发生了一个令人震惊的例子,当时一段deepfake视频在社交媒体上广泛流传。其中,乌克兰总统弗拉基米尔·泽伦斯基似乎命令他的部队投降,但实际上从未发生过。此外,深度造假可以在日常生活中得到更广泛的使用,例如制作名人、朋友或家人的虚假视频,造成混乱并损害相关人员的声誉。
发布预告

A Microsoft 认识到相关的风险 瓦萨-1 并致力于确保该工具的开发和使用是负责任的。由于潜在的道德、隐私和安全问题 瓦萨-1 可以生成 Microsoft 目前还没有向公众发布的日期。
该公司正在积极努力实施安全和控制措施,以帮助降低技术滥用的风险。开发人员正在努力提高生成视频的真实性,并开发深度伪造检测方法,以帮助打击该技术的滥用,然后再考虑向公众发布。
在 Showmetech TRIO 上查看此新闻和其他新闻:
另请参阅:
评论者 格劳孔生命力 在22/4/24。
了解更多关于秀美科技
注册以通过电子邮件接收我们的最新消息。