Sora,这款在网络上引起轰动的工具,引发了人们的深思。
在人工智能时代,真假之辨变得愈发困难。
不久前,人工智能公司OpenAI发布了一款名为Sora的工具,能够根据文本生成超现实视频。业界对此一片叫好,认为它将改变多个行业的生态,让每个人都能更简单地进行视频创作。目前,该工具正在接受测试和评估潜在的安全风险,尚未确定公开发布日期。
然而,事情从未像表面看起来那么简单。不到一周的时间里,已经有专家发出警告,称Sora等新的人工智能工具很可能会导致假视频泛滥,人们也会越来越难以分辨视频的真伪。
Sora生成的视频
Sora的能力让人“害怕”
2023年10月,美国总统拜登在一次采访中提到,他看过网上一个关于自己的视频。看完后,他说:“我什么时候说过这样的话?”这个小小的笑料背后,让拜登陷入思考,一段仅有3秒的AI生成影像,足以冒充他本人,甚至可以欺骗受害者的家人。因此,诈骗者很容易就可以利用这类视频欺骗受害者的家人。
Sora的出现似乎预示着未来的挑战。
OpenAI在其网站上解释称:“Sora能够生成具有多个角色、特定类型的运动以及主题和背景的准确细节的复杂场景。”“该模型不仅了解用户在提示中提出的要求,还了解这些事物在物理世界中的存在方式。”
这意味着,Sora不仅能够从物理角度,如重力下落、人类咀嚼时肌肉的运动、海浪随潮汐运动对海岸的拍击等方面进行模拟,更重要的是,作为人工智能,Sora还能通过持续学习使这些场景变得更加逼真。因此,未来人们很可能难以分辨一段视频的真实性。
因此,一些专家甚至称Sora“让人害怕”。
身份验证公司iProov的首席科学官纽维尔博士表示,Sora能让“恶意行为者更容易生成高质量的假视频”。
Sora生成的视频
人工智能可能影响选举
专家们的担忧并非空穴来风,因为2024年是美国大选之年,人工智能技术可能被滥用。正如拜登所言,他看到AI生成的自己视频时也会犹豫,对于普通民众来说,分辨参选人是否说过某些话将变得更加困难。
专家警告称,新的人工智能工具可能导致美国总统大选前虚假视频的增加。
TruMedia创始人埃齐奥尼表示担忧,生成式人工智能工具的快速发展在社交网络时代可能具有致命性。过去一年,人工智能生成的图像、音频和视频质量迅速提高,OpenAI、Google、Meta等公司竞相开发更先进、更易于使用的工具。
尽管给出的示例都是一些“真善美”,但专家们警告称,这项新技术可能引发新一波恶意伪造事件。
2024年1月,全球顶尖女歌手泰勒·斯威夫特宣布与美国NFL橄榄球运动员Travis Kelce的恋情。几乎一夜之间,泰勒·斯威夫特在球场的露骨照片迅速传播,甚至惊动了白宫。白宫发言人表示对此类图像流传感到担忧,更确切地说,是虚假图像,这令人担忧。
实际上,在这些照片疯传之前的两周,网络上传出一则泰勒·斯威夫特送名牌锅的视频。尽管泰勒·斯威夫特和品牌否认了这一视频,但这又是一则由人工智能生成的视频。
问题来了,视频由谁生成,谁来监管?谁将为这些虚假视频负责?
上周五,亚马逊、谷歌、Meta和OpenAI等科技公司签署了一项协议,采取“合理的预防措施”,防止人工智能工具被用来扰乱世界各地的选举。
Meta全球事务总裁尼克·克莱格表示:“每个人都认识到,没有一家科技公司、没有一个政府、没有一个民间社会组织能够独自应对这项技术的出现及其可能的恶意使用”。
影视行业或将面临覆灭
许多人担心未来影视行业的前景。
电影导演兼视觉效果专家迈克尔·格雷西表示:“看看我们在图像生成领域的一年取得了什么进展。一年后我们会在何方?”
实际上,在2023年,好莱坞曾进行长达半年的罢工,其中一部分原因与人工智能有关。
2023年5月2日,好莱坞编剧协会罢工,部分原因是争取流媒体播放与重播的分成,另一原因是巨头们有意用人工智能取代编剧的部分工作。7月14日,美国演员工会也加入罢工,包括演员、特技师、配音演员等,整个罢工一直持续到11月9日。
在罢工期间,有报道称有人希望全身扫描群演,只支付一天的工资。制片公司将拥有扫描文件、群演的图像和肖像。在未来的影视项目中,公司可以随意使用这些资料,无需群演同意,也无需额外支付费用。
尽管最终这一想法未能实现,但未来,巨头们肯定不会放弃这种低成本的演员使用方案。因此,人们担心未来影视行业的发展。或许,在不久的将来,屏幕上将很难看到真实的演员。