▲ AI视频创意图 © 由微软 Copilot 生成
马斯克再度预言成真,2024果然是人工智能电影元年——GPT技术带来的新一轮人工智能热潮持续席卷全球一年之后,龙年伊始Sora再次横扫千军。
▲ 图注:2023年11月27日Pika爆火后,马斯克预判称明年将是“人工智能电影”元年
一周前,Sora以文字一键输出的一分钟连贯视频里,呈现出高度细致的背景、精致复杂的多角度镜头,以及富有情感的多个角色,横扫此前一切AI视频技术,可谓豪气干云。
根据OpenAI 的说法,Sora是结合了 Transformer 和 Diffusion 这2个迄今最重要的模型:ChatGPT、Gemini、LLaMA 等语言模式都是基于 Transformer 模型——对词语进行标记,并生成单词;Diffusion 模型则被归类是“文生图”的模型。(更多关于LLM的知识,点击此处查阅)
有专业机构指出,如果从“理解世界”的角度来审视 Sora,那么某一帧图像的画质、画面关系绝不是模型质量高低的评判标准,甚至官网释出的 60 秒一镜到底视频也不是最核心的部分。真正的重点在于视频存在不同机位,不论远、中、近、特、广,视频中人物和背景的关系都保持着相当的一致性。这才是业界认为 Sora 的遥遥领先之处。
▲ 图片来自网络:Sora跟其他多个视频模型的区别
Sora如此吸睛的原因不仅在于AI如何生成视频,更在于这背后的意义——即训练 AI 理解物理世界,继而生成各种真实场景的可能性。世界对Sora的关注,体现的其实是人们对未来“世界模拟视频生成模型”的展望和期待。正因如此,Sora的亮相也极大概率会促进通用人工智能(AGI)的加速到来。
▲ 视频剪辑创意图 © 由 微软Copilot生成
所谓“世界模拟器”的说法,源自OpenAI 官网上一篇关于 Sora 的名为《把视频生成模型作为世界模拟器》的研究论文,文中 Open AI自称Sora是“世界模拟器”。然而也有不少大神级科学家对此并不认同。比如图灵奖得主、Facebook首席AI科学家杨立昆(Yann LeCun)就认为Sora不能理解物理世界,并顺势安利了Meta前几天推出的AI视频模型 V-JEPA联合嵌入预测架构的优越性。
▲ 杨立昆在海外社交媒体发表见解,否认Sora能够理解物理世界
此外,前谷歌、Facebook技术主管Hongcheng也在近期表示AI模型不大可能通过被动看训练数据视频,就能掌握物理定律。更有专家分析认为,从Sora生成的部分视频来看,它是依赖于数据插值和潜空间拼贴来生成图像,而非真实的物理模拟……各种说法纷至沓来,一时之间难分高下。
▲ 视频剪辑创意图 © 由 微软Copilot生成
回顾过去几年,大语言模型(LLM)和视频生成技术(Video GC)一直不断进步,AI在视频创作领域的运用,不仅降低了视频创作的时间和人力成本,也为视频创作者们提供了源源不断的创意,从而极大地提升了视频内容的生产效率。
Sora问世前,按照视频生成方式进行划分,流行的AI视频生成“三件套”包括文字生成视频、图片生成视频、视频生成视频。据此,Runway 、Pika、Descript 都曾成在彼时红极一时。其中Runway主打视频风格迁移的Gen-1和主打文本生成视频的Gen-2,该技术早已被应用于电影、电视与广告等领域:去年横扫奥斯卡7项大奖的电影《瞬息全宇宙》背后的视觉效果团队就使用了Runway的技术来帮助创建某些场景,比如用AI工具去除背景、放慢视频、制作无限延伸的图片等等。
▲ 电影《瞬息全宇宙》海报
Pika则在2023年后半程备受关注——产出质量上优于Runway,且操作更为简单:这家仅4人的初创AI公司,仅六个多月内就结束测试、发布了首款正式产品Pika1.0,生成并编辑3D动画、动漫、卡通等微电影。
▲ 图为一句话“elon musk in a space suit,3d animation”生成的视频
Descript则和Runway及Pika有所不同,它能够将视频转录成文本,让用户通过简单修改文本来同步编辑视频。只需修改文字,视频就会随之改变。
▲ Descript功能示意
语音克隆是Descript提供的另一项有趣且实用的功能——用户可以克隆自己的声音,以此编辑视频,轻松消除口误,并能调整讲话中的停顿和语气,是集写作、录音、转录、编辑、协作和分享视频与播客于一身的AI工具。通过Descript,用户可以像使用文档和幻灯片一样轻松完成视频编辑,从而节省下大量时间和精力,更加专注于创意部分。
▲ 通过编辑文本来编辑视频中的图片颜色
除了上述提及的产品,过去一年中,不少公司还积极借助大语言模型(LLM)的崛起,为AI视频创作开拓了更多新领域。比如ChatGPT中的Visla插件可以根据用户输入的一句话,快速生成有字幕、有语音讲解、有情节的小视频。
▲ Visla插件
HourOne则利用字符生成技术(Character Generation Technology),通过AI将人类的外貌、声音和动作复制出来,创建出所谓的”虚拟人”。这些虚拟人物可以在视频中朗读文本,从而化身为“教师”“新闻播报员”“虚拟代言人” 等角色。
▲ HourOne功能示意
Fliki的最大亮点则在于,可以根据文本生成逼真的人类语音和视频内容,并配以相应的虚拟人物或动画创造出吸引人的视听内容。
▲ Fliki功能示意
回顾至此,不难发现短短一年,AI视频技术的发展就实现了垂直增长:视频创作将来便捷化、智能化、高效化的时代。AI技术不仅为创作者们带来更加丰富多样的创作方式和体验,更令视频创作不再局限于专业领域,促使普通用户轻松参与其中,创造出独具个性和创意的视频作品,为AI时代成为单人创业家创造了良好的先决条件。
垂直增长这一概念,由微软全球资深副总裁张祺博士于去年3月首次提出,并发起了“单人创业家(One-Person Entrepreneur)”行动,是指利用AI技术的能力和潜力,以“单人+AI即团队”的模式,实现垂直创新和垂直增长。
站在2024龙年伊始,作为这场变革的见证者和推动者,期待着视频创作领域在AI的引领下蓬勃发展,期待这一技术颠覆行业的时代,视频创作者们能进一步通过技术实现单人创业,开创崭新的创作纪元。
特别鸣谢
《Video Generation and Editing》论文作者:
Nicholas Yuan
Huiguo He
参考资料
1、新华社
https://mp.weixin.qq.com/s/w5yUSMXOzdbghSMj-gZQTQ
2、界面新闻
https://mp.weixin.qq.com/s/0RdUwGoVfQjKYRULZLabxw
3、极客公园
https://mp.weixin.qq.com/s/FyxRCUGPMsdns2__z7n0EA
评论前必须登录!
立即登录 注册