人工智能创业公司Runway推出文本生成视频模型 效果出色
IT之家报道,Runway人工智能创业公司近日推出了一款全新的文本生成视频AI模型Gen-2。顾名思义,这款模型能够依据用户输入的文本描述自动生成对应风格的视频。虽然当前的技术尚未达到完美无缺的境界,但Runway的新模型已经展现出令人瞩目的成果。
一直以来,Runway公司致力于研发基于网络的视频编辑器,并专注于人工智能工具的创新,比如背景移除和姿态检测等。该公司曾参与开发开源文本生成图像模型Stable Diffusion,并在二月份推出了首款人工智能视频编辑模型Gen-1。
Gen-1模型主要是对用户已有的视频素材进行智能化处理。只需输入粗略的3D动画或手机拍摄的片段,便可应用人工智能生成的覆盖层,从而制作出富有创意的视频片段。Gen-2模型则更注重从零开始生成全新的视频内容。
不过需要注意,Runway公司分享的演示片段虽然短暂且颇具吸引力,但仍有诸多不足。演示片段的长度有限,视频的真实感尚待提升。目前用户需通过Runway公司的Discord平台注册并加入等待名单才能访问Gen-2模型。对此,公司发言人Kelsey Rondenet表示:“我们将在未来几周内实现更广泛的访问。” 目前我们对Gen-2模型的评估只能基于演示片段和少量视频片段(其中多数已用于Gen-1模型的宣传),不过从现有的展示来看,其效果已十分出色。
文本生成视频技术的兴起无疑为创意产业带来了新的机遇和挑战。Runway公司的Gen-2模型便是其中的佼佼者,它将为我们带来前所未有的创意发挥空间。该技术也可能引发一系列问题,如虚假信息的泛滥等。对此,IT之家将持续关注Runway公司的最新技术动态。