12月22日-23日,以“智能涌现·发现未来”为主题的网易未来大会在浙江杭州举办。在AGI 论坛“AI
三人行”圆桌对话上,南京大学智能科学与技术学院副教授易子立、「灵动AI」创始人雷海波、AI 绘画知名博主娜乌斯嘉三人,共同就《AI
生成视频往何处去?》分享精彩观点,英诺天使基金合伙人王晟为本次对话主理人。
易子立首先教授表示,随着AI
热潮的来临,很多企业已经在尝试使用AI工具,但文生图、文生视频的技术仍有待进一步成熟。目前,AI生成视频的主要技术路径是扩散模型,未来的趋势有可能是归回大模型训练的方式。国外在视频生成底层技术方面具有一定的领先优势,国内在像2D
数字人、AI 社交这样的细分应用上表现更好。相信伴随算力水平的提升和技术范式的革新,将来国内有可能在某些方面超越国外。
「灵动AI」 创始人雷海波
“「灵动AI」是将生成式AI图像技术应用于营销设计端的创业企业,我们过去20年一直在视觉设计和视觉影像行业探索”。「灵动AI」 创始人雷海波在谈及视觉大模型话题时表示,过去做设计社区、媒体和设计平台,几乎每天都与设计师、设计机构打交道。据我所知,目前国内一些顶尖艺术设计类高校,已在日常教学和设计项目中应用了文生图等大模型。因此,AI在生图领域的能力毋庸置疑,但生成视频,落地应用可能还需要半年到1年的时间。
面对国内大模型厂商为何竞争不过国外的问题。他直言,造成这一现象的原因,不仅仅是技术、算力、数据集方面的差距,从设计的维度来看,国内厂商对美学理解还存在欠缺。事实上,当下 Midjourney 生成图的调性、氛围、光影质感,已经远超越人类的表现。如果国内大厂能做出类似 Midjourney 视觉模型,并结合高品质的数据集,配合行业认知和产业化落地能力,垂直应用层面一定是有很大机会的。
被问及「灵动AI」的落地应用场景,他回答的简单而直接,“我们主要是面向前缀场景,比如营销,特别是电商营销。过去,数亿的商家和数十亿的SKU(单款商品)的营销物料都是靠人工来实现的。现在试想,如果上传的商品信息既能在文字、图像等模态上保持不变,又能够与文字、图片、视频等模态模型实现很好的融合,从而为商家产出AI商品图、海报、短视频,甚至是3D交互内容,这个市场需求是很大的。今年,「灵动AI」主要发力点在文生图、垂类模型的研发及探索行业应用,但我们看到了文生图、图生视频对创意生产力带来的解放,更期待AI在3D领域的高质量生成能力”。
作为AI领域的知识博主和模型训练师,娜乌斯嘉认为,AI在视频生成领域归结为四类场景:原视频风格转化、瞬息全宇宙、图生视频、场景转换视频。目前主要是广告制作、预告片制作、推文和短视频创作等领域尝试较多。在图片生成方面, AI 已能达到各种炫目的效果,但在视频生成领域由于控制手段较少,表现力受到一定限制。例如:人物表情在视频中的一致性不够,容易出现“恐怖谷效应”。她希望在视频生成效果控制上,技术能够做到更加精准。但在AI的世界里,创造性的想法一定是大于技术。
英诺天使基金合伙人王晟
站在投资人的角度,王晟表示,目前生成式视频的热度非常高。今年,风险投资主要表现为两端集中:一是资金端集中,只有部分VC敢于真正的出手;二是项目端集中,VC的资金主要投向了计算能力相关项目,如GPU、芯片、高速无损网络、大模型等。明年,大家比较期待的是多模态模型领域,以及多模态能力的落地应用。
当然,AI作为一项智能技术,需要全社会不断地对它加深认知,需要政府、科学家、企业、媒体、资本等共同参与,这样才能促使其获得更好的良性发展。
据悉,「灵动AI」目前已上线近千个商品图场景,初步形成AI工具矩阵。由于拥有特定风格场景的LoRA模型,多个亿级参数的专用AI模型以及智能审美评价系统,在主体控制下,使生成商品图呈现独特的视觉特征和美学调性,从而为企业级用户提供更好的服务。
相关稿件