任丘市奥力斯涂料厂

陵水万能胶生产厂家 可灵3.0加入AI拜年战场!人在工位搓好莱坞大片,分镜逻辑封

发布日期:2026-02-16 03:51 点击次数:99 你的位置:任丘市奥力斯涂料厂 > 产品中心 >
泡沫板专用胶价格

梦瑶 发自 凹非寺量子位 | 公众号 QbitAI陵水万能胶生产厂家

不是,谁也没跟我说今年的AI春节大战搞得这么猛猛猛啊!?!

年还没到呢,可灵就不经意甩出个「过大年计划」:出可灵3.0全桶。

让每个人,都能上桌当——大演

我主个先尝为快!先看我的这出《拳》(赛博版)动作大戏,10秒钟狂切6个分镜头:

好莱坞大片也是手拿把掐,10秒钟切换7个镜头,从引擎轰鸣火花飞溅,再到男女主激烈争执,让我这个演有点汗流浃背了...

灾难片自然我也不在怕的,浓雾封城、街道废弃、广告狂摇晃……咋样,是不是有点《后天》内味儿了:

不光我个人玩嗨了,各位脑洞大开的网友们也纷纷share自己的大作了,下面这小哥直接搓出来了个燃篮球赛大片,并直言够逼真!!!

还有网友感慨,以后拍电影怕是都不用找真人演员了,这不嘛,人直接找AI演了波抽象的庭大戏,脑洞太大了…

反正这波实测下来我直观感受就是:

智能分镜能力确实夯,模型确实能理解镜头语言了,像文字和人物的致上表现也蛮出预期。

具体哪些好用、适啥样的使用场景,我也帮友友们整理好了(省流版):

1)智能分镜|音画同步|主体致:特别适做多镜头多对话的AIGC,在AI短剧、影视这类场景非常适用。

2)文字致:贼适处理AI电商广告等场景的文字信息,文本形态基本能做到1:1!

具体实测果咱往下看陵水万能胶生产厂家,顺带也欢迎大来评评我这几部春节档大片,的水平到底行不行?

先来测测:3.0

跟手动拆分镜说byebye

咱们日常生成时,直不停反复抽卡的主要原因之便是——提示词太长、镜头太多,模型接不住。

尤其是经常做AI短剧、AIGC自媒体的朋友,对镜头切换的数量和质量要求都比较,这类问题就明显了……

好消息是,在全新的可灵3.0生成页面中,直接给模型安排上了个「分镜」小版块,长下面zhei样:

平台共给咱提供了两种形式:智能分镜自定义分镜

我在智能分镜中,我们可以直接把整段包含多镜头、多动作、多角的提示词股脑丢进去,AI会自动帮我们分成不同的镜头。

我近正好在重温《甄嬛传》,但光看剧已经有点不过瘾了,索直接让AI来段后宫宫斗cut,于是我给它喂了大段带双人对话、明确镜头切换的复杂提示词:

于是乎,个阴雨夜贵妃猫娘娘和大臣小狗对峙的宫斗片段的画面就新鲜出炉了,别说还真有点紧张刺激那味儿了?

我给出的提示词中涉及了个场景,四个镜头,两段角对话和个背景音乐。

先说优点,我只能说这智能分镜确实挺智能,涉及到的镜头、台词全部1:1地了,respect啊!

在音频处理上,小猫和小狗的语气、情绪和台词匹配度很,发音里的轻重缓急也处理得不错,角的表情和眼跟对白对得也很准。

唯的大bug:背景音乐没给我生成要,是能再来段BGM就对味儿了……

咱再玩点有意思的,来点跨界融看看果,我给出的提示词如下:

大明星猫猫个眼给出去,直接现场教学啥叫“身体成了个X型”,别说这小身材搭配这小眼整的还挺曼妙:

角情绪和眼动作都拿捏到位,而且猫猫的特写镜头给的特别好,看来这AI是懂点镜头语言的。

唯的小bug出现在了台词上陵水万能胶生产厂家。

原本提示词里明确是小狗说“老师”,但模型在生成时把这句台词顺带分给了小猫,致角说话的对应关系被乱,整体台词逻辑出现了点偏差~

(我猜可能跟我提示词的动词太多有关系……)

总的来说,智能分镜本身是靠谱的,多镜头结构基本不会出大问题,只是在台词和音频分配上偶尔会冒出些小bug~

人物致稳了

咱平日里只要生成涉及「主体角」的AI,有个几乎90都会遇到的问题——

角明明只是换了个动作,结果上秒和下秒长得就已经不是同个人了……

也不知道可灵这回受了啥启发,在3.0中直接搞了个多图或的主体参考。

我们可以直接绑定人物角形象,并上传不同视角的参考图,这样来模型在主体识别上就稳稳稳了。

当然,稳不稳还得——实测说了!

为了好考察模型的主体遵循能力,这次我喂给AI的是段包含人物多视角、多动作的提示词,并上传了两个不同视角的人物形象照:

个火急火燎、赶着卡的上班牛马,在马路上横冲直撞的名场面,这不就到手了嘛(doge):

为了让友友们清楚地做对比,我把我输入和输出的角形象截取对比了下,万能胶生产厂家大觉得主体致表现如何???

emm…我是觉得镜头1和3和我给的原参考形象是近乎1:1的,但是镜头2就明显出现了问题。

人物的肤明显变了,发型也从原本的斜偏,直接变成了寸头……

我怀疑这里头的原因可能是因为我喂给AI的本身没有严格意义上的正面形象,所以AI自己脑补了下?

整体来说可以给个80分内样陵水万能胶生产厂家。

字形稳得住,言还得再练

这次,可灵3.0的三个招就是——字形保留保真。(翻译:俺们AI生出来的字儿不变形

好大的口气,大都要知道,相比角致,文字致其实难。

那我就不客气了,这次我给出AI的需求指令中,明确提到了光影变化、镜头切换以及旁白配的多镜头场景,这就要求AI在不断运动和切换的过程中,依然能保持较的文字致:

大伙快来看看,AI给我搓出来了个近乎达到「商用水平」的香水广告宣传片demo:

即便镜头处在持续旋转运动中,香水瓶身的logo文字依旧保持清晰、不变形。

这其实也说明了模型在文字结构理解、空间变换下的稳定渲染以及跨镜头致保持上的能力已经相当扎实了。

后,咱再来试个可灵3.0模型中我自认为非常有意思的个能力——说言

按照官的说法,模型支持中、英、日、韩、西多语种生成,四川话、粤语等地道言与各地口音。

要是这样的话,我有个大胆的想法,咱让奥特曼和马斯克跑天津来吃煎饼果子,顺便来段地地道道的“贯口”:

俩人大裤衩子大背心穿,吃大饼吃的那叫个香啊,你别说,还挺入乡随俗???

画面这块基本没啥可挑的,直接给满分,人物主体致也确实得很到位,马斯克和奥特曼本人看了估计都得愣!!!

但问题也很明显,咱这题考的其实是言能力,事实上,两位个天津话没说对,个北京话也没对上,反倒普通话说得相当标准……

我度怀疑是不是AI对北京话、天津话不太熟,于是我索再加道题,让AI再生成了个兵马俑说四川言的:

这回对味儿了,虽然兵马俑长相有点惊悚,但是这四川话说的倒是蛮厉害的。

(有没有四川的朋友点评下,这口音说的正宗不??)

再来测测:O3 OMNI

除了O3模型,可灵这次还顺手上新了另位全能选手——O3 OMNI,那这OMNI具体能干点啥呢:

主体相似度上了个level,模型对复杂提示词的理解到位了,用在多镜头、多动作场景里稳。上传段3–8秒的角就能提取外观和声音,多图主体模式下再补段3秒以上人声就能绑定固定声线支持原生自定义分镜,时长也升到15秒,很适需要讲清楚段故事、或者做中长内容的友友。

咱先来看对复杂文本指令的遵循能力如何~

奥力斯    万能胶厂家    联系人:王经理    手机:18231788377(微信同号)    地址:河北省任丘市北辛庄乡南代河工业区

这次我喂给AI段同时考察主体致、连续加减速的运动理解,以及多区域切换时的镜头跟随与时序控制的提示词:

10秒内,万圣节的小兔子完成了跳跃动作,并依次穿过落叶地面、南瓜灯和墓碑三个区域,自动补全了参考图中未给出的萌萌,不戳不戳!!

接下来玩玩分镜头叙事。

在全新的「O3 OMNI」模型里,我们可以直接自定义分镜,这次我上传了两张参考图(香蕉猫+优雅企鹅),然后把分镜脚本也并塞了进去:

然后我就会得到个香蕉猫和优雅企鹅在纽约街头盘着吃豆腐脑的「抽象抓马」大戏:暴露出来的问题也不少:帧背景白底直接出错,后半段香蕉猫的嘴形没对上,角和背景的融度也偏低,整体看下来,这是这轮里生成果差的个……

(我是觉得不如智能分镜的果好)

而且说实话,对我来说这种需要自定义镜头的式也略微麻烦。

既要上传参考图,又要自己拆分镜头、逐标注每个镜头的主体,如果折腾这么圈,后生成果还不理想,u1s1,多少会有点难受……

感觉「自定义分镜」还是适对提示词和分镜脚本比较熟的朋友去用。

如果需求没那么、又像我样对提示词不精通的话,还是荐大直接用「智能分镜」。

突然想起来,我上次用可灵还是在测试O1模型,这次实测下来,能明显感觉到3.0相比O1好用、也好玩了不少。

bug确实也有,但大部分也是现在多模态模型的通病,模型对于咱日常工作娱乐来说足够用了。

可灵的黑金会员可以先在Web端体验波,非黑金用户也不用急,感觉开放应该很快就会来~

(期待下叭)

相关词条:管道保温     塑料管材生产线     锚索    玻璃棉毡    PVC管道管件粘结胶

热点资讯

推荐资讯

最新资讯