今年春晚的C位,[变了,今年春晚的人

  更新时间:2026-02-18 02:07   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

目舞台画面 据虎嗅了解据虎嗅了解据虎嗅了解

<p class="f_center"><br></p> <p id="4AVNP9AC">作者|Youth</p> <p id="4AVNP9AE">今年?春节,AI快(把各大卫视卷懵了。<br></p> <p id="4AVNP9AF">火山引擎一举拿下总台春晚独家AI云冠名,其他互联网大厂亦贴身肉搏,争抢地方卫视春晚合作资源。这阵仗让荣光不再的电视台受宠若惊,多少年没有大厂为推大模型扎堆抢冠名的待遇了。各家如此激进,实则是押注春晚带动的陡峭增长曲线——既为争夺产品心智,也是抢占AI原生应用入口。</p> <p id="4AVNP9AG">至此,2026马年春晚意外催生出一场全民大模型普及浪潮,也成为名副其实的“首届AI春晚”。</p> <p id="4AVNP9AH">央视作为春晚的执牛耳者,AI元素的每次亮相都会被观众放大、审视。总台春晚节目上,火山引擎将豆包视频生成模型Seedance 2.0、豆包图像创作模型Seedream、空间视频等AI技术深度融入舞台创作,打造了《贺花神》《驭风歌》《梦底》等多个刷屏名场面。</p> <p id="4AVNP9AI">除此之外,豆包在C端互动也斩获了不俗的成绩单:除夕当天,<strong>豆包AI互动总数达19亿,“豆包过年”活动在除夕帮助用户生成超5000万张新春主题头像、超1亿条新春祝福。</strong></p> <p id="4AVNP9AJ">豆包大模型在春晚做“导演”了</p> <p id="4AVNP9AK">可别觉得AI只擅长解决技术与算力难题,2026年央视春晚创作阶段就在挑战“不可能三角”(极致艺术效果、高频迭代节奏与创新突破要求)。</p> <p id="4AVNP9AL">原本,艺术创作被很多人视作AI难以跨越的天堑,是人类区别于AI的底色,但春晚导演组志在打造前所未有的视觉特效,比如让水墨画动态化、让数字人实时响应舞台灯光,这些场景均无现成参考方案,对模型泛化能力与艺术理解提出了极高要求。</p> <p id="4AVNP9AM">而且,这类需求还无法单靠堆人力解决。比如水墨马的动态效果,若由动画师纯手绘完成,不仅耗时数月,还难以保证每匹马的神韵统一;而导演组要求以周迭代,根本等不起。</p> <p id="4AVNP9AN">导演组曾尝试过国内外多款主流视频生成模型,均未能突破“不可能三角”:一方面,国外模型无法理解中国水墨的艺术逻辑,生成的马匹要么变形、要么丧失神韵;另一方面,国内友商产品虽在影视后期具备优势,却无法满足多主体一致性与细粒度控制的需求。</p> <p id="4AVNP9AO">兜兜转转一圈,导演组最终找到了豆包团队。</p> <p id="4AVNP9AP">歌咏创意秀《贺花神》在蜀葵花和金鱼的视觉制作中,Seedance 2.0为每位演员定制了“一月一人一景,一花一态一观”的视觉奇观,核心挑战在于极致的细节把控——花朵绽放速度、纹理清晰度、光影层次均需精准控制,任何微小的抖动或失真,都会在春晚的高清大屏上被无限放大。</p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p id="4AVNP9AS">2026年央视春晚《贺花神》节目舞台画面</p> <p id="4AVNP9AU">Seedance 2.0凭借精细的控制能力,可根据指令精准调整花朵绽放节奏,让每一片花瓣的展开都自然舒缓;通过多模态理解感知舞台灯光变化,让虚拟场景的光影与现场灯光实时同步。同时,导演组提出的“光影再柔和一点”“花瓣纹理更清晰”等修改意见可实现二次编辑,这种生成-反馈-迭代的闭环,让节目效果在高频打磨中不断逼近导演组的艺术预期。</p> <p id="4AVNP9AV">值得一提的是,当前主流视频生成模型的直出规格为1080P/24FPS,而春晚要求达到8K/50FPS的超高清、高帧率标准。火山引擎的视频增强技术如同“AI修图师”,能在保留画面原有风格的前提下,将视频分辨率提升至8K、帧率拉高至50帧,还能修复AI生成的微小瑕疵,让画面在大屏上更细腻丝滑。</p> <p id="4AVNP9B0">在张杰演唱的《驭风歌》中,Seedance 2.0让徐悲鸿《六骏图》中的静态水墨骏马跃然而出,六匹马的奔跑、聚拢、分散均符合物理规律,身上的水墨笔触随动作自然飘动,墨色浓淡与原画保持一致,甚至能与歌手的演唱节奏精准契合。</p> <p class="f_center"><br></p> <p id="4AVNP9B3">2026年央视春晚《驭风歌》节目舞台画面</p> <p id="4AVNP9B4">据虎嗅了解,火山春晚项目组于1月4日收到导演组需求,6天后就完成了初版交付。豆包大模型能实现如此高效的交付,靠的不是瞎猜,而是两项独门绝技:</p> <p id="4AVNP9B5">一是懂中国风。模型在训练阶段融入了大量中国传统文化素材,涵盖京剧、水墨画等传统艺术形式,真正理解水墨的笔触、墨韵、留白,知晓什么样的动态才符合水墨审美。</p> <p id="4AVNP9B6">二是精准响应细粒度创作指令,能在不同画面切换(场景、背景变化)时,保证运动质量、指令遵循能力的一致性——无论是“马跑慢一点”“毛动轻一点”的具体要求,还是“马的眼神要灵动”的抽象指令,模型生成效果都能与导演要求高度契合。</p> <p id="4AVNP9B7">更关键的是,整个创作过程由“AI +导演”深度共创:由于此前无人见过水墨骏马奔跑的动态姿态,导演组手绘关键帧,火山技术团队参照关键帧调整创作指令,再由AI快速生成版本,根据反馈持续迭代优化。</p> <p id="4AVNP9B8">在歌曲《梦底》里,火山引擎的空间视频技术还实现了明星“多分身同台”的震撼效果——明星刘浩存的多个数字分身同时在舞台上表演,镜头转动时分身的视角同步变化,影子也能随灯光实时调整。</p> <p class="f_center"><br></p> <p id="4AVNP9BB">2026年央视春晚《梦底》节目舞台画面</p> <p id="4AVNP9BC">据虎嗅了解,这些数字分身较传统虚拟人存在两大核心差异:一是实时光影同步,能精准响应舞台灯光的颜色和明暗变化,影子投射完全符合物理规律;二是运镜交互,现场摄像机推拉摇移时,数字分身的视角会随之变化,贴合透视规律,让观众难辨虚实。</p> <p id="4AVNP9BD">这一效果的实现,得益于空间视频技术+豆包大模型的组合:先在影棚用70台相机360度拍摄刘浩存的表演,收集3D素材;再用豆包3D模型生成简化的“几何外壳”,解决多人同时渲染的算力问题;最后通过豆包的深度模型精准计算画面深度,让光影变化更真实,镜头拉近时能清晰看到分身的发丝、睫毛等细节,与真人无异。</p> <p id="4AVNP9BE">AI在春晚舞台上的接连出圈,也让不少观众产生了疑问:AI的创作能力已如此强大,未来是否会取代动画师、设计师?从春晚的实践来看,答案恰恰相反:比如水墨马的创作中,AI解决了动态生成、风格保持等技术难题,但创意方向、分镜设计、情感表达仍由导演组把控;十二花神的场景中,AI精准执行细节要求,但“一人一景”的创意构思,仍来自艺术家的灵感——可见,AI的核心价值,是将艺术家从繁琐的技术实现中解放出来,而非人类的替代者。</p> <p id="4AVNP9BF">从抢红包破译首届AI春晚</p> <p id="4AVNP9BG">提起春晚互动,大家印象最深的可能是抢红包网速总慢人一步的懊恼,而2026年豆包APP让这场全民互动彻底变了样:打开APP,用户可点击“豆包过年”呈现六种不同玩法,依次是AI新春愿望、拜年写真、贺花神、AI创作、新春关键词、写祝福,比如让AI撰写独一无二的拜年祝福语,用户完成体验即有机会抽取现金、科技礼包等福利。</p> <p class="f_center"><br></p> <p id="4AVNP9BI">豆包APP“豆包过年”活动界面与AI生成新春内容示例</p> <p id="4AVNP9BJ">看似只多了一步创作环节,实则春晚的核心互动逻辑已被彻底重构。</p> <p id="4AVNP9BK">过去的春晚互动,本质是事务型的流量承载——无论微信摇红包还是支付宝集五福,核心都是预设规则下的I/O密集型操作,即用户点击按钮,考验网速与手速,一次请求的算力消耗不足十万分之一Tops,核心挑战在于网络并发和数据库读写能力。</p> <p id="4AVNP9BL">2026年春晚,豆包APP彻底颠覆了这一逻辑,将互动路径变为AI创作+抽奖,这种千人千面的体验,是生成式AI从少数科技拥趸向全民普及的关键一跃:生成式AI成功破圈,覆盖老人、小朋友的全年龄段,用户可在几分钟内体验AI创作的乐趣,这才是技术普及的真正意义。</p> <p id="4AVNP9BM">这种千人千面的AI创作互动,在带来全民体验升级的同时,也对背后的算力支撑与技术调度,提出了前所未有的严苛要求——每次互动都是一次实时创作,生成图片需调用Seedream图像模型,撰写祝福语需调用豆包大语言模型,单次请求的算力消耗高达10Tops,是传统春晚互动算力消耗的100万倍。</p> <p id="4AVNP9BN">这意味着,春晚口播的短短几分钟内,豆包APP要同时承接上亿次“百万倍算力”的请求,相当于让一台普通服务器瞬间扛住100万台电脑的运算压力。</p> <p id="4AVNP9BO">据虎嗅了解,豆包在2025年12月的日活用户已破亿,除夕当天,豆包大模型的峰值TPM(每分钟token数)出现在21时46分,推理吞吐量达到633亿tokens,在全球范围内首次实现亿级用户规模的大模型推理并发。</p> <p id="4AVNP9BP">面对如此庞大的算力洪峰,这些请求无法进行“插队”或异步处理:用户点击生成后,必须在几秒内呈现结果,慢一秒都会影响体验。更何况,豆包的互动流量还需与抖音弹幕审核、头条内容推荐、外部客户模型训练等业务争夺算力,如同百万辆汽车同时驶入同一条高速公路,调度难度呈指数级上升。</p> <p id="4AVNP9BQ">如何在有限的资源池内,既保障春晚互动的极致体验,又兼顾其他业务的稳定运行,成为火山引擎面临的核心挑战。</p> <p id="4AVNP9BR">过去,云计算被视为数字时代的“水电煤”,核心提供算力、存储等基础资源。但在AI时代,这种单一的资源供给模式已难以满足行业需求,用户需要的并非单纯的GPU资源,而是能支撑AI模型训练、推理、部署全流程的智能引擎。</p> <p id="4AVNP9BS">据虎嗅了解,火山引擎凭借技术调度能力优势,将N种场景、M个机房、X种机型、Y种模型下的多种异构卡型的资源池统一合并调度,像一个“智能交通指挥中心”实时监控每个机房的拥堵情况,实现分钟级调度几十万核CPU、上万卡GPU,成功承接除夕当天每分钟633亿Tokens的流量峰值。</p> <p id="4AVNP9BT">具体而言,火山引擎的核心突破体现在三个层面:</p> <p id="4AVNP9BU"><strong>首先,在调度层让资源“活”起来。</strong>火山引擎的调度系统,核心解决了资源碎片化和需求动态化的矛盾。传统调度系统往往局限于单个机房或单一机型,资源利用率低,无法应对突发流量;而火山引擎将不同机房、不同异构机型整合成统一资源池,实时监控资源水位和业务负载,实现资源的最优分配。</p> <p id="4AVNP9BV">例如,春晚期间,豆包APP的互动流量与抖音的弹幕审核流量存在错峰:前者集中在口播时段,后者分散在整个晚会过程。调度系统会自动识别这种错峰特征,互动流量低谷时,将部分GPU资源分配给弹幕审核业务;互动流量高峰时,再快速回收资源并优先分配给豆包APP——这种动态调度,让资源利用率提升了30%以上。</p> <p id="4AVNP9C0"><strong>其次,推理层让算力“省”下来。</strong>大模型推理的算力消耗巨大,如何在保证效果的前提下降低成本,是AI规模化应用的关键。火山引擎从体系结构、算子、系统三个层面进行全链路优化,实现了算力倍增的效果。</p> <p id="4AVNP9C1"><strong>最后,在生态层实现能力复用。</strong>火山引擎的技术突破不会局限于春晚单一场景,而是形成可复用、可推广的行业解决方案,可为金融、电商等多领域提供可落地的参考方案;而针对舞台特效打磨的推理引擎全链路优化技术,更能大幅降低全行业AI视频生成的应用成本。</p> <p id="4AVNP9C2">据虎嗅了解,目前,火山引擎已与40余家主流具身智能公司开展合作,为机器人提供视觉理解、语义理解、语音合成等能力。比如,为适配春晚节目《奶奶的最爱》《武BOT》中的人机互动剧情,持续优化推理速度,将机器人的响应时间控制在秒级。</p> <p id="4AVNP9C3">毫不夸张地说,2026马年春晚的底色是科技,也是中国AI发展进入深水区的精准切片。大模型的规模化应用时代已经到来,AI正加速涌进千行百业。</p> <p id="4AVNP9C4">*文中总台春晚画面归中央广播电视总台版权所有,图片来源火山引擎官方公众号</p> <p id="4AVNP9C6">本文来自虎嗅,原文链接:https://www.huxiu.com/article/4835623.html?f=wyxwapp</p>

编辑:杜晓帆