2026春晚“人機共武”刷屏背後:中國AI與機器人正重新定義舞臺
2026-02-27 國際創意與可持續發展中心

  2026馬年春晚為大家帶來一場名副其實的“藝術+技術”盛宴。舞美設計中,AI、AR、XR等技術手段的靈活運用,在虛實之間營造出“人在景中、景隨人動”的沉浸立體式視覺效果。大模型首次深度參與到多個春晚節目的創意構思與視覺呈現環節,與導演組、製作團隊共同探索了生成式AI在大型舞臺藝術創作中的應用邊界。

  春晚機器人演繹“中國創造范兒”

  “人機共武”的名場面,成為2026年春晚最令人震撼的瞬間之一。舞臺上,宇樹科技的人形機器人與河南塔溝武校80余名少年展開實時對練,這也是全球首次實現人形機器人與人類的武術實戰交鋒。機器人精準捕捉少年手中軟棍的運動軌跡,從容完成格擋、突刺、“扯棍”等專業少林棍法動作,反應延遲快到肉眼難辨;醉拳表演環節,機器人模倣醉酒後的踉蹌步態,隨即靈活完成鯉魚打挺、側空翻,與少年們的動作同步呼應,展現出極強的動態平衡能力。

《武BOT》表演 圖片來源:央視新聞

  與往年春晚機器人多以整齊劃一的舞蹈表演為主不同,2026年的機器人表演實現了從“單純技術展示”到“深度內容融合”的質變,不再是冰冷的機械動作堆砌,而是與節目劇情、藝術表達深度綁定,讓科技有了溫度。

  “26台機器人全自主運行,無需外部定位系統,集群控制同步誤差低於0.1秒,這在行業內是前所未有的突破。”宇樹科技技術負責人表示,為了適應春晚舞臺的鋼化玻璃地面,團隊放棄了鋪設防滑地毯的方案,通過優化動態平衡演算法,讓機器人在摩擦系數極低的表面仍能穩定完成高難度動作,“每一個動作都經過了上億次倣真訓練,再通過實物微調,僅空翻動作就迭代了300多個版本”。

《武BOT》表演 圖片來源:央視新聞

  如果説《武BOT》展現了機器人的“力量與精準”,那麼小品《奶奶的最愛》則讓機器人擁有了“溫度與情感”。倣生機器人以1:1比例復刻蔡明,能夠精準呈現挑眉、抿嘴、笑紋等微表情,甚至讓現場演員多次誤認“假蔡明”為真人。小品結尾的機器人舞蹈定格動作,還特意致敬了30年前蔡明在春晚小品《機器人趣話》中飾演機器人的經典造型。

  從30年前用銀色紙裹筷子做“機器人天線”的浪漫想像,到如今倣生機器人能以假亂真,春晚舞臺上的機器人變遷,正是中國科技發展的縮影。

  Seedance 2.0的“第一個用戶”,是春晚

  今年春晚的科技感,很多來自“看起來像魔法”的畫面——而這些畫面背後,離不開大模型能力的支持。除了大家看到的機器人相關節目外,備受關注的豆包視頻生成模型Seedance 2.0、豆包圖像創作模型Seedream 4.5,也參與了多個節目的視覺內容製作,為舞臺呈現提供技術支持。

  視頻生成模型Seedance 2.0在春節前就已在全球網絡上走紅。各國用戶大量分享該模型生成的超逼真視頻,引發國際社會廣泛關注與熱議。眾多業內人士評價Seedance 2.0為“當前全球最強視頻生成模型”,其發佈是視頻生成領域的“奇點”時刻。該模型憑藉其卓越的多鏡頭剪輯、高超的運鏡、角色一致性與音畫同步能力,在全球開發者、影視從業者及資本市場中引發巨大反響。

賀花神》表演 圖片來源:央視新聞

  德國科技博主蒂莫西·邁克斯納發佈評測視頻説,與先前以“文本生成視頻”的模型不同,Seedance 2.0允許用戶將多種輸入源以極度靈活的方式進行組合,從而實現更有針對性的內容創作。“Seedance 2.0的問世,標誌著AI視頻生成技術正經歷代際躍遷。”他説。

賀花神》表演 圖片來源:央視新聞

  春晚的高關注度、高複雜度與高穩定性要求,成為Seedance 2.0規模化應用的最佳實戰檢驗場。在《賀花神》《馭風歌》等節目製作中,模型在實時渲染、多鏡頭協同、複雜場景生成等方面滿足春晚嚴苛標準,成功驗證了其在複雜環境下的穩定性、可靠性及工業化應用潛力,標誌著AI視頻技術已能支撐頂級文藝現場的高強度創作需求。

  在節目《賀花神》中,Seedance 2.0為每位演員定制了“一月一人一景,一花一態一觀”的視覺奇觀,以“AI生成影像+實景舞臺擴展”的模式,構建出一種全新的舞臺視聽敘事結構;在《馭風歌》中,Seedance 2.0不僅精准保留了《六駿圖》的筆觸、韻味,還完成了一系列高難度的運動與鏡頭調度,保證馬匹奔跑動作生動自然的同時,也維持了原作的力量感與節奏感。

《馭風歌》節目片段 圖片來源:央視新聞

  作為首款落地春晚級超高清直播場景的AI視頻大模型,Seedance 2.0的首秀實現了技術層面的多重突破,重構了行業競爭的底層邏輯,也為未來1-3年AI視頻大模型的發展勾勒出清晰演進方向,讓市場看到了AI視頻技術從實驗室走向規模化産業應用的全新可能。

  大模型在春晚舞臺是如何“表演”的?

  除了Seedance 2.0,其他大模型是如何參與春晚舞臺的藝術創作?3D數字分身的奇幻舞臺是怎樣實現的?“AI互動”是什麼,與過去搖一搖搶紅包又有啥區別?

  先來看如何借助大模型實現3D數字分身的奇幻舞臺。在節目《夢底》中,演員實現了“多個自己”在舞臺上不同位置同時表演的震撼場面。當鏡頭從側面掃過時,能清晰看到每一個數字分身側臉的輪廓和光影,而非一張簡單的“紙片人”。

《夢底》節目片段

  這種“真人3D克隆”的視覺效果來自火山引擎空間視頻技術。據介紹,首先,演員在專業環繞式採集棚中完成表演,現場的70台工業級高解析度相機陣列會從不同角度同步捕捉其動態,為後續的四維重建提供高品質、多視角的原始視頻數據。然後,這些數據被送入雲端,通過火山引擎自研的空間視頻4DGS(4D高斯潑濺)重建演算法,將演員的表演重建為4D數字資産。最後,這些資産導入Unreal Engine(UE)或Unity等主流遊戲引擎,根據現場導播系統和燈光控制臺傳來的實時數據,進行實時同步渲染,最終將虛實結合的畫面輸出到直播流中。

  虛擬的數字人與現場真實燈光“天衣無縫”的背後,是一套被稱為“DMX”的舞檯燈光控制協議。火山引擎通過實時轉譯現場的DMX信號,驅動虛擬場景中的虛擬燈光,使其與物理燈光毫秒級響應,從而渲染出完全同步的光影效果,確保數字人“活”在真實的環境中。

  同時,結合豆包的Seed3D和DA3模型:前者提前為演員的每一幀生成一個簡化的、不可見的“幾何外殼”,渲染時,系統只需計算這個極簡“外殼”的影子,計算量大幅降低,渲染效率大幅提升;後者為光影計算提供了極穩定和準確的“先驗知識”,從根本上保證了演員在近景下皮膚質感與光影過渡的細膩真實。

  “AI互動”是什麼,與過去搖一搖搶紅包有啥區別?傳統的互聯網互動遵循預設規則——類似一個自動售貨機,用戶點擊一個按鈕,系統從預先準備好的貨架上取出一個確定的商品。這個結果是有限的、可窮舉的,系統只需做好高併發的“存取”操作。

  豆包App在春晚提供的AI互動則更像一個能夠自由創作的機器人。據介紹,它能先感知、再規劃、後行動。首先“聽懂”用戶的開放式指令,比如“給我生成一個馬年頭像”“寫一段拜年祝福語”等,並能感知多模態的信息,如用戶上傳自己的圖片。接收到指令後,自主“規劃”一個複雜的執行鏈路,例如生成一張圖片可能需要依次調用意圖理解模型、安全審核模型、圖片生成模型等多個模型和工具。最終執行規劃,實時生成前所未見的、高度個性化的內容(文字、圖片等),並將結果呈現給用戶。

  這種開放式、實時生成、多模態的特性,正是AI Agent(智慧體)的核心能力,也構成了“AI互動”與傳統“固定規則交互”的本質不同,為每一個用戶,在每一個瞬間,進行一次獨一無二的“實時創作”。

  馬年奔騰,萬象更新。這場春晚告訴我們,中國智造正在加速奔跑,而它的終點,永遠是那個更懂你、更溫暖的人間煙火處。

  綜編自科技日報、人民網、央視綜藝等

標簽: