AssetHub與Kapnetix以AI重塑3D內容製作流程
- 而 AssetHub 和 Kapnetix 分別從靜態建模與動態捕捉兩個方面,給出了實用的答案。
- AssetHub 與 Kapnetix 利用人工智能重塑了 3D 內容製作流程,展示了 AI 在生成 3D 模型上的應用,重新定義了這個領域的效率。
- 這兩家公司共同揭示了 3D 產業正在經歷的一場「去中心化」革命。
- 傳統上,3D 內容生產門檻高,只有大型公司能負擔得起。
AssetHub 與 Kapnetix 利用人工智能重塑了 3D 內容製作流程,展示了 AI 在生成 3D 模型上的應用,重新定義了這個領域的效率。對於開發者來說,最關注的是:「AI 究竟能否真正幫助內容生產」?而 AssetHub 和 Kapnetix 分別從靜態建模與動態捕捉兩個方面,給出了實用的答案。
AssetHub 提出了一種名為「AI-Native 3D Workflow」的方法。傳統的攝影測量法容易產生雜訊,但 AssetHub 能夠通過「部件拆解」(Part Decomposition)技術解決這個問題。當 AI 讀取一張 2D 角色設計圖時,它會先理解並分解出「這是頭髮」、「這是鞋子」、「這是裙子」等各個部分,然後再生成 3D 模型。AssetHub 的執行長後藤卓哉強調,AI 生成的模型需具有可編輯性,而不是單純看起來「像」。因此,他們提出了一種「人類參與循環」的概念——由 AI 生成 80%的內容結構,剩餘 20%則由專業 3D 美術人員修整(Retopology),這樣產生的模型不僅「分件清楚、可綁定骨架、可進引擎」,且產出效率大幅提高。原本需要兩週的手工建模流程現在可以縮短到幾天內完成。

Kapnetix 則通過手機等設備解決了動態捕捉的成本問題。傳統的動作捕捉技術需租用高挑攝影棚、安裝多個光學鏡頭,成本高昂且耗時。而 Kapnetix 的目標是將這一切趨近於零。它利用 AI 加上物理運算,實現單鏡頭 3D 骨架識別。開發者只需通過一支 iPhone 拍下真人動作影片並上傳到雲端平台,AI 就能在幾分鐘內生成對應的 3D 骨架數據(FBX 格式)。Kapnetix 的共同創辦人 Johny Darkwah 分享了一個早期失敗的例子:他們最初僅靠大量數據訓練 AI,結果產生了抖動和滑步等問題。最終,引入物理限制和人體工學邏輯後,成本大幅降低至一杯咖啡的價格。

這兩家公司共同揭示了 3D 產業正在經歷的一場「去中心化」革命。傳統上,3D 內容生產門檻高,只有大型公司能負擔得起。現在,AssetHub 和 Kapnetix 分別解決了靜態資產快速建構與動態表演低成本獲取的問題。他們不試圖用 AI 取代美術人員,而是利用 AI 取代繁重的工作流程,如拓撲整理、關鍵格修復和雜訊清理等。未來,遊戲開發或 VTuber 內容生產將更多地關注創意和故事性,而不是技術與預算限制。










