人工智慧真的太厲害了!竟然只要給音樂就能生成對應舞蹈呢!(下)
本文為下篇,上篇請看此連結
定性結果
如下圖所示,和先前 DanceNet(左)與 Li et. al.(中)相較之下,使用 FACT 模型(右)生成的 3D 舞蹈會更逼真,並且與音樂的相關性更好。
使用 FACT 人工智慧模型生成更多 3D 舞蹈:
人工智慧發展下一步:為每首歌生成逼真舞蹈
Google 開發了一個人工智慧模型,可以學習音頻與動作對應的關係,還可以基於音樂,生成的高質量 3D 動作序列。由於從音樂生成 3D 動作是一個新興的研究領域,Google 希望可以透過此項研究成果能為未來跨模組「音頻-3D 動作」的生成鋪道。
藉由這項研究,Google 還發布了迄今為止最大的 3D 人類舞蹈資料庫「AIST++」——具有多視角、多種舞蹈形式、跨模態的 3D 動作數據集,不僅對 3D 動作生成研究有幫助,一般來說,也對人類理解研究有極大的幫助。Google 將在 GitHub 中發布代碼,並在此處發布經過訓練的模型。
雖然此項結果給了這個「基於音樂來生成 3D 動作」的議題一個有希望的方向,但是還是有更多的東西仍需要探索:像是Google 所使用的方法是基於運動學的、並沒有將舞者和地板間的身體互動考慮進去。因此,如果進行全局平移的話,會導致如腳滑動和浮動的假影。因此,接下來的方向是要探索如何為每首音樂來生成多個逼真的舞蹈。
推薦閱讀:
油價漲免驚!Google Maps 用人工智慧規劃「最省油路線」
人類又輸了?工程師需花數月設計出IC晶片,AI六小時就搞定!
人工智慧幫你診斷皮膚疾病!Google AI鏡頭變身皮膚科幫手
留言列表