最新機器人與 A.I.文章

Image credit:

東京工業大學開發可以預測 0.5 秒後的動作的「FuturePose」AI 系統

AI:「人類,你的動作已經被我看穿啦!」

Andy Yang
2019 年 4 月 24 日, 傍晚 09:00
分享次數
分享
分享
Twitter 發表
line
電郵
儲存

東京工業大學的研究團隊稍早發表了一套僅用一般 RGB 影片,就能預測畫面中人物未來動向的「FuturePose」系統。過去有過類似的預測系統相關的研究,但使用的是本身就自帶深度資訊的 Kinect,而東工大這邊則是完全靠著畫面本身畫素的流向,先透過機器學習與 AI 來定位關節,再由定位出來的關節和擺動方向,去推斷 3D 環境中的位置,整個過程簡直神奇。

靠著 AI 的推斷,這套 FuturePose 系統可以大約猜出人類 0.5 秒後的位置,頗有一點小說或漫畫裡那種「你的行動已經被我看穿啦」的風範。研究團隊也還真的實際給人戴上 Vive 頭套,顯示面前的另一個測試者予測動作。相較於沒有予測系統的 0.62 秒平均反應時間,戴上這套系統的人將平均降到了 0.41 秒。這是個很明顯的差距,但也沒有真的到可以變武林高手的程度就是囉 。

以真實世界的應用來說,東京大認為這可以做為格鬥練習的輔助系統,或是可以讓觀眾提前一步看到足球 PK 時守門員將往哪個方向躲。然而,只是為了這點小小的樂趣,就讓 AI 學會如何預判人類的行動,好像有點划不來啊...