研究探討透過強化學習讓機器學習各種人類上臂運動。延續「運用氣動肌肉缸模擬上臂肌肉控制之研究」,透過有限的動作組可以控制上臂肌肉,然而因應環境條件的多變,模擬人類透過學習產生多樣多變的反應,在仿生的領域中有其必要。比較強化學習中的Actor-Critic與 DDPG (Deep Deterministic Policy Gradient)兩種模式,我們透過 Gym 建構具動作與環境限制的簡易訓練環境。比較兩個模型的細節後,最後選用了 DDPG 為我們主要的強化學習方法。首先我們利用 Tensorflow 模擬學習模式並記錄模擬移動的學習過程。我們運用到仿生手臂的實體,藉由影像辨識取得手臂的狀態,回饋至學習模型。仿生手臂運用學習資料進行移動,接著我們觀測系統所學習的移動是否可完成指定動作或工作。在軟體模擬中,我們證實了藉由達成數次目標的學習後,DDPG 可完成較細緻的移動。而 DDPG 在仿生手臂上的實作,則需透過輸出動作給氣動仿生手臂系統,來控制仿生手臂移動至目標位置。在未來,機器人將不單單只是運用馬達來當作動力來源,也能運用氣動肌肉缸成為動力元件。並且,人形機器人將會做出更像真實人體的動作。
「為配合國家發展委員會「推動ODF-CNS15251為政府為文件標準格式實施計畫」,以及
提供使用者有文書軟體選擇的權利,本館檔案下載部分文件將公布ODF開放文件格式,
免費開源軟體可至LibreOffice下載安裝使用,或依貴慣用的軟體開啟文件。」