韓國KAIST 研究團隊開發出一套四足機器人控制系統 DreamWaQ++,讓機器人透過相機、LiDAR 及機載感測器即時理解周圍環境,從而在複雜地形中行走。這套系統能實現類似動物在陌生環境中調整步伐的適應性移動。 DreamWaQ++ 建立在先前工作基礎上,先前版本僅依賴關節編碼器及慣性測量單元等內部感測器,讓機器人在無視覺輸入下行走。雖然那種方法即使在低能見度環境中也能維持穩定移動,但只能在物理接觸障礙物後才反應,無法預先避開危險。
DreamWaQ++ 加入外部感知功能,將視覺及深度感測與本體感覺反饋結合,讓機器人在接觸前辨識障礙物,並即時調整行走策略。這從反應式移動轉變為基於感知的運動,機器人在移動中主動解讀環境。研究團隊表示,這項升級讓機器人在災區、工業場地及不平坦自然地形等不可預測環境中更為穩健。
感知與運動融合
為實現此目標,團隊開發多模態強化學習框架,同時處理不同感測器輸入,並維持輕量運算以支援即時控制。系統能在發生錯誤時切換感測模式,提升穩定性和適應力。在測試中,機器人展現出色表現,爬上 50 階樓梯,水平距離 30.03 米、垂直高度 7.38 米,只需 35 秒,超越盲走系統及現有感知控制器。在陡峭地形實驗中,它成功攀爬高達 35 度坡度,遠超訓練條件,同時降低馬達負荷。
它亦展現適應性決策,無需外部規劃系統即可選擇高效路徑。 機器人還在不確定環境中顯示探索行為,會暫停評估斷崖後再前進。在障礙測試中,它清除高於自身的高度障礙,同時攜帶額外負載,展現強大平衡與穩定性。訓練讓它超越原條件泛化,雖然僅訓練小型障礙,卻在更大真實結構上取得高成功率,顯示強大適應力而非單純模式重複。研究團隊相信,此方法可擴展至輪腿式及人形機器人平台,用於檢查、農業、林業及緊急應變等領域。
領導研究的 Hyun Myung 教授表示:「這項研究顯示機器人已超越單純移動,達到理解環境並自主決策的水平。我們將進一步擴展至適用多種真實環境的智能移動技術。」研究已刊登於 IEEE Transactions on Robotics 期刊。




