隨著自然語言處理技術的發展以及客戶需求的提G,當機器人進入以人為主的環境時,需要學會理解人類語言,完成指定任務。相較于傳統只對場景做出反應的機器人操作方法,結合語義輸入,讓機器人理解人類語言,根據場景和自然語言指令完成相應任務,能為人機協作帶來更大的便利性。然而,目前該方法具有如下限制:
(1)依賴手工編碼任務符號來實現語義表達,限制了語義層面的泛化性。
(2)從指令中推斷動作序列時,需要密集的子目標監督。
(3)缺乏更深層次的以目標為中心的推理方法,在解釋復雜指令時不連貫。
針對上述問題,該文章提出了一種可感知視覺場景,同時處理語言輸入的端到端可訓練的模型。該模型使用視覺輸入得到當前場景中物體在初始狀態下的位置關系,以語義文字推理目標狀態下對應的位置關系,實現由自然語言引導機器人進行技能操作。 相關成果以“Learning Neuro-symbolic Programs for Language Guided Robot Manipulation”為題發表于International Conference on Robotic and Automation (ICRA)會議中。
該文章提出了一種新型神經符號模型,使用自然語言推理目標場景,實現在給定初始場景和目標場景的情況下即可學習執行復雜的操作任務,并展示了如何在不需要任何中間監督的情況下,僅使用初始與目標兩個場景作為監督來獲取機器人操作動作的密集表示。 實驗表明,該文章的方法可通過端到端的訓練而不需進行任何子目標監督,即可展現出強大的指令理解能力,并對新場景和指令展現出強大的泛化能力,為將來基于自然語言的人機協作,機器人的語義指令集的拓展提供了新的參考思路。
1、模型結構設計
該端到端模型的結構如圖1所示,由視覺提取器、語言解釋器、視覺解釋器、動作模擬器組成。輸入初始場景和基于自然語言的任務指令,模型輸出完成該指令所需的動作參數,以及預測完成任務后的終場景。
視覺提取器相當于一個目標檢測模型,用于識別初始場景下的物體信息。以圖11為例,輸入桌面初始狀態的圖像,視覺提取器輸出各個物體的外接框、顏色信息及物體名稱,并由外接框在桌面上的相對位置推斷物體的位置信息。
語言解釋器用于處理自然語言指令推理任務中隱含的操作動作。例如圖中“移動綠色骰子后面的紅色骰子至紅色方塊的右邊”這句指令,語言解釋器經過推理會得到完成該任務需要進行“移動”動作,移動的物體是“位于綠色骰子后面的紅色骰子”,目標是“紅色方塊右邊”,并可屏蔽“綠色方塊”和“藍色骰子”這些與完成任務無關的信息。推理完畢后,以專用指令集組合出推理結果。
專用指令集的結構如圖2所示,分為“關鍵詞”和“操作詞”,前者用于描述物體信息,后者用于表示操作信息。
視覺解釋器結合前二者輸出的場景信息和任務指令集,輸出完成該任務所需的參數化表示,交由任務模擬器生成機器人所能執行的動作參數,并預測完成任務后的場景情況。
以預測場景和數據集中提前設定好的目標場景做差,設置損失函數,即可實現端到端的訓練過程。
資料獲取 | |
服務機器人在展館迎賓講解 |
|
新聞資訊 | |
== 資訊 == | |
» 精密減速器:群雄逐鹿,新的篇章-市場規模 | |
» 機器人旋轉關節核心部件,精密減速器國產替 | |
» 人形機器人本體研究(一):宇樹科技,10 | |
» 2025養老機器人行業政策-《互聯家庭環 | |
» 養老機器人研究,近萬億級機器人市場,生態 | |
» 人形機器人市場規模,它還能有多大-205 | |
» 7個關于人形機器人的關鍵要點:市場,技術 | |
» 2025~2035元趨勢報告(機器人)- | |
» 山東省“人工智能+教育”實施方案2025 | |
» 2025具身機器人行業未來展望報告-當前 | |
» 機器人和嵌入式邊緣AI應用設計的計算平臺 | |
» 人腦與機器人大腦對應關系:大小腦對中央控 | |
» 人形機器人運動控制:制約商業化落地進程的 | |
» 山東省機器人產業高質量發展行動計劃(20 | |
» 2025AI賦能教育:高考志愿填報工具使 | |
== 機器人推薦 == | |
![]() 服務機器人(迎賓、講解、導診...) |
|
![]() 智能消毒機器人 |
|
![]() 機器人底盤 |
![]() |