【CNMO 新聞】近日,谷歌推出了人工智能模型 PaLM-SayCan,將可讓公司打造的機器人更容易理解使用者所下達口語指令,進而正確執行工作。

雖然機器人能一定程度上理解語意,但由于有時候它與人腦所理解內容有所差異,所以一些較為復雜的指令它會無法理解。比如它能理解你讓它拿起一顆蘋果這種指令,但是它無法理解你說 " 我剛運動完,你能幫我準備一些健康的點心嗎?"
即便目前機器人已經可以通過 GPT-3 大型語言模型理解人類語句的深層含義,但距離讓機器人實際理解人類日常生活中的用語背后的需求,還有一段不小的路要走,其原因在于人腦對語句背后的內容會有一定程度的想象。比如當人打翻飲料,向他人提出幫忙請求時,大家就會自然理解需要對現場進行清理,因此能不必下達詳細命令就拿抹布擦拭地面、拿掃把清理碎裂物品等。
但機器人目前仍無法實現此類聯想,僅能從現有資料庫比對可行的做法,導致經常出現答非所問的情況。而谷歌此次推出的 PaLM-SayCan 模型,則可以進一步協助機器人判斷人類語句背后潛藏的需求,并進一步將相關語句轉換成可讓機器人正確執行的指令內容,以此強化指令執行的正確率。
目前谷歌已經通過 GitHub 公開 PaLM-SayCan 模型相關內容,讓有興趣的開發者、設計團隊進行測試。
原文地址:http://www.myzaker.com/article/62fdf03cb15ec00d4c103bff