哥倫比亞大學創意機器實驗室開發了一款名為Emo的人形機器人頭部,可以準確、適當地模擬面部表情。
Emo配備了26個複雜的致動器,可以在840毫秒內預測和反映人類面部表情,包括微笑。
它的每個瞳孔中都有一個高解析度的攝像頭,可以跟蹤對話夥伴的眼睛。
Emo還配備了人工智慧模型,可以預測和響應人類表情,從樣本視頻中逐幀學習複雜的情緒。
儘管Emo目前缺乏語言解釋技能,但團隊的目標是將其與大型語言模型系統集成,以在未來實現更自然的人際互動。
Emo使用兩個人工智慧模型協同工作來預測和響應人類面部表情。第一個模型負責通過觀察目標面部的微小表情來預測人類的情緒和反應;第二個模型快速發出相應的機器人面部運動反應來模擬相應的表情。
EMO還可以通過自我監督的學習過程生成人類面部表情,而無需人類注釋。
這種學習方法允許EMO學習運動命令與人類觀察自己在鏡子中的反射所產生的表情之間的關係。
詳情:https://engineering.columbia.edu/news/robot-can-you-say-cheese
視頻: