在 2025 年,真的难以想象,机器人对于表情的控制管理已经到了这种程度:你好,很高兴在物理世界与你重逢。
一方面是微电机控制,脸部框架骨骼等,另外就是程序算法部分。据介绍,这部分是依赖了大语言模型,机器人可以对着镜子来关联具体哪个位置,什么程度的表情控制,对于视觉的表现是如何的,另外一部分,则是根据视频来学习,模拟人的表情,跟刚建立的控制关联对应起来。
大语言模型还有语音的模仿,语义情感的理解,模型构建了这一整套的对应关系。
机器人的观察如此细微,对于任何一个微表情都不会错过,立即反应。
它是么得感情,但是有了大语言模型,它最懂你。