AI玩具技术揭秘 | 不止是玩具:实丰文化携手移远通信,共同拆解桌面AI机器人的“大脑”与“心脏”

在AI重塑全球玩具产业的浪潮下,实丰文化坚持“科技+文化”双核驱动,持续深耕智能玩具赛道。从AI玩具“飞飞兔”的破圈走红,到“AI魔法星”荣获行业创新大奖,我们都在坚持以大模型技术为引擎,拓展玩具的“生命维度”——让玩具不只是玩具,而是更是具备情感温度的智能伙伴。

那么,这些具有“生命感”的AI玩具究竟是如何实现?

本专栏将全面解析实丰AI玩具背后的技术逻辑,不仅涵盖已上市的明星产品如何借助情感计算实现个性化互动,也将揭秘未发布新品在技术融合上的前沿探索。

本期内容重点聚焦即将面市的桌面AI机器人。我们特邀技术合作方——移远通信AI前沿技术中心总负责人王韬,以及实丰文化产品部总监纪一桀,共同揭示这款产品背后的设计理念与技术差异。

图片

桌面AI机器人


图片
00eb3d7e131a5ef2ed3a50f440d0ee6e.jpg

产品名称:桌⾯AI机器⼈(互动陪伴型)

• 核⼼定位:通过语⾳交互、多模态动作表情联动技术,打造具备情感陪伴、趣味互动、个性化定制的桌⾯智能设备,满⾜⽤⼾娱乐、陪伴及个性化表达需求。

图片
图片

移远通信


图片

上海移远通信技术股份有限公司成立于 2010 年,是全球领先的物联网整体解决方案供应商。深耕物联网行业十余年,公司拥有完备的 IoT 产品和服务,涵盖模组、天线等硬件产品,以及丰富的AI大模型、AI Agent、AI音视频算法等服务与解决方案

图片

Q:相较于单一互动模式的AI产品,实丰文化这款桌面AI机器人兼具智能语音互动和身体智能运动,移远通信在技术上怎么打破语音和肢体互动的“墙”?


移远通信AI前沿技术中心总负责人王韬认为,桌面AI机器人并不简单,这是一个复杂的系统,而移远通信恰好在具身智能和Agentic AI方面有着深厚丰富的积累。

实丰文化的桌面AI机器人搭载了移远AI解决方案,机器人因此听得懂、看得清、动得灵巧。

在智能语音算法层面,降噪、唤醒、AGC、EQ、ASR、TTS、Mic阵列声源定位&BF、声纹识别、声音克隆等等,不管是前端语音信号处理还是上层应用,都不在话下;

在视觉算法层面,移远的人脸识别、人形跟随、手势识别、情绪识别算法都会给用户带来丰富多彩的温情交互。

通过桌面AI机器人,移远还在解决方案中加入了多种交互,触摸传感器、电机、舵机、眼睛等等可以让桌面AI机器人肢体真正的动起来、活起来。

移远通信为实丰提供的端云融合的AI大模型能力核心在于构建“感知-决策-执行”的闭环系统。这一能力不仅打破了单一模态的交互局限,更通过情绪感知与场景化动作生成,赋予机器人“理解意图、感知情绪、主动响应”的类人交互能力,为智能硬件的人性化升级提供了新范式。

图片

实丰文化


Q1


为什么要做桌面AI机器人?

实丰文化产品部总监纪一桀表示,过去几十年,人机交互从按键交互到图形交互,再到触摸交互,语音交互,每一次演进都让交互又更自然了一点。但目前的AI,无论是智能音箱里的声音,还是手机里的助手,本质上仍然是一个“工具”或“信息提纯器”。它们被动响应,缺乏存在感和情感连续性。

我们相信,AI的下一阶段,是从“功能的智能化”走向“交互的人格化”。一个拥有实体形态、能通过丰富的肢体语言和表情进行交流的AI,是创造这种“人格化”交互的最佳载体。桌面AI机器人,就是这个理念下的具体实践。

Q2


多关节联动会增加产品研发成本与复杂度,从技术决策角度看,为何不选择局部区块的肢体互动,这种复杂设计对提升产品竞争力的必要性如何体现?

局部区块肢体互动虽能降低成本,但交互表现力有限,难以实现 “类人化” 的情感传递与动作表达。多关节联动是为了丰富人格化的特征—— 通过多维度、自然化的肢体动作,让产品从 “功能工具” 升级为 “情感交互载体”。

而从行业趋势看,消费者对智能产品的情感化、拟真化需求日益提升。多关节联动的复杂设计能让产品在交互体验上更“拟人化”,带给用户更沉浸式的体验,从而提升品牌定位,并且通过 “高拟真互动” 吸引注重体验的用户群体,最终在市场中建立 “场景体验+技术 ” 的双重竞争力。

Q3


产品选择的使用场景是“桌面”,这背后什么基于考量?

-交互频率与用户习惯:桌面是用户日常停留时间最长的区域之一,这种高频接触确保了机器人能与用户建立持续、自然的互动关系,而非像传统智能音箱那样仅作为偶尔唤醒的设备。

-技术实现的平衡点:桌面环境相对简单,让我们能更专注于桌面场景精细化交互体验的开发。

Q4


桌面AI机器人的肢体动作如何辅助情感表达?能否举例说明其为用户带来的情绪价值,比如陪伴或减压层面的具体体验?

肢体动作是情感表达不可或缺的一部分,它让AI从“工具”升华为“伙伴”。

-多个精细动作:该款桌面机器人能够完成摇头、转身、挥手等动作。这些动作不是程式化的僵硬动作,而是与情感状态联动——开心时动作轻快,疑惑时会侧头思考,安慰用户时会缓慢点头。

-表情与动作的协同:配合高清OLED表情系统,动作与面部表情形成三维一体的情绪表达。例如,当桌面机器人感觉放松时,它会眯眼;开心时会露出笑脸,难过时也会配合切换成哭泣表情;

-情境化行为设计:机器人能够根据环境上下文调整行为。当检测到用户情绪低落时,会主动靠近并进行贴心的交流;当长时间无人互动时,则会自己“找事情做”,如在屏幕上显示自娱自乐小游戏等。

Q5


多关节交互功能在学习、办公或家庭场景的实际使用价值,是否达到了贵司最初的产品定位预期?

语音、视觉、动作的多模态表现联动是我们产品的核心技术,目前在测试阶段的效果已经超出了我们最初的预期。在学习、办公、家庭等多个场景的应用表现都十分出色;其中在学习场景模拟里,当桌面机器人听见用户在练习英语对话时,会通过点头、手势等身体语言给予用户鼓励,这种拟人化的动作也让整个教育过程更生动有趣。而这一表现也符合我们最初打造“有温度的智能伙伴”这一定位。

当下,桌面AI机器人正从单纯的工具向情感伴侣、工作助手、学习伙伴等多重角色进化。我们将继续深耕交互技术,让机器人更好地理解人类情感,更自然地融入日常生活,成为每个人身边不可或缺的智能伙伴。


*以上所有内容以产品实际上市为准。