1. 引言与概述
本研究探讨了现代工业自动化中的一个关键瓶颈:人机共享工作空间中的有效沟通。虽然协作机器人(cobots)已打破物理壁垒,但认知与沟通鸿沟依然存在。本研究提出,非语言线索——特别是机器人末端执行器上的彩色编码LED信号和平板电脑上的动态情感表达——可以弥合这一鸿沟,从而提升安全性与工作流效率。
核心假设是:将功能性意图信号(LED)与社会情感线索(面部表情)相结合,在碰撞预判、沟通清晰度和用户感知方面的表现将优于仅使用LED信号。
2. 方法论与实验设计
采用被试内设计,以严格测试不同的沟通模式。
2.1 机器人平台与改造
实验平台为Franka Emika Panda机械臂。进行了两项关键改造:
- LED灯带:安装在末端执行器上。颜色用于指示意图:绿色表示安全/静止,琥珀色表示注意/慢速移动,红色表示停止/存在碰撞风险。
- 情感表达界面:安装在机器人基座附近的平板电脑显示一张动态人脸。表情从中性到惊讶/担忧不等,由接近人类工人的距离触发。
2.2 实验条件
测试了三种不同的沟通条件:
- 条件A(仅LED): 基本的彩色编码灯光信号。
- 条件B(LED + 反应式情感表达): LED信号加上在碰撞风险即将发生时触发的面部表情。
- 条件C(LED + 预判式情感表达): LED信号加上在潜在碰撞发生前出现的面部表情,用于预示意图。
2.3 参与者与数据收集
N=18名参与者与机器人共同完成了一项协作装配任务。数据通过以下方式三角验证:
- 客观指标: 位置追踪(反应时间、与机器人的最小距离)。
- 主观指标: 任务后问卷(NASA-TLX用于工作量评估,自定义量表用于感知安全性、沟通清晰度和机器人交互性)。
3. 结果与分析
研究结果揭示了一幅微妙且有些反直觉的图景。
3.1 碰撞预判表现
关键结果: 在碰撞预判时间或最小避让距离上,三种条件之间未发现统计学上的显著差异。简单的LED信号在帮助人类避开机器人方面,与更复杂的情感表达同样有效。
图表含义: “平均反应时间(毫秒)”的柱状图可能会显示代表条件A、B、C的三根柱子,其误差条相互重叠,表明没有实际差异。
3.2 感知清晰度与交互性
分歧结果: 虽然客观表现相似,但主观感知存在差异。问卷数据表明,包含情感表达的条件(B和C)在感知机器人交互性与社会临场感方面的评分显著更高。
图表含义: “感知交互性得分”的折线图将显示从条件A(最低)到条件C(最高)的明显上升趋势。
3.3 任务效率指标
关键结果: 任务完成时间和错误率并未因添加情感表达而改善。仅LED条件为高效执行任务提供了足够信息,且无需处理额外情感线索可能带来的认知负荷。
核心性能发现
无显著改善
与仅使用LED信号相比,情感表达并未增强客观安全性(碰撞预判)或任务效率指标。
核心感知发现
感知交互性提升
尽管没有带来性能增益,但包含情感表达的条件在机器人交互性和社会临场感方面评分更高。
4. 技术实现细节
系统逻辑可形式化表述。系统监控机器人的状态和人的位置 $p_h$。基于机器人与人之间的距离 $d = ||p_r - p_h||$ 计算风险场 $R(d)$。
LED信号 $L$ 是 $R(d)$ 的直接函数:
$L = \begin{cases} \text{绿色} & R(d) < \tau_{safe} \\ \text{琥珀色} & \tau_{safe} \leq R(d) < \tau_{warning} \\ \text{红色} & R(d) \geq \tau_{warning} \end{cases}$
其中 $\tau_{safe}$ 和 $\tau_{warning}$ 是经验确定的阈值。反应式条件(B)中的情感表达 $E$ 在 $R(d) \geq \tau_{warning}$ 时触发。在预判式条件(C)中,其触发基于对人类运动的预测模型,试图在 $R(d)$ 达到警告阈值之前预示意图。
5. 批判性分析与专家解读
核心洞见: 本文为痴迷于拟人化的HRI设计者提供了一个关键且发人深省的现实检验。其核心发现——“情感表达提升了感知交互性,但并未改善功能性能”——是一个分水岭时刻。它迫使战略上产生分歧:我们是为用户参与度设计,还是为操作吞吐量设计?在高风险、效率驱动的共享工作空间中,本研究暗示,复杂的社会线索可能仅仅是“协作机器人化妆品”,增加了认知开销,却未在安全或速度上带来投资回报。LED灯带,作为一种简单、低成本且明确的信号,成为了无名英雄。
逻辑脉络与优势: 实验设计稳健。被试内方法控制了个体差异,三条件结构(仅LED、反应式、预判式)巧妙地隔离了情感线索时机这一变量。同时使用客观(运动追踪)和主观(问卷)指标是黄金标准,揭示了人们感受与行为之间的关键分歧。这与人类-机器交互其他领域的发现一致,例如麻省理工学院媒体实验室关于“平静技术”的研究,该研究倡导信息设计应位于注意力边缘,直到需要时才进入中心。
缺陷与错失的机会: 本研究的主要弱点是其规模(N=18)和可能同质化的参与者群体(学术环境),限制了对多样化产业工人的普适性。此外,“情感表达”是平板电脑上的2D卡通形象——与在波士顿动力的Spot或软银的Pepper等先进社交机器人平台上研究的集成、细腻的表情相去甚远。更具物理实体性或更复杂的表达是否会改变结果?研究也未探讨长期效应;情感表达的新奇感可能会消退,或其效用可能随着熟悉度而增加,这在纵向HRI研究中已有观察。
可操作的见解: 对于行业从业者而言,指令是明确的:优先考虑清晰度而非魅力。 首先投资于坚实、直观的功能性信号(如设计良好的LED状态),这些信号直接映射到机器人动作状态。只有在这个基础奠定之后,才应考虑添加情感层面,并且必须对其具体效用有明确的假设——或许是为了减少长期疲劳、提高复杂任务中的信任度或辅助培训。本研究呼应了开创性著作《媒体等同论》(Reeves & Nass)中的原则——人们以社会方式对待媒体——但增加了一个关键的工业告诫:当任务是程序性和目标导向时,社会性对待并不总能转化为功能性改进。
6. 分析框架与案例示例
框架:“功能性-社会性沟通矩阵”
本研究启发了一个简单的2x2框架,用于评估HRI沟通模式:
| 高功能效用 | 低功能效用 | |
|---|---|---|
| 高社会参与度 | 理想型 例如,一个既能指示方向又感觉自然的手势。 | 分散注意力的装饰 例如,本研究中的情感表达——受人喜爱但对任务无益。 |
| 低社会参与度 | 高效工具 例如,仅LED信号——清晰、有效,但“冰冷”。 | 无效型 例如,嘈杂工厂中的细微声音提示。 |
案例应用: 考虑一个汽车装配线,协作机器人将重型工具递给工人。
• LED信号(高效工具): 夹爪上的绿灯意味着“我正牢固地握着工具,你可以取走。” 这具有高功能效用,低社会参与度。它能安全地完成任务。
• 添加点头动作(理想型): 编程机械臂在亮绿灯的同时做出轻微、缓慢的“点头”动作。这可以强化“准备移交”状态(功能性),同时利用生物学上直观的社会线索,可能减少工人的认知验证负荷。然而,本研究将提醒,应对此点头动作进行A/B测试,以确保其确实提高了交接速度或降低了错误率,而不仅仅是增加了好感度。
7. 未来应用与研究展望
本研究开辟了几个关键方向:
- 自适应与个性化界面: 未来的系统可以自适应调整其沟通风格。对于新学员,机器人可能同时使用LED和情感表达以增强安抚感。对于执行重复性任务的熟练工人,它可以切换到仅LED模式以实现最高效率,降低认知负荷。NASA的自适应自动化研究和智能辅导系统领域为此提供了坚实基础。
- 纵向与生态学研究: 关键的下一步是从实验室短期试验转向实际工厂中的长期实地研究。社会线索的价值是否会随着数周或数月的协作而改变?这类似于人机自动化交互中的纵向信任校准研究。
- 多模态融合: 与其孤立地测试模态,研究应探索最优的组合与冗余。轻微触觉振动(例如,在工人的腕带中)与LED信号配对,是否能在视觉杂乱的环境中胜过任一单独模态?卡内基梅隆大学人机交互研究所等机构推进的多模态交互领域与此直接相关。
- 用于错误沟通与信任修复的情感表达: 虽然对常规避碰无益,但情感表达可能在传达机器人不确定性、系统错误或需要人工帮助方面具有独特优势。抓取失败后显示“困惑”或“抱歉”的表情,可能比简单的错误指示灯更有效地请求人工干预,从而促进更快的信任修复——这是HRI中的一个主要挑战。
8. 参考文献
- Ibrahim, M., Kshirsagar, A., Koert, D., & Peters, J. (2025). Investigating the Effect of LED Signals and Emotional Displays in Human-Robot Shared Workspaces. arXiv preprint arXiv:2509.14748.
- Reeves, B., & Nass, C. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. CSLI Publications.
- Weiser, M., & Brown, J. S. (1996). Designing Calm Technology. PowerGrid Journal, 1(1).
- Goodrich, M. A., & Schultz, A. C. (2007). Human-Robot Interaction: A Survey. Foundations and Trends® in Human–Computer Interaction, 1(3), 203-275.
- Lee, J. D., & See, K. A. (2004). Trust in Automation: Designing for Appropriate Reliance. Human Factors, 46(1), 50–80.
- Breazeal, C. (2003). Toward sociable robots. Robotics and Autonomous Systems, 42(3-4), 167-175.
- MIT Media Lab. (n.d.). Calm Technology. Retrieved from relevant project pages.