1. 緒論與概述
本研究探討現代工業自動化中的一個關鍵瓶頸:人機共享工作區中的有效溝通。雖然協作型機器人(cobots)已打破物理障礙,但認知與溝通上的鴻溝依然存在。本研究提出,非語言線索——特別是機器人末端執行器上的顏色編碼LED訊號和平板電腦上的動畫情緒顯示——可以彌合此鴻溝,提升安全性與工作流程效率。
核心假設是:結合功能性意圖訊號(LED)與社會情緒線索(面部表情),在碰撞預期、溝通清晰度和使用者感知等衡量指標上,將優於僅使用LED訊號。
2. 方法論與實驗設計
採用受試者內設計,以嚴格測試不同的溝通模式。
2.1 機器人平台與改裝
測試平台為Franka Emika Panda機械手臂。進行了兩項關鍵改裝:
- LED燈條:安裝於末端執行器上。顏色代表意圖:綠色表示安全/靜止,琥珀色表示注意/緩慢移動,紅色表示停止/碰撞風險。
- 情緒顯示:安裝於機器人底座附近的平板電腦顯示一張動畫臉孔。表情從中性到驚訝/擔憂,由接近人類工作者的距離觸發。
2.2 實驗條件
測試了三種不同的溝通條件:
- 條件A(僅LED):基本的顏色編碼燈光訊號。
- 條件B(LED + 反應式情緒顯示): LED訊號加上針對即將發生的碰撞風險而觸發的面部表情。
- 條件C(LED + 預先式情緒顯示): LED訊號加上在潛在碰撞發生前出現的面部表情,用以傳達預測性意圖。
2.3 參與者與資料收集
N=18名參與者與機器人進行協作組裝任務。資料來自以下三個方面的交叉驗證:
- 客觀指標:位置追蹤(反應時間、與機器人的最小距離)。
- 主觀指標:任務後問卷調查(NASA-TLX用於工作量評估,自訂量表用於感知安全性、溝通清晰度和機器人互動性)。
3. 結果與分析
研究結果揭示了一個細微且有些反直覺的圖像。
3.1 碰撞預期表現
關鍵結果:在三種條件之間,碰撞預期時間或最小迴避距離均未發現統計學上的顯著差異。簡單的LED訊號在幫助人類避開機器人方面,與更複雜的情緒顯示同樣有效。
圖表意涵:「平均反應時間(毫秒)」的長條圖可能會顯示三條長條(分別對應條件A、B、C),其誤差範圍相互重疊,表明沒有實際差異。
3.2 感知清晰度與互動性
分歧結果:雖然客觀表現相似,但主觀感知有所不同。問卷資料顯示,包含情緒顯示的條件(B和C)在感知機器人互動性與社會存在感方面的評分顯著更高。
圖表意涵:「感知互動性分數」的折線圖將顯示從條件A(最低)到條件C(最高)的明顯上升趨勢。
3.3 任務效率指標
關鍵結果:任務完成時間和錯誤率並未因加入情緒顯示而改善。僅LED的條件提供了足夠的資訊以進行高效的任務執行,且無需處理額外情緒線索可能帶來的認知負荷。
核心表現發現
無顯著改善
與僅使用LED訊號相比,情緒顯示並未增強客觀安全性(碰撞預期)或任務效率指標。
核心感知發現
感知互動性提升
儘管沒有帶來表現增益,但包含情緒顯示的條件在機器人互動性和社會存在感方面獲得了更高評分。
4. 技術實作細節
系統的邏輯可以形式化。監控機器人狀態與人類位置 $p_h$。根據機器人與人類之間的距離 $d = ||p_r - p_h||$ 計算風險場 $R(d)$。
LED訊號 $L$ 是 $R(d)$ 的直接函數:
$L = \begin{cases} \text{綠色} & R(d) < \tau_{safe} \\ \text{琥珀色} & \tau_{safe} \leq R(d) < \tau_{warning} \\ \text{紅色} & R(d) \geq \tau_{warning} \end{cases}$
其中 $\tau_{safe}$ 和 $\tau_{warning}$ 是根據經驗確定的閾值。反應式條件(B)中的情緒顯示 $E$ 在 $R(d) \geq \tau_{warning}$ 時觸發。在預先式條件(C)中,則基於人類動作的預測模型觸發,試圖在 $R(d)$ 達到警告閾值之前傳達意圖。
5. 批判性分析與專家解讀
核心洞見:本文為著迷於擬人化的HRI設計師提供了一個關鍵且發人深省的現實檢驗。其核心發現——「情緒顯示增加了感知互動性,但並未改善功能性表現」——是一個分水嶺時刻。它迫使策略上的二分法:我們是為使用者參與度設計,還是為操作吞吐量設計?在高風險、效率驅動的共享工作區中,這項研究表明,精緻的社交線索可能只是「協作機器人的化妝品」,增加了認知負擔,卻未在安全性或速度上帶來投資回報。LED燈條這種簡單、低成本且明確的訊號,成為了無名英雄。
邏輯流程與優點:實驗設計穩健。受試者內設計控制了個體差異,三部分條件結構(僅LED、反應式、預先式)優雅地隔離了情緒線索時機這個變數。同時使用客觀(動作追蹤)和主觀(問卷)指標是黃金標準,揭示了人們感受與行為之間的關鍵分歧。這與人機互動其他領域的發現一致,例如麻省理工學院媒體實驗室關於「平靜科技」的研究,該研究主張資訊設計應位於注意力的邊緣,直到需要時才進入中心。
缺陷與錯失的機會:本研究的主要弱點在於其規模(N=18)和可能同質化的參與者群體(學術環境),限制了對不同產業工人的普遍適用性。此外,「情緒顯示」是平板電腦上的2D卡通圖像——與波士頓動力公司的Spot或軟銀的Pepper等高階社交機器人平台所研究的整合、細膩表情相去甚遠。更具物理實體性或更複雜的表情是否會改變結果?本研究也未探討長期效應;情緒顯示的新奇感可能會消退,或者其實用性可能會隨著熟悉度而增加,這在縱向HRI研究中已有觀察。
可操作的見解:對於產業從業者而言,指令很明確:優先考慮清晰度而非魅力。首先投資於穩固、直觀的功能性訊號(如設計良好的LED狀態),這些訊號直接對應機器人的動作狀態。只有在這個基礎奠定之後,才應考慮添加情緒層次,並且必須對其特定效用有明確的假設——或許是為了減少長期疲勞、提高複雜任務中的信任度,或協助訓練。這項研究呼應了開創性著作《媒體等同論》(Reeves & Nass)中的原則——人們以社會化方式對待媒體——但增加了一個關鍵的工業警告:當任務是程序性和目標導向時,社會化對待並不一定能轉化為功能性改善。
6. 分析框架與案例範例
框架:「功能性-社交性溝通矩陣」
本研究啟發了一個簡單的2x2框架,用於評估HRI溝通模式:
| 高功能性效用 | 低功能性效用 | |
|---|---|---|
| 高社交參與度 | 理想 例如,一個既能指示方向又感覺自然的手勢。 | 分散注意力的裝飾 例如,本研究中的情緒顯示——受喜愛但對任務無幫助。 |
| 低社交參與度 | 高效工具 例如,僅LED訊號——清晰、有效,但「冰冷」。 | 無效 例如,在嘈雜工廠中的細微聲音提示。 |
案例應用:考慮一個汽車裝配線,協作機器人將重型工具遞給工人。
• LED訊號(高效工具):夾爪上的綠燈表示「我正穩固地握著工具,你可以取走。」這具有高功能性效用,低社交參與度。它能安全地完成任務。
• 添加點頭動作(理想):為機械手臂編程,使其在亮綠燈的同時做出輕微、緩慢的「點頭」動作。這可以強化「準備好遞交」的狀態(功能性),同時利用生物學上直觀的社交線索,可能減少工人的認知驗證負荷。然而,本研究會提醒,需要對此點頭動作進行A/B測試,以確保它確實提高了交接速度或降低了錯誤率,而不僅僅是增加了好感度。
7. 未來應用與研究方向
這項研究開啟了幾個關鍵方向:
- 適應性與個人化介面:未來的系統可以適應其溝通風格。對於新進學員,機器人可能同時使用LED和情緒顯示以增強安心感。對於執行重複性任務的熟練工人,則可切換到僅LED模式以實現最高效率,降低認知負荷。美國太空總署(NASA)的適應性自動化研究以及智慧導學系統領域為此提供了堅實基礎。
- 縱向與生態學研究:關鍵的下一步是從實驗室短期試驗轉向在實際工廠中進行長期實地研究。社交線索的價值是否會隨著數週或數月的協作而改變?這類似於人機自動化互動中的縱向信任校準研究。
- 多模態融合:與其孤立地測試單一模態,研究應探索最佳的組合與冗餘。在視覺雜亂的環境中,輕微的觸覺振動(例如在工人的腕帶中)與LED訊號配對,是否會優於單獨使用任一方式?卡內基美隆大學人機互動研究所等機構所推進的多模態互動領域與此直接相關。
- 用於錯誤溝通與信任修復的情緒顯示:雖然對常規碰撞避免沒有幫助,但情緒顯示可能在傳達機器人不確定性、系統錯誤或需要人類協助方面具有獨特優勢。抓取失敗後顯示「困惑」或「抱歉」的表情,可能比簡單的錯誤燈光更有效地尋求人類干預,從而促進更快的信任修復——這是HRI中的一個主要挑戰。
8. 參考文獻
- Ibrahim, M., Kshirsagar, A., Koert, D., & Peters, J. (2025). Investigating the Effect of LED Signals and Emotional Displays in Human-Robot Shared Workspaces. arXiv preprint arXiv:2509.14748.
- Reeves, B., & Nass, C. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. CSLI Publications.
- Weiser, M., & Brown, J. S. (1996). Designing Calm Technology. PowerGrid Journal, 1(1).
- Goodrich, M. A., & Schultz, A. C. (2007). Human-Robot Interaction: A Survey. Foundations and Trends® in Human–Computer Interaction, 1(3), 203-275.
- Lee, J. D., & See, K. A. (2004). Trust in Automation: Designing for Appropriate Reliance. Human Factors, 46(1), 50–80.
- Breazeal, C. (2003). Toward sociable robots. Robotics and Autonomous Systems, 42(3-4), 167-175.
- MIT Media Lab. (n.d.). Calm Technology. Retrieved from relevant project pages.