انتخاب زبان

تأثیر سیگنال‌های LED و نمایش‌های عاطفی در محیط‌های کاری مشترک انسان و ربات

مقاله تحقیقاتی بررسی‌کننده تأثیر ارتباط غیرکلامی (چراغ‌های LED و نمایش‌های عاطفی) بر ایمنی، وضوح و عملکرد وظیفه در محیط‌های همکاری انسان و ربات.
rgbcw.org | PDF Size: 1.9 MB
امتیاز: 4.5/5
امتیاز شما
شما قبلاً به این سند امتیاز داده اید
جلد سند PDF - تأثیر سیگنال‌های LED و نمایش‌های عاطفی در محیط‌های کاری مشترک انسان و ربات

1. مقدمه و مرور کلی

این پژوهش به بررسی یک گلوگاه حیاتی در اتوماسیون صنعتی مدرن می‌پردازد: ارتباط مؤثر در محیط‌های کاری مشترک انسان و ربات. در حالی که ربات‌های همکار (کوبات‌ها) موانع فیزیکی را درنوردیده‌اند، شکافی شناختی و ارتباطی همچنان باقی است. این مطالعه فرض می‌کند که نشانه‌های غیرکلامی—به طور خاص سیگنال‌های LED کدگذاری شده با رنگ روی اند-افکتور ربات و نمایش‌های عاطفی متحرک روی یک تبلت—می‌توانند این شکاف را پر کنند و ایمنی و کارایی گردش کار را افزایش دهند.

فرضیه اصلی این بود که ترکیب سیگنال‌های قصد عملکردی (LED) با نشانه‌های اجتماعی-عاطفی (حالت‌های چهره) در معیارهای پیش‌بینی برخورد، وضوح ارتباط و ادراک کاربر، عملکرد بهتری نسبت به LED به تنهایی خواهد داشت.

2. روش‌شناسی و طراحی آزمایش

یک طرح درون‌موضوعی برای آزمودن دقیق روش‌های ارتباطی به کار گرفته شد.

2.1 پلتفرم ربات و اصلاحات

بستر آزمایش یک بازوی رباتیک Franka Emika Panda بود. دو اصلاح کلیدی انجام شد:

  • نوار LED: روی اند-افکتور نصب شد. رنگ‌ها قصد را نشان می‌دادند: سبز برای ایمن/ثابت، کهربایی برای احتیاط/حرکت آهسته، قرمز برای توقف/خطر برخورد.
  • نمایش عاطفی: یک تبلت نصب‌شده نزدیک پایه ربات، یک چهره متحرک نشان می‌داد. حالت‌های چهره از خنثی تا متعجب/نگران متغیر بود و با نزدیکی به کارگر انسان فعال می‌شد.

2.2 شرایط آزمایشی

سه حالت ارتباطی مجزا آزمایش شد:

  1. شرط A (فقط LED): سیگنال‌های نوری کدگذاری شده ساده با رنگ.
  2. شرط B (LED + نمایش عاطفی واکنشی): سیگنال‌های LED به علاوه حالت‌های چهره که در واکنش به خطر قریب‌الوقوع برخورد فعال می‌شدند.
  3. شرط C (LED + نمایش عاطفی پیش‌گیرانه): سیگنال‌های LED به علاوه حالت‌های چهره که قبل از یک برخورد بالقوه ظاهر می‌شدند و قصد پیش‌بینی‌شده را نشان می‌دادند.

2.3 شرکت‌کنندگان و جمع‌آوری داده

N=18 شرکت‌کننده یک وظیفه مونتاژ مشارکتی را با ربات انجام دادند. داده‌ها از منابع زیر سه‌گانه‌سازی شد:

  • معیارهای عینی: ردیابی موقعیت (زمان واکنش، حداقل فاصله تا ربات).
  • معیارهای ذهنی: پرسشنامه‌های پس از وظیفه (NASA-TLX برای بارکاری، مقیاس‌های سفارشی برای ایمنی ادراک شده، وضوح ارتباط و تعامل‌پذیری ربات).

3. نتایج و تحلیل

یافته‌ها تصویری ظریف و تا حدی خلاف شهود آشکار کرد.

3.1 عملکرد پیش‌بینی برخورد

نتیجه کلیدی: هیچ تفاوت آماری معناداری در زمان پیش‌بینی برخورد یا حداقل فاصله اجتناب در بین سه شرط یافت نشد. سیگنال ساده LED در توانمندسازی انسان‌ها برای اجتناب از ربات، به اندازه نمایش‌های عاطفی پیچیده‌تر مؤثر بود.

پیامد نمودار: یک نمودار میله‌ای از "میانگین زمان واکنش (میلی‌ثانیه)" احتمالاً سه میله (برای شرط‌های A، B، C) با میله‌های خطای همپوشان نشان می‌دهد که نشان‌دهنده عدم تفاوت عملی است.

3.2 وضوح ادراک شده و تعامل‌پذیری

نتیجه واگرا: در حالی که عملکرد عینی مشابه بود، ادراکات ذهنی متفاوت بود. داده‌های پرسشنامه نشان داد که شرایط دارای نمایش عاطفی (B و C) به طور معناداری در تعامل‌پذیری ادراک شده ربات و حضور اجتماعی بالاتر ارزیابی شدند.

پیامد نمودار: یک نمودار خطی از "امتیاز تعامل‌پذیری ادراک شده" یک روند صعودی واضح از شرط A (کمترین) به شرط C (بیشترین) نشان می‌دهد.

3.3 معیارهای کارایی وظیفه

نتیجه کلیدی: زمان تکمیل وظیفه و نرخ خطا با افزودن نمایش‌های عاطفی بهبود نیافت. شرط فقط LED اطلاعات کافی برای اجرای کارآمد وظیفه بدون بار شناختی بالقوه پردازش یک نشانه عاطفی اضافی فراهم کرد.

یافته اصلی عملکرد

بدون بهبود معنادار

نمایش‌های عاطفی در مقایسه با سیگنال‌های LED به تنهایی، معیارهای ایمنی عینی (پیش‌بینی برخورد) یا کارایی وظیفه را افزایش ندادند.

یافته اصلی ادراک

افزایش تعامل‌پذیری ادراک شده

شرایط دارای نمایش عاطفی، علیرغم عدم کسب عملکرد بهتر، برای تعامل‌پذیری ربات و حضور اجتماعی بالاتر ارزیابی شدند.

4. جزئیات پیاده‌سازی فنی

منطق سیستم را می‌توان صوری کرد. وضعیت ربات و موقعیت انسان $p_h$ پایش می‌شود. یک میدان خطر $R(d)$ بر اساس فاصله $d = ||p_r - p_h||$ بین ربات و انسان محاسبه می‌شود.

سیگنال LED $L$ تابعی مستقیم از $R(d)$ است:

$L = \begin{cases} \text{سبز} & R(d) < \tau_{safe} \\ \text{کهربایی} & \tau_{safe} \leq R(d) < \tau_{warning} \\ \text{قرمز} & R(d) \geq \tau_{warning} \end{cases}$

که در آن $\tau_{safe}$ و $\tau_{warning}$ آستانه‌های تعیین شده تجربی هستند. نمایش عاطفی $E$ در شرط واکنشی (B) زمانی فعال می‌شد که $R(d) \geq \tau_{warning}$. در شرط پیش‌گیرانه (C)، بر اساس یک مدل پیش‌بینی‌کننده حرکت انسان فعال می‌شد و سعی می‌کرد قصد را قبل از رسیدن $R(d)$ به آستانه هشدار نشان دهد.

5. تحلیل انتقادی و تفسیر تخصصی

بینش اصلی: این مقاله یک بررسی واقعیت حیاتی و هوشیارکننده برای طراحان HRI که شیفته انسان‌نمایی هستند ارائه می‌دهد. یافته مرکزی آن—که "نمایش‌های عاطفی تعامل‌پذیری ادراک شده را افزایش دادند اما عملکرد عملکردی را بهبود نبخشیدند"—یک نقطه عطف است. این امر یک دوگانگی استراتژیک را تحمیل می‌کند: آیا ما برای مشارکت کاربر طراحی می‌کنیم یا برای توان عملیاتی عملیاتی؟ در محیط‌های کاری مشترک پرمخاطره و محرک کارایی، این مطالعه نشان می‌دهد که نشانه‌های اجتماعی پیچیده ممکن است صرفاً "آرایش کوبات" باشند که بار شناختی اضافه می‌کنند بدون بازگشت سرمایه روی ایمنی یا سرعت. نوار LED، یک سیگنال ساده، کم‌هزینه و بدون ابهام، به عنوان قهرمان گمنام ظاهر می‌شود.

جریان منطقی و نقاط قوت: طراحی آزمایش قوی است. رویکرد درون‌موضوعی تفاوت‌های فردی را کنترل می‌کند و ساختار سه‌گانه شرط (فقط LED، واکنشی، پیش‌گیرانه) به زیبایی متغیر زمان‌بندی نشانه عاطفی را جدا می‌کند. استفاده همزمان از معیارهای عینی (ردیابی حرکت) و ذهنی (پرسشنامه) یک استاندارد طلایی است که واگرایی حیاتی بین آنچه مردم احساس می‌کنند و آنچه انجام می‌دهند را آشکار می‌کند. این با یافته‌ها در سایر حوزه‌های تعامل انسان-ماشین، مانند تحقیقات آزمایشگاه رسانه MIT در مورد "فناوری آرام"، همسو است که از طراحی اطلاعاتی دفاع می‌کند که تا زمان نیاز در حاشیه توجه قرار دارد.

نقاط ضعف و فرصت‌های از دست رفته: ضعف اصلی مطالعه مقیاس آن (N=18) و احتمالاً گروه شرکت‌کنندگان همگن (محیط آکادمیک) است که تعمیم‌پذیری به کارگران صنعتی متنوع را محدود می‌کند. علاوه بر این، "نمایش عاطفی" یک کارتون دو بعدی روی تبلت بود—که بسیار دور از حالت‌های چهره یکپارچه و ظریف مورد مطالعه در پلتفرم‌های رباتیک اجتماعی پیشرفته مانند اسپات بوستون داینامیکس یا پپر سافت‌بانک است. آیا یک بیان فیزیکی‌تر یا پیچیده‌تر نتیجه را تغییر می‌داد؟ این مطالعه همچنین اثرات بلندمدت را بررسی نمی‌کند؛ تازگی یک نمایش عاطفی ممکن است از بین برود، یا کاربرد آن ممکن است با آشنایی افزایش یابد، پدیده‌ای که در مطالعات طولی HRI مشاهده شده است.

بینش‌های قابل اجرا: برای متخصصان صنعت، دستورالعمل روشن است: وضوح را بر جذابیت اولویت دهید. ابتدا در سیگنال‌دهی عملکردی مستحکم و شهودی (مانند حالت‌های LED طراحی‌شده) سرمایه‌گذاری کنید که مستقیماً به حالت‌های عمل ربات نگاشت می‌شود. تنها پس از استقرار آن پایه، باید به افزودن لایه‌های عاطفی فکر کنید، و آن هم تنها با یک فرضیه واضح در مورد کاربرد خاص آن‌ها—شاید برای کاهش خستگی بلندمدت، بهبود اعتماد در وظایف پیچیده، یا کمک به آموزش. این پژوهش اصل کار بنیادین "معادله رسانه" (ریوز و ناس) را بازتاب می‌دهد—که مردم با رسانه به صورت اجتماعی رفتار می‌کنند—اما یک هشدار صنعتی حیاتی اضافه می‌کند: رفتار اجتماعی همیشه زمانی که وظیفه رویه‌ای و هدف‌محور است، به بهبود عملکردی ترجمه نمی‌شود.

6. چارچوب تحلیل و مثال موردی

چارچوب: "ماتریس ارتباط عملکردی-اجتماعی"

این مطالعه الهام‌بخش یک چارچوب ساده 2x2 برای ارزیابی روش‌های ارتباطی HRI است:

کاربرد عملکردی بالاکاربرد عملکردی پایین
مشارکت اجتماعی بالاایده‌آل
مثلاً، یک ژست که هم جهت را نشان می‌دهد و طبیعی احساس می‌شود.
تزئین حواس‌پرتی‌کننده
مثلاً، نمایش عاطفی در این مطالعه—دوست‌داشتنی اما برای وظیفه مفید نبود.
مشارکت اجتماعی پایینابزار کارآمد
مثلاً، سیگنال فقط LED—واضح، مؤثر، اما "سرد".
بی‌اثر
مثلاً، یک نشانه صوتی ظریف در یک کارخانه پرسر و صدا.

کاربرد موردی: یک خط مونتاژ خودرو را در نظر بگیرید که یک کوبات ابزارهای سنگین را به کارگر می‌دهد.
سیگنال LED (ابزار کارآمد): یک چراغ سبز روی گریپر به معنای "من ابزار را محکم نگه داشته‌ام، می‌توانی آن را بگیری." این از کاربرد عملکردی بالا و مشارکت اجتماعی پایین برخوردار است. کار را به طور ایمن انجام می‌دهد.
افزودن حرکت سر تایید (ایده‌آل): برنامه‌ریزی بازوی ربات برای انجام یک حرکت "تایید" آرام و آهسته همراه با چراغ سبز. این می‌تواند حالت "آماده برای تحویل" (عملکردی) را تقویت کند و در عین حال از یک نشانه اجتماعی بیولوژیکی-شهودی استفاده کند و به طور بالقوه بار تأیید شناختی کارگر را کاهش دهد. با این حال، این مطالعه احتیاط می‌کند که این حرکت تایید را به صورت A/B آزمایش کنید تا مطمئن شوید که واقعاً سرعت تحویل یا نرخ خطا را بهبود می‌بخشد، نه فقط محبوبیت.

7. کاربردهای آینده و جهت‌های تحقیقاتی

این پژوهش چندین مسیر محوری را باز می‌کند:

  • رابط‌های سازگار و شخصی‌سازی‌شده: سیستم‌های آینده می‌توانند سبک ارتباطی خود را سازگار کنند. برای یک کارآموز جدید، ربات ممکن است از هر دو نمایش LED و عاطفی برای اطمینان‌بخشی بیشتر استفاده کند. برای یک کارگر خبره در یک وظیفه تکراری، می‌تواند به حالت فقط LED برای حداکثر کارایی تغییر کند و بار شناختی را کاهش دهد. تحقیقات در اتوماسیون سازگار از ناسا و حوزه سیستم‌های آموزش هوشمند پایه محکمی برای این امر فراهم می‌کند.
  • مطالعات طولی و بوم‌شناختی: گام حیاتی بعدی حرکت از آزمایش‌های کوتاه‌مدت آزمایشگاهی به مطالعات میدانی بلندمدت در کارخانه‌های واقعی است. آیا ارزش نشانه‌های اجتماعی در طول هفته‌ها یا ماه‌های همکاری تغییر می‌کند؟ این مشابه مطالعات طولی کالیبراسیون اعتماد در تعامل انسان-اتوماسیون است.
  • ادغام چندوجهی: به جای آزمایش روش‌ها به صورت مجزا، تحقیقات باید ترکیب‌ها و افزونگی‌های بهینه را بررسی کنند. آیا یک لرزش لمسی جزئی (مثلاً در مچ‌بند کارگر) همراه با یک سیگنال LED می‌تواند از هر یک به تنهایی عملکرد بهتری داشته باشد، به ویژه در محیط‌های شلوغ بصری؟ حوزه تعامل چندوجهی، همانطور که توسط مؤسساتی مانند HCII دانشگاه کارنگی ملون پیشرفته شده، مستقیماً مرتبط است.
  • نمایش‌های عاطفی برای ارتباط خطا و ترمیم اعتماد: در حالی که برای اجتناب معمولی از برخورد مفید نیستند، نمایش‌های عاطفی ممکن است به طور منحصربه‌فردی قدرتمند برای ارتباط عدم قطعیت ربات، خطاهای سیستم، یا نیاز به کمک انسان باشند. یک چهره "سردرگم" یا "عذرخواه" پس از یک گرفتن ناموفق می‌تواند راهی کارآمدتر برای درخواست مداخله انسان نسبت به یک چراغ خطای ساده باشد و ترمیم سریع‌تر اعتماد را تسهیل کند—چالشی بزرگ در HRI.

8. مراجع

  1. Ibrahim, M., Kshirsagar, A., Koert, D., & Peters, J. (2025). Investigating the Effect of LED Signals and Emotional Displays in Human-Robot Shared Workspaces. arXiv preprint arXiv:2509.14748.
  2. Reeves, B., & Nass, C. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. CSLI Publications.
  3. Weiser, M., & Brown, J. S. (1996). Designing Calm Technology. PowerGrid Journal, 1(1).
  4. Goodrich, M. A., & Schultz, A. C. (2007). Human-Robot Interaction: A Survey. Foundations and Trends® in Human–Computer Interaction, 1(3), 203-275.
  5. Lee, J. D., & See, K. A. (2004). Trust in Automation: Designing for Appropriate Reliance. Human Factors, 46(1), 50–80.
  6. Breazeal, C. (2003). Toward sociable robots. Robotics and Autonomous Systems, 42(3-4), 167-175.
  7. MIT Media Lab. (n.d.). Calm Technology. Retrieved from relevant project pages.