انتخاب زبان

چارچوبی برای موقعیتیابی مشارکتی ربات‌ها و گوشی‌های هوشمند مبتنی بر ارتباطات نور مرئی

تحلیل یک سیستم موقعیتیابی مشارکتی مبتنی بر VLC که امکان اشتراک‌گذاری موقعیت با دقت بالا و در زمان واقعی بین ربات‌ها و گوشی‌های هوشمند در محیط‌های داخلی را فراهم می‌کند.
rgbcw.org | PDF Size: 0.3 MB
امتیاز: 4.5/5
امتیاز شما
شما قبلاً به این سند امتیاز داده اید
جلد سند PDF - چارچوبی برای موقعیتیابی مشارکتی ربات‌ها و گوشی‌های هوشمند مبتنی بر ارتباطات نور مرئی

1. مرور کلی

این مقاله به چالش حیاتی موقعیتیابی در محیط‌های داخلی می‌پردازد، جایی که سیستم‌های سنتی مانند GPS به دلیل مسدود شدن سیگنال با شکست مواجه می‌شوند. این سیستم از گسترش چراغ‌های LED و سنسورهای CMOS با وضوح بالا در گوشی‌های هوشمند و ربات‌ها بهره می‌برد. سیستم پیشنهادی از موقعیتیابی نور مرئی (VLP) استفاده می‌کند، جایی که فرستنده‌های LED نور خود را (با استفاده از مدولاسیون کلیدزنی روشن-خاموش - OOK) مدوله می‌کنند تا شناسه منحصربه‌فرد (UID) و داده‌های موقعیت را در آن جاسازی کنند. ترمینال گیرنده (دوربین گوشی هوشمند یا سنسور دید ربات) این تغییرات فرکانس بالای نور را از طریق اثر شاتر تدریجی ثبت می‌کند، پدیده‌ای که به خوبی در تحقیقات ارتباطات دوربین نوری (OCC) مستند شده است. این امر امکان نرخ انتقال داده فراتر از نرخ فریم ویدیو را فراهم می‌کند. با رمزگشایی الگوهای نوری ثبت‌شده («نوارها») برای بازیابی UID و تطابق متقابل آن با یک پایگاه داده نقشه از پیش ذخیره‌شده، دستگاه می‌تواند موقعیت خود را با دقت بالا تعیین کند. این مقاله این فناوری را به عنوان یک توانمندساز کلیدی برای همکاری انسان و ربات در محیط‌های پویا مانند انبارها و خدمات تجاری معرفی می‌کند، جایی که آگاهی موقعیتی مشترک و در زمان واقعی از اهمیت بالایی برخوردار است.

2. نوآوری

نوآوری اصلی در خود چارچوب مشارکتی نهفته است. در حالی که VLP برای دستگاه‌های مستقل مورد بررسی قرار گرفته است، این کار موقعیتیابی برای هر دو گوشی هوشمند و ربات‌ها را در یک سیستم یکپارچه ادغام می‌کند. مشارکت‌های کلیدی شامل موارد زیر است:

  1. طراحی سیستم: یک سیستم موقعیتیابی مشارکتی مبتنی بر VLC که متناسب با چالش‌های عملی استفاده از گوشی هوشمند (مانند کج شدن دستگاه) و ناوبری ربات طراحی شده و از چندین طرح VLP برای استحکام استفاده می‌کند.
  2. پیاده‌سازی چارچوب: یک چارچوب عملکردی که در آن موقعیت‌های ربات‌ها و گوشی‌های هوشمند به دست آمده و در زمان واقعی به اشتراک گذاشته می‌شود و در رابط گوشی هوشمند نمایش داده می‌شود.
  3. اعتبارسنجی تجربی: تمرکز بر تأیید تجربی دقت شناسایی شناسه، دقت موقعیتیابی و عملکرد در زمان واقعی.

3. شرح نمایش عملی

سیستم نمایش عملی به فرستنده‌ها و گیرنده‌ها تقسیم شده است.

3.1 معماری سیستم

معماری شامل موارد زیر است:

  • سمت فرستنده: چندین پنل LED، که هر کدام توسط یک واحد میکروکنترلر (MCU) کنترل می‌شوند. MCU مختصات موقعیت جغرافیایی را با استفاده از مدولاسیون OOK به یک سیگنال دیجیتال کدگذاری می‌کند و LED را با سرعت بالا روشن و خاموش می‌کند.
  • سمت گیرنده: گوشی‌های هوشمند و ربات‌های مجهز به دوربین CMOS. شاتر تدریجی دوربین، هنگام نشانه‌روی به یک LED مدوله‌شده، نوارهای روشن و تاریک متناوب (خطوط) را ثبت می‌کند. الگوریتم‌های پردازش تصویر این خطوط را رمزگشایی می‌کنند تا شناسه ارسال‌شده را استخراج کنند.
  • منطق مرکزی: یک پایگاه داده نقشه که شامل نگاشت {UID: مختصات (x, y, z)} است. شناسه رمزگشایی‌شده این پایگاه داده را جستجو می‌کند تا موقعیت مطلق LED را بازیابی کند. با استفاده از تکنیک‌های هندسی (مانند مثلث‌بندی اگر چند LED در دید باشد)، گیرنده موقعیت خود را محاسبه می‌کند.

3.2 تنظیمات آزمایشی

همانطور که در شکل 1 (که در زیر توضیح داده شده) اشاره شده است، تنظیمات شامل چهار فرستنده LED نصب‌شده بر روی صفحات تخت است که موقعیت خود را پخش می‌کنند. مدار کنترل برای سادگی و مقیاس‌پذیری طراحی شده است. محیط به احتمال زیاد نشان‌دهنده یک فضای داخلی کنترل‌شده است که بخشی از یک انبار یا آزمایشگاه را شبیه‌سازی می‌کند.

4. جزئیات فنی و فرمول‌بندی ریاضی

این سیستم بر اصول اساسی OCC و موقعیتیابی هندسی متکی است.

1. مدولاسیون OOK و اثر شاتر تدریجی:
LED یک دنباله باینری ارسال می‌کند. '1' با روشن بودن LED و '0' با خاموش بودن آن نمایش داده می‌شود (یا برعکس). شاتر تدریجی دوربین گوشی هوشمند، ردیف‌های مختلف سنسور را در زمان‌های کمی متفاوت در معرض نور قرار می‌دهد. هنگام ثبت یک LED که به سرعت چشمک می‌زند، این امر منجر به ایجاد نوارهای روشن و تاریک متناوب در سراسر تصویر می‌شود. الگوی این نوارها مستقیماً با دنباله بیت ارسال‌شده مطابقت دارد. نرخ داده $R_{data}$ توسط نرخ نمونه‌برداری شاتر تدریجی محدود می‌شود، نه نرخ فریم $FPS$: $R_{data} \approx N_{rows} \times F_{rs}$، که در آن $N_{rows}$ تعداد ردیف‌های سنسور و $F_{rs}$ فرکانس اسکن ردیف است.

2. تخمین موقعیت:
هنگامی که موقعیت‌های سه‌بعدی $n$ LED از پایگاه داده بازیابی شد ($\mathbf{P}_{LED,i} = [x_i, y_i, z_i]^T$) و برآمدگی‌های دوبعدی متناظر آنها در صفحه تصویر پیدا شد ($\mathbf{p}_i = [u_i, v_i]^T$)، وضعیت 6 درجه آزادی (موقعیت $\mathbf{t}$ و جهت $\mathbf{R}$) دوربین را می‌توان با حل یک مسئله Perspective-n-Point (PnP) تخمین زد: $$ s_i \begin{bmatrix} u_i \\ v_i \\ 1 \end{bmatrix} = \mathbf{K} [\mathbf{R} | \mathbf{t}] \begin{bmatrix} x_i \\ y_i \\ z_i \\ 1 \end{bmatrix} $$ که در آن $s_i$ یک عامل مقیاس است و $\mathbf{K}$ ماتریس ذاتی دوربین است. برای $n \geq 3$، این را می‌توان با استفاده از الگوریتم‌هایی مانند EPnP یا روش‌های تکراری حل کرد. موقعیت ربات $\mathbf{t}$ است.

5. نتایج آزمایشی و شرح نمودار

مقاله ادعا می‌کند که نمایش عملی دقت بالا و عملکرد در زمان واقعی را تأیید کرده است. در حالی که نتایج عددی خاص در بخش ارائه‌شده به تفصیل بیان نشده است، می‌توانیم ماهیت نتایج را بر اساس کارهای قبلی ذکر شده و شرح سیستم استنباط کنیم.

معیارهای عملکرد استنباط‌شده:

  • دقت موقعیتیابی: با استناد به [2,3] که با استفاده از یک LED منفرد ترکیب‌شده با SLAM به دقت حدود ۲.۵ سانتی‌متر برای موقعیتیابی ربات دست یافتند، این سیستم مشارکتی احتمالاً دقت در سطح سانتی‌متر را هدف قرار می‌دهد. دقت تابعی از تراکم LED، وضوح دوربین و کالیبراسیون است.
  • نرخ/دقت شناسایی شناسه: یک معیار حیاتی برای قابلیت اطمینان سیستم. تمرکز مقاله بر این موضوع نشان می‌دهد که آزمایش‌ها نرخ خطای بیت (BER) یا نرخ رمزگشایی موفق را تحت شرایط مختلف (فاصله، زاویه، نور محیط) اندازه‌گیری کرده‌اند.
  • تأخیر در زمان واقعی: تأخیر سرتاسری از ثبت تصویر تا نمایش موقعیت روی گوشی هوشمند. این شامل پردازش تصویر، رمزگشایی، جستجوی پایگاه داده و محاسبه وضعیت است. برای همکاری مؤثر، این احتمالاً باید زیر ۱۰۰ میلی‌ثانیه باشد.

شرح نمودار (شکل 1):
شکل 1 احتمالاً محیط آزمایشی کلی را نشان می‌دهد. به طور معمول شامل موارد زیر خواهد بود:

  1. یک نمودار یا عکس از منطقه آزمایش با چهار فرستنده LED که در مختصات معلوم روی سقف یا دیوارها قرار گرفته‌اند.
  2. یک سکوی ربات (مانند یک ربات دیفرانسیلی یا همه‌جهته) مجهز به یک دوربین رو به بالا.
  3. یک کاربر که گوشی هوشمند را در دست دارد و دوربین آن نیز به سمت LED‌ها نشانه رفته است.
  4. یک کادر داخلی یا پنل جداگانه که رابط نمایش گوشی هوشمند را نشان می‌دهد و یک نقشه را با آیکون‌هایی که موقعیت‌های زمان واقعی هر دو ربات و خود گوشی هوشمند را نمایش می‌دهند، مصورسازی می‌کند.
این شکل برای اعتبارسنجی بصری مفهوم عملیاتی و ماهیت مشارکتی سیستم عمل می‌کند.

6. چارچوب تحلیل: یک مطالعه موردی بدون کد

سناریو: برداشت سفارش در انبار با تیم‌های انسان و ربات.
هدف: یک ربات یک چرخ‌دستی را به ایستگاه برداشت منتقل می‌کند جایی که یک کارگر انسانی اقلام را جمع‌آوری می‌کند. هر دو به داده‌های موقعیتی دقیق و مشترک برای ملاقات کارآمد و اجتناب از موانع نیاز دارند.

کاربرد چارچوب:

  1. راه‌اندازی زیرساخت: سقف انبار با شبکه‌ای از چراغ‌های LED مجهز به VLP تجهیز شده است که هر کدام با UID و مختصات دقیق انبار (مانند راهرو ۳، بخش ۵، ارتفاع ۴ متر) برنامه‌ریزی شده‌اند.
  2. مکان‌یابی ربات: دوربین نصب‌شده روی ربات به طور مداوم چندین LED را مشاهده می‌کند. شناسه‌های آنها را رمزگشایی می‌کند، موقعیت‌های سه‌بعدی آنها را از یک نقشه محلی یا مبتنی بر ابر بازیابی می‌کند و از PnP برای محاسبه وضعیت خود (x, y, theta) در کف انبار با دقت حدود ۵ سانتی‌متر استفاده می‌کند.
  3. مکان‌یابی کارگر: گوشی هوشمند کارگر (در یک نگهدارنده سینه‌ای برای جهت‌گیری ثابت) همان فرآیند VLP را انجام می‌دهد. وضعیت آن محاسبه می‌شود و همچنین از طریق Wi-Fi با سیستم مرکزی و ربات به اشتراک گذاشته می‌شود.
  4. منطق مشارکتی:
    • مدیر وظایف مرکزی یک مقصد را به ربات اختصاص می‌دهد: موقعیت فعلی کارگر.
    • ربات با استفاده از موقعیت خود و موقعیت به‌روزرسانی شده پویای کارگر، یک مسیر برنامه‌ریزی می‌کند.
    • روی صفحه نمایش گوشی هوشمند کارگر، یک لایه افزوده واقعیت، موقعیت زنده ربات و زمان تخمینی رسیدن را نشان می‌دهد.
    • اگر کارگر حرکت کند، هدف ربات در زمان واقعی به‌روزرسانی می‌شود و امکان برنامه‌ریزی مجدد پویا را فراهم می‌کند.
  5. نتیجه: کاهش زمان جستجو، حذف هماهنگی کلامی، بهینه‌سازی مسیرها و افزایش ایمنی از طریق آگاهی متقابل.
این مطالعه موردی نشان می‌دهد که چگونه چارچوب مشارکتی VLP فراتر از موقعیتیابی ساده حرکت کرده و به یک لایه توانمندساز برای همکاری هوشمند و سازگار تبدیل می‌شود.

7. بینش اصلی و دیدگاه تحلیلگر

بینش اصلی: این مقاله درباره اختراع یک الگوریتم موقعیتیابی جدید نیست؛ بلکه یک اقدام عملی یکپارچه‌سازی سیستم است. ارزش واقعی در ادغام دو روند بالغ—دوربین‌های همه‌گیر گوشی‌های هوشمند و اکوسیستم سیستم عامل ربات (ROS)—با زیرساخت LED برای حل مشکل هماهنگی «آخرین متر» در اتوماسیون است. این کار کانال ارتباطی (نور) را برای استفاده دوگانه به عنوان یک نشانه موقعیتی با وفاداری بالا بازتعریف می‌کند، مفهومی که اصول ادغام حسگر مشاهده‌شده در سیستم‌های پیشرفته SLAM را تداعی می‌کند اما با هزینه بالقوه کمتر و کنترل بیشتر بر زیرساخت.

جریان منطقی: استدلال محکم است: GPS در محیط داخلی شکست می‌خورد → VLP یک جایگزین عملی و با دقت بالا ارائه می‌دهد → کارهای قبلی موفقیت را در پلتفرم‌های فردی نشان داده‌اند → بنابراین، ادغام اینها در یک چارچوب مشارکتی، کاربردهای همکاری جدیدی را ممکن می‌سازد. جریان از فناوری مؤلفه (OOK، شاتر تدریجی) به زیرسیستم (VLP روی یک گوشی) تا سیستم یکپارچه (چارچوب موقعیتیابی مشترک) واضح و منطقی است.

نقاط قوت و ضعف:
نقاط قوت: ۱) استفاده دوگانه ظریف: بهره‌گیری از نورپردازی و سنسورهای موجود، هزینه‌های سخت‌افزاری را به حداقل می‌رساند. ۲) دقت بالقوه بالا: روش‌های مبتنی بر دید می‌توانند در محیط‌های کنترل‌شده از سیستم‌های مبتنی بر RF (Wi-Fi/Bluetooth) عملکرد بهتری داشته باشند. ۳) حریم خصوصی و امنیت: ذاتی محلی و نیازمند خط دید، برخلاف ردیابی RF فراگیر.
نقاط ضعف قابل توجه: ۱) زندان خط دید (LoS): این نقطه آسیب‌پذیر سیستم است. هرگونه مانع—یک دست بلند شده، یک پالت، بدنه خود ربات—موقعیتیابی را مختل می‌کند. ادعای مقابله با «موقعیت‌های نوری مختلف» [5-7] احتمالاً به نویز نور محیط می‌پردازد، نه NLoS. این امر به شدت استحکام سیستم را در انبارهای شلوغ و پویا محدود می‌کند. ۲) وابستگی به زیرساخت: نیازمند یک شبکه LED متراکم، کالیبره‌شده و مدوله‌شده است. نوسازی تأسیسات موجود کار ساده‌ای نیست. ۳) سوالات مقیاس‌پذیری: سیستم چگونه با ده‌ها ربات و کارگر مقابله می‌کند؟ تداخل بالقوه و گلوگاه‌های جستجوی پایگاه داده مورد بررسی قرار نگرفته است.

بینش‌های قابل اجرا:

  1. ترکیب یا نابودی: برای قابلیت اجرا در دنیای واقعی، این سیستم VLP باید یک مؤلفه درون یک پشته مکان‌یابی ترکیبی باشد. باید با اودومتری چرخ، IMUها و شاید UWB برای مقاومت در برابر NLoS لحظه‌ای ادغام شود، مشابه نحوه ادغام داده‌های لیدار و IMU توسط SLAM Cartographer گوگل. چارچوب باید با ادغام حسگر به عنوان یک شهروند درجه یک طراحی شود.
  2. تمرکز بر پروتکل دست‌دهی: نوآوری مقاله، موقعیتیابی «مشارکتی» است. حیاتی‌ترین تحقیق و توسعه باید بر روی پروتکل ارتباطی بین عامل‌ها باشد—نه فقط اشتراک‌گذاری مختصات، بلکه اشتراک‌گذاری فواصل اطمینان، قصد و حل ابهامات به صورت مشارکتی هنگامی که یک عامل LoS را از دست می‌دهد.
  3. معیارسنجی در برابر آخرین فناوری‌ها: نویسندگان باید دقت، تأخیر و هزینه سیستم خود را به طور دقیق در برابر سیستم‌های مبتنی بر UWB (مانند Pozyx یا اکوسیستم AirTag اپل) و سیستم‌های مبتنی بر نشانگر دیداری (مانند AprilTags) مقایسه کنند. گزاره ارزشی نیاز به تعریف دقیق‌تری دارد.
در نتیجه، این کار یک اثبات مفهوم قانع‌کننده برای یک رویکرد تمیز و میانجی‌شده توسط زیرساخت برای همکاری است. با این حال، سفر آن از نمایش آزمایشگاهی تا پذیرش صنعتی، کاملاً به غلبه بر محدودیت‌های اساسی سیستم‌های نوری در محیط‌های آشفته و واقعی بستگی دارد. مقاله بعدی باید نتایج حاصل از یک آزمایش پایلوت در یک انبار کاری واقعی را گزارش دهد، نه یک آزمایشگاه کنترل‌شده.

8. چشم‌انداز کاربرد و جهت‌های آینده

کاربردهای کوتاه‌مدت (۳ تا ۵ سال):

  • انبارداری و لجستیک هوشمند: همانطور که در مطالعه موردی ذکر شد، برای پهلوگیری دقیق، برداشت مشارکتی و مدیریت موجودی که در آن ربات‌ها و انسان‌ها فضا را به اشتراک می‌گذارند.
  • سلول‌های تولید پیشرفته: هدایت ربات‌های همکار (کوبات) برای تحویل قطعات به تکنسین‌ها در مکان‌های دقیق روی خط مونتاژ.
  • خرده‌فروشی و موزه‌های تعاملی: ارائه اطلاعات آگاه از متن روی گوشی‌های هوشمند بر اساس موقعیت دقیق زیر نورپردازی خاص نمایشگاه و هدایت ربات‌های خدماتی برای کمک به بازدیدکنندگان.
  • تأسیسات زندگی کمکی: ردیابی موقعیت ساکنان (با رضایت) و هدایت ربات‌های کمک‌کننده به سمت آن‌ها، در حالی که از طریق پردازش محلی حریم خصوصی تضمین می‌شود.

جهت‌های آینده تحقیق و توسعه:

  1. NLoS و استحکام: تحقیق در مورد استفاده از الگوهای نور بازتاب‌شده یا ترکیب VLP با سایر روش‌های حسگری (صوتی، حرارتی) برای استنباط موقعیت در طول انسدادهای کوتاه LoS.
  2. استانداردسازی و قابلیت همکاری: توسعه استانداردهای باز برای طرح‌های مدولاسیون LED در VLP و فرمت‌های داده، مشابه استاندارد IEEE 802.15.7r1 برای VLC، برای امکان‌پذیر کردن اکوسیستم‌های چند فروشنده.
  3. پردازش تقویت‌شده با هوش مصنوعی: استفاده از یادگیری عمیق برای رمزگشایی قوی شناسه تحت تغییرات شدید نور، تاری حرکت یا انسداد جزئی، فراتر از خطوط لوله بینایی کامپیوتری سنتی.
  4. ادغام با دوقلوهای دیجیتال: داده‌های موقعیت زمان واقعی همه عامل‌ها، منبع تغذیه ایده‌آلی برای یک دوقلوی دیجیتال زنده از یک تأسیسات می‌شود و امکان شبیه‌سازی، بهینه‌سازی و تحلیل پیش‌بینانه را فراهم می‌کند.
  5. پروتکل‌های کم‌مصرف: طراحی پروتکل‌هایی برای انجام VLP توسط گوشی‌های هوشمند با حداقل مصرف باتری، شاید با استفاده از پردازنده‌های کم‌مصرف یا اسکن متناوب.
جهت نهایی به سمت «اینترنت اشیاء محیطی» است—جایی که خود محیط (از طریق نور، صدا و سایر پدیده‌ها) قابلیت‌های حسگری و ارتباطی یکپارچه را برای دستگاه‌های تعبیه‌شده، ربات‌ها و گجت‌های شخصی فراهم می‌کند، و این کار بخشی بنیادین از آن چشم‌انداز را تشکیل می‌دهد.

9. مراجع

  1. [نویسنده(ها)]. (سال). عنوان روش موقعیتیابی برای ربات‌ها مبتنی بر ROS. نام کنفرانس/مجله. (در PDF به عنوان [1] ارجاع داده شده است)
  2. [نویسنده(ها)]. (سال). عنوان روش موقعیتیابی ربات مبتنی بر یک LED منفرد. نام کنفرانس/مجله. (در PDF به عنوان [2] ارجاع داده شده است)
  3. [نویسنده(ها)]. (سال). عنوان مقاله ترکیب‌کننده موقعیتیابی LED منفرد با SLAM. نام کنفرانس/مجله. (در PDF به عنوان [3] ارجاع داده شده است)
  4. [نویسنده(ها)]. (سال). عنوان کار نشان‌دهنده موقعیت ربات مشارکتی عملی. نام کنفرانس/مجله. (در PDF به عنوان [4] ارجاع داده شده است)
  5. Zhou, B., et al. (سال). طرح‌های VLP با دقت بالا برای گوشی‌های هوشمند. IEEE Transactions on Mobile Computing. (نمونه‌ای از ادبیات طرح VLP)
  6. IEEE Standard for Local and metropolitan area networks–Part 15.7: Short-Range Optical Wireless Communications. (2018). IEEE Std 802.15.7-2018. (استاندارد معتبر برای VLC)
  7. Grisetti, G., Stachniss, C., & Burgard, W. (2007). Improved Techniques for Grid Mapping With Rao-Blackwellized Particle Filters. IEEE Transactions on Robotics. (مرجع بنیادی SLAM مرتبط با زمینه موقعیتیابی ربات)
  8. Apple Inc. (2021). Precision Finding for AirTag. [وب‌سایت]. (نمونه‌ای از یک سیستم موقعیتیابی UWB تجاری به عنوان معیار رقابتی)
  9. Olson, E. (2011). AprilTag: A robust and flexible visual fiducial system. Proceedings of the IEEE International Conference on Robotics and Automation (ICRA). (سیستم مبتنی بر نشانگر جایگزین پرکاربرد)