• پنج شنبه 18 اردیبهشت 1404
  • الْخَمِيس 10 ذی القعده 1446
  • 2025 May 08
دو شنبه 15 اردیبهشت 1404
کد مطلب : 254403
لینک کوتاه : newspaper.hamshahrionline.ir/lOj0J
+
-

روبات‌های آدمکش

روبات‌های انسان‌نما در صورت اختلال در یکی از سیستم‌های عملکرد ممکن است تبدیل به قاتل شوند

گزارش
روبات‌های آدمکش

زهرا خلجی-روزنامه‌نگار

تصاویر ویدئویی دلهره‌آور روبات انسان‌نمایی که از کنترل خارج شده روزهای گذشته در حال دست به‌دست شدن است. این روبات چینی به اسم H1 ساخت شرکت چینی یونی‌تری است که در مراحل آزمایش و نمایش عمومی ناگهان از کنترل خارج شد و با حرکات عجیب شبیه ضربه زدن پرقدرت به سمت اطرافیان هجوم برد، اما خوشبختانه گروه فنی موفق شد زود کنترل آن را در دست بگیرد. به‌گفته یکی از مسئولان این روبات، هنگام آپدیت یک باگ عجیب در سیستم حفظ تعادل پیش آمد و باعث شد از کنترل خارج شود. این اتفاق باعث شد بحث ایمنی روبات‌ها دوباره زنده شود. متخصصان هشدار می‌دهند که رشد سریع هوش مصنوعی نیازمند نظارت دقیق‌تر و طراحی سیستم‌های ایمنی قوی‌تر است.

نمونه‌های مرگبار حمله روبات
مرگ زن عابر در تصادف با خودروی خودران:  سال 2018در آریزونا، یک خودران اوبر با زنی در حال عبور از خیابان تصادف کرد و او را کشت. بررسی‌ها نشان داد که سیستم هوش مصنوعی خودرو، زن را ابتدا یک جسم ناشناس و سپس دوچرخه‌سوار تشخیص داده بود.
بازوی روباتیک حادثه‌ساز: در برخی جراحی‌های انجام‌شده با روبات‌های داوینچی، گزارش‌هایی از برش‌های اشتباهی و پارگی رگ‌ها منتشر شده است. بسیاری از این موارد به خطای کاربر، ناآگاهی از دستورالعمل‌ها یا اختلال نرم‌افزاری نسبت داده شد.
روبات قاتل در حوزه نظامی: در گزارش‌های منتشرشده از جنگ داخلی لیبی (2020)، ادعا شد که پهپادها و روبات‌های ساخت ترکیه به‌صورت خودمختار اهداف انسانی را دنبال و به آنها حمله کرده‌اند. گرچه جزئیات دقیق هنوز در پرده ابهام است، اما اگر این ادعا صحیح باشد، این نخستین نمونه ثبت‌شده از حمله کشنده‌ کاملاً خودکار یک روبات به انسان بدون فرمان انسانی در لحظه اجرا خواهد بود.

خطاهای انسانی
روبات‌ها ابزارهایی هستند که براساس دستورالعمل‌های انسانی کار می‌کنند. این دستورالعمل‌ها می‌توانند به شکل الگوریتم‌های پیچیده، داده‌های آموزشی برای هوش مصنوعی یا حتی دستورات مستقیم انسانی باشند، اما همانگونه که در صنعت هوانوردی یا پزشکی دیده‌ایم خطای انسانی نه‌تنها رایج، بلکه اجتناب‌ناپذیر است، اما در حوزه روبات‌ها نتیجه یک اشتباه می‌تواند بدون هشدار اجرا شود و پیامدهایی فوری و خطرناک به‌دنبال داشته باشد.

چرا خطا در روبات‌ها خطرناک‌تر است؟
  یک الگوریتم اشتباه ممکن است در میلی‌ثانیه تصمیمی بگیرد که حتی یک انسان فرصت نداشته باشد آن را بازبینی یا متوقف کند.
  انسان‌ها، به‌ویژه در مواجهه با سیستم‌هایی که ظاهر هوشمند دارند، دچار خطای شناختی اعتماد می‌شوند و تصور می‌کنند ماشین همیشه درست عمل می‌کند درحالی‌که آن ماشین فقط به درستی یا نادرستی دستورالعمل‌های انسانی وفادار است.
  بسیاری از مدل‌های یادگیری ماشین، مانند شبکه‌های عصبی عمیق، ذاتا غیربازگشت‌پذیر یا غیرقابل توضیح هستند. این یعنی حتی طراحان نیز نمی‌دانند دقیقاً چرا یک روبات تصمیم خاصی را اتخاذ کرده است و همین امر مانع از اصلاح دقیق خطا می‌شود.

راه‌حل چیست؟
استفاده از روبات‌ها، به‌ویژه در حوزه‌های حساس مانند پزشکی یا نظامی، نباید بدون آموزش سختگیرانه و صدور گواهی صلاحیت فنی باشد. همچنین هر روبات باید دارای لایه‌هایی از نظارت انسانی، سیستم‌های هشدار و مکانیسم‌های توقف فوری باشد که درصورت تشخیص عملکرد غیرطبیعی جلوی اجرا را بگیرد. از سوی دیگر همانطور که برای استفاده از سلاح‌های شیمیایی قوانین جهانی وجود دارد، نیاز فوری به چارچوب‌های قانونی برای روبات‌ها احساس می‌شود.



 

این خبر را به اشتراک بگذارید