
روباتهای آدمکش
روباتهای انساننما در صورت اختلال در یکی از سیستمهای عملکرد ممکن است تبدیل به قاتل شوند

زهرا خلجی-روزنامهنگار
تصاویر ویدئویی دلهرهآور روبات انساننمایی که از کنترل خارج شده روزهای گذشته در حال دست بهدست شدن است. این روبات چینی به اسم H1 ساخت شرکت چینی یونیتری است که در مراحل آزمایش و نمایش عمومی ناگهان از کنترل خارج شد و با حرکات عجیب شبیه ضربه زدن پرقدرت به سمت اطرافیان هجوم برد، اما خوشبختانه گروه فنی موفق شد زود کنترل آن را در دست بگیرد. بهگفته یکی از مسئولان این روبات، هنگام آپدیت یک باگ عجیب در سیستم حفظ تعادل پیش آمد و باعث شد از کنترل خارج شود. این اتفاق باعث شد بحث ایمنی روباتها دوباره زنده شود. متخصصان هشدار میدهند که رشد سریع هوش مصنوعی نیازمند نظارت دقیقتر و طراحی سیستمهای ایمنی قویتر است.
نمونههای مرگبار حمله روبات
مرگ زن عابر در تصادف با خودروی خودران: سال 2018در آریزونا، یک خودران اوبر با زنی در حال عبور از خیابان تصادف کرد و او را کشت. بررسیها نشان داد که سیستم هوش مصنوعی خودرو، زن را ابتدا یک جسم ناشناس و سپس دوچرخهسوار تشخیص داده بود.
بازوی روباتیک حادثهساز: در برخی جراحیهای انجامشده با روباتهای داوینچی، گزارشهایی از برشهای اشتباهی و پارگی رگها منتشر شده است. بسیاری از این موارد به خطای کاربر، ناآگاهی از دستورالعملها یا اختلال نرمافزاری نسبت داده شد.
روبات قاتل در حوزه نظامی: در گزارشهای منتشرشده از جنگ داخلی لیبی (2020)، ادعا شد که پهپادها و روباتهای ساخت ترکیه بهصورت خودمختار اهداف انسانی را دنبال و به آنها حمله کردهاند. گرچه جزئیات دقیق هنوز در پرده ابهام است، اما اگر این ادعا صحیح باشد، این نخستین نمونه ثبتشده از حمله کشنده کاملاً خودکار یک روبات به انسان بدون فرمان انسانی در لحظه اجرا خواهد بود.
خطاهای انسانی
روباتها ابزارهایی هستند که براساس دستورالعملهای انسانی کار میکنند. این دستورالعملها میتوانند به شکل الگوریتمهای پیچیده، دادههای آموزشی برای هوش مصنوعی یا حتی دستورات مستقیم انسانی باشند، اما همانگونه که در صنعت هوانوردی یا پزشکی دیدهایم خطای انسانی نهتنها رایج، بلکه اجتنابناپذیر است، اما در حوزه روباتها نتیجه یک اشتباه میتواند بدون هشدار اجرا شود و پیامدهایی فوری و خطرناک بهدنبال داشته باشد.
چرا خطا در روباتها خطرناکتر است؟
یک الگوریتم اشتباه ممکن است در میلیثانیه تصمیمی بگیرد که حتی یک انسان فرصت نداشته باشد آن را بازبینی یا متوقف کند.
انسانها، بهویژه در مواجهه با سیستمهایی که ظاهر هوشمند دارند، دچار خطای شناختی اعتماد میشوند و تصور میکنند ماشین همیشه درست عمل میکند درحالیکه آن ماشین فقط به درستی یا نادرستی دستورالعملهای انسانی وفادار است.
بسیاری از مدلهای یادگیری ماشین، مانند شبکههای عصبی عمیق، ذاتا غیربازگشتپذیر یا غیرقابل توضیح هستند. این یعنی حتی طراحان نیز نمیدانند دقیقاً چرا یک روبات تصمیم خاصی را اتخاذ کرده است و همین امر مانع از اصلاح دقیق خطا میشود.
راهحل چیست؟
استفاده از روباتها، بهویژه در حوزههای حساس مانند پزشکی یا نظامی، نباید بدون آموزش سختگیرانه و صدور گواهی صلاحیت فنی باشد. همچنین هر روبات باید دارای لایههایی از نظارت انسانی، سیستمهای هشدار و مکانیسمهای توقف فوری باشد که درصورت تشخیص عملکرد غیرطبیعی جلوی اجرا را بگیرد. از سوی دیگر همانطور که برای استفاده از سلاحهای شیمیایی قوانین جهانی وجود دارد، نیاز فوری به چارچوبهای قانونی برای روباتها احساس میشود.