• یکشنبه 16 اردیبهشت 1403
  • الأحَد 26 شوال 1445
  • 2024 May 05
پنج شنبه 11 خرداد 1402
کد مطلب : 193379
+
-

نیمه تاریک هوش مصنوعی

جنگ‌های روباتیک با توسعه هوش‌مصنوعی می‌توانند جهان را به نابودی بکشانند؟

فناوری
نیمه تاریک هوش مصنوعی

عمادالدین قاسمی‌پناه-روزنامه‌نگار

در یک جنگ میدانی، نیروهای شناسایی، نیروهای جنگنده، نیروهای امدادی و نیروهای لجستیک و نقلیه حضور دارند؛ بنابراین برای یک جنگ تمام‌عیار مبتنی بر هوش مصنوعی، تمامی این نیروها باید حضور داشته باشند. تاکنون چنین جنگی جز در بعضی از فیلم‌های سینمایی صورت واقعیت نگرفته است. این در حالی است که اکنون تجهیزات و ابزارهایی که از هوش مصنوعی استفاده می‌کنند به شکل جزئی در جنگ‌ها حضور دارند. در حال حاضر مشهورترین ابزار در جنگ که از هوش مصنوعی بهره می‌برند، پهپادها هستند. اما آیا در آینده هم وضعیت به همین شکل خواهد بود؟ به‌عبارت دیگر، آیا نیروهای شناسایی، سربازان خط مقدم، نیروهای امدادی، بمب‌افکن‌ها و نیروهای امدادی می‌توانند در قالب روبات‌های تخصصی، جنگی بدون حضور انسان را رقم بزنند. لبه تکنولوژی (cutting edge technology) همیشه در اختیار نیروهای نظامی بوده است؛ بنابراین بعید نیست که پیشرفته‌ترین روبات‌ها در جهان براساس برنامه‌ریزی‌های نظامی ساخته شوند.


نگرانی از روبات‌های قاتل
با پیشرفت هوش‌مصنوعی و توسعه روبات‌های انسان‌نما هیچ بعید نیست که روبات‌های قاتل تبدیل به یک واقعیت در جهان شوند. چند سال پیش بیشتر از 100کارشناس برجسته روباتیک ازجمله ایلان‌ماسک، میلیاردر و بنیانگذار خودروسازی تسلا‌موتورز در نامه‌ای از سازمان ملل متحد درخواست کردند با اتخاذ تدابیری مانع توسعه روبات‌های قاتل شوند. نویسندگان این نامه نسبت به توسعه این روبات‌ها و وقوع انقلاب سوم در جنگ‌افزارها هشدار داده‌اند. متخصصان امضا‌کننده این نامه با غیراخلاقی توصیف کردن این فناوری خواستار اضافه شدن این تکنولوژی به فهرست سلاح‌های ممنوعه کشتار جمعی سازمان ملل شده‌اند. در این نامه آمده که فناوری روبات‌های قاتل مانند «جعبه پاندورا پر از بدبختی، بلا، بیماری، مرگ و جنگ»‌ است و باید به سرعت آن‌را متوقف کرد. آنها گفته‌اند که اگر در این جعبه پاندورا باز شود، بستن آن دشوار خواهد بود.

نبرد فناوری
روبات‌های آینده که می‌توانند بدون دخالت انسان جنگ را به پیش ببرند، یک نگرانی بزرگ در جهان به شمار می‌روند. اگرچه مقامات سازمان ملل می‌گویند که در تئوری، تسلیحات کاملا خودکار و تحت کنترل رایانه‌ای هنوز وجود خارجی ندارند و این بحث‌ها هنوز در ابتدای راه است، اما محققان می‌گویند از همین حالا باید قوانین برای جلوگیری و ممنوعیت توسعه این روبات‌ها وضع شود. رشا عبدالرحیم، یک پژوهشگر هوش مصنوعی برای سازمان حقوق بشر می‌گوید: روبات‌های قاتل دیگر چیزی مربوط به فیلم‌ها و قصه‌های علمی تخیلی نیستند. پیشرفت این فناوری‌ها در حال پیشی گرفتن از قوانین بین‌المللی است.

جنگ سرد هوش مصنوعی
اکنون چین و آمریکا 2قدرت بزرگی هستند که توانایی به راه انداختن یک جنگ بزرگ شبیه جنگ‌های جهانی را دارند. این دو، براساس توانمندی در توسعه هوش مصنوعی «جنگ سرد» جدیدی را رقم زده‌اند. به‌گفته هنری کیسینجر، وزیر امور خارجه سابق آمریکا، اکنون تفاوت این است که رقبای بزرگ به سلاح‌های هسته‌ای دسترسی دارند و از طریق هوش مصنوعی می‌توانند در آستانه ایجاد ابزار دیگری باشند که می‌تواند بشریت را از بین ببرد. کیسینجر در مصاحبه‌ای با اکونومیست می‌گوید: آمریکا و چین درصورتی که خصومت‌های آنها به یک رویارویی نظامی تبدیل شود «بزرگ‌ترین خطر برای صلح در شرایط فعلی» هستند. او گفت که 2کشور به سمت یک رویارویی بزرگ پیش می‌روند؛ زیرا هر دو کشور «خود را متقاعد کرده‌اند که دیگری یک خطر استراتژیک است.» تنش‌ها بر سر تایوان احتمالا نقطه عطف بزرگی برای درگیری‌های آینده خواهد بود؛ زیرا جو بایدن، رئیس‌جمهور آمریکا به این کشور جزیره‌ای کمک می‌کند. این در حالی است که هوش مصنوعی مانند سلاح‌های هسته‌ای در دوران جنگ سرد، می‌تواند به لحاظ نظامی بسیار خطرناک‌تر باشد.

تهدید رقابت هوش مصنوعی
درست همانطور که ابرقدرت‌ها در خلال جنگ سرد در تنش ناگفته‌ای از ویرانی متقابل قرار گرفتند، هوش‌مصنوعی ممکن است با پیامدهای مشابهی مسلح شود. آمریکا و چین برای سلطه‌طلبی از طریق هوش مصنوعی رقابت می‌کنند. به‌دلیل اهمیت اقتصادی این فناوری بعضی از کارشناسان تأثیر هوش مصنوعی بر جنگ را با تأثیر تسلیحات هسته‌ای بررسی می‌کنند. اریک اشمیت، مدیرعامل سابق گوگل معتقد است که در این حوزه آمریکا فقط کمی جلوتر از چین قرار گرفته است. اگرچه دنیا برای فناوری هوش مصنوعی آماده نیست، اما از زمانی که این فناوری بتواند با توانایی‌های انسانی همسو شود، تنها چند سال کافی است تا تبدیل به یک تهدید بزرگ شود.

خطا در تشخیص
برای استفاده از هوش مصنوعی در تجهیزات نظامی یادگیری ماشینی اهمیت دارد. آموزش موقعیت‌های مختلف، جمع‌آوری و پردازش داده یک ابزار را کارآمد می‌کند. این موضوع به این معناست که اگر یک روبات در موقعیتی قرار بگیرد که برای آن آموزش ندیده، مختل می‌شود؛ درحالی‌که سرباز می‌تواند بسیاری از اشیا و موقعیت‌ها را تشخیص دهد.

تخریب گسترده در جنگ روباتیک
 در جنگ روباتیک احتمالی آینده روبات‌هایی که سریع‌تر، قوی‌تر و دقیق‌تر هستند، پیروز میدان را تعیین می‌کنند. با این حال، چنین جنگ‌هایی می‌توانند به شکل بی‌سابقه‌ای ویرانگر باشند و دنیا را به نابودی بکشانند. همچنین اگر این ماشین‌ها در میانه میدان خطا کنند، فاجعه انسانی دور از ذهن نیست. اگرچه پیشرفت قابل‌توجهی در هوشمندسازی روبات‌ها صورت گرفته است، اما روبات‌های خودکار هنوز از انعطاف‌پذیری لازم برای واکنش مناسب در موقعیت‌های پیش‌بینی نشده برخوردار نیستند.  
 
 جهان اجماع می‌کند؟
روبات‌ها می‌توانند میدان جنگ را متحول کنند، اما آیا جهان برای ماشین‌هایی که تصمیم می‌گیرند چه‌کسی را بکشند، آماده است؟ بدیهی است پاسخ کشورهای ضعیف‌تر منفی است. برخی معتقدند بشریت در آستانه عصر جدیدی از جنگ است. به‌دلیل پیشرفت‌های سریع در هوش مصنوعی، پلتفرم‌های تسلیحاتی که می‌توانند به تنهایی انسان‌ها را شناسایی کنند، هدف قرار دهند و تصمیم به کشتن بگیرند (بدون اینکه افسری حمله را هدایت کند یا سربازی ماشه را بکشد) به سرعت آینده نبرد را متحول می‌کند. نام رسمی آنها سیستم‌های تسلیحات خودکار کشنده (LAWS) است، اما منتقدان آنها را «روبات‌های قاتل» می‌نامند. بسیاری از کشورها ازجمله آمریکا، چین، بریتانیا، هند، ایران،  کره‌جنوبی، روسیه و ترکیه در سال‌های اخیر سرمایه‌گذاری زیادی برای توسعه چنین تسلیحاتی کرده‌اند. ظهور چنین ماشین‌هایی بحث‌هایی جدی بین کارشناسان، فعالان و دیپلمات‌ها در سرتاسر جهان به راه انداخته است؛ زیرا آنها مزایا و خطرات احتمالی استفاده از روبات‌ها را بررسی می‌کنند. اما آیا جامعه بین‌المللی می‌تواند در مورد این ماشین‌ها به اجماع برسد؟


 

این خبر را به اشتراک بگذارید