بر اساس گزارش اخیر شورای امنیت سازمان ملل متحد در مورد جنگ داخلی لیبی، سیستمهای تسلیحاتی خودمختار – که معمولاً به عنوان ربات های قاتل شناخته میشوند – ممکن است برای اولین بار در سال گذشته انسانها را کشته باشند. تاریخ به خوبی می تواند این را به عنوان نقطه شروع مسابقه تسلیحاتی بزرگ بعدی شناسایی کند، مسابقه ای که پتانسیل آن را دارد که آخرین مسابقه بشریت باشد.
سیستمهای تسلیحاتی خودمختار ربات هایی با سلاحهای کشنده هستند که میتوانند به طور مستقل عمل کنند، اهداف را انتخاب و بدون اینکه انسان بر آن تصمیمها فشار بیاورد، حمله کند. ارتش در سراسر جهان سرمایه گذاری زیادی در تحقیق و توسعه تسلیحات خودمختار انجام می دهد. ایالات متحده به تنهایی 18 میلیارد دلار برای تسلیحات خودران بین سال های 2016 تا 2020 بودجه اختصاص داده است.
در همین حال، سازمانهای حقوق بشری و بشردوستانه برای ایجاد مقررات و ممنوعیتهایی برای تولید چنین سلاحهایی به رقابت میپردازند. بدون چنین بررسیهایی، کارشناسان سیاست خارجی هشدار میدهند که فنآوریهای مخرب سلاحهای خودمختار به طور خطرناکی استراتژیهای هستهای کنونی را بیثبات میکنند، هم به این دلیل که میتوانند درک تسلط استراتژیک را به طور اساسی تغییر دهند و خطر حملات پیشگیرانه را افزایش دهند و هم به دلیل اینکه ممکن است با مواد شیمیایی، بیولوژیکی و رادیولوژیکی و خود سلاح های هسته ای ترکیب شوند.
سلاحهای خود مختار، تعادلهای ناپایدار و پادمانهای متلاشیشده دنیای هستهای، برای مثال اختیارات حداقل محدود رئیسجمهور ایالات متحده برای حمله را، ناپایدارتر و تکه تکه تر میکنند
چهار خطر اصلی با سلاح های خودمختار وجود دارد. اولین مورد مشکل شناسایی نادرست است. آیا در هنگام انتخاب یک هدف، سلاح های خود مختار می توانند بین سربازان متخاصم و کودکان 12 ساله ای که با تفنگ های اسباب بازی بازی می کنند، تمایز قائل شوند؟ بین غیرنظامیانی که از محل درگیری فرار می کنند و شورشیان که عقب نشینی تاکتیکی می کنند؟
مشکل اینجا این نیست که ماشینها چنین خطاهایی را مرتکب میشوند و انسانها این کار را نمیکنند. مشکل این است که تفاوت بین خطای انسانی و خطای الگوریتمی مانند تفاوت بین ارسال نامه و توییت است. مقیاس، وسعت و سرعت سیستمهای روباتهای قاتل که توسط یک الگوریتم هدفگیری که در سراسر یک قاره مستقر شده است، کنترل میشود، میتواند باعث شود که شناسایی نادرست توسط انسانها مانند حمله اخیر هواپیماهای بدون سرنشین ایالات متحده در افغانستان در مقایسه با یک خطای گرد کردن ساده به نظر برسد.
پل شار، متخصص سلاح های خودمختار، از استعاره تفنگ فراری برای توضیح این تفاوت استفاده می کند. تفنگ فراری یک مسلسل معیوب است که پس از رها شدن ماشه به شلیک ادامه می دهد. اسلحه تا زمانی که مهمات تمام شود به شلیک ادامه می دهد، زیرا، به اصطلاح، اسلحه نمی داند که دارد خطا می کند. اسلحه های فراری بسیار خطرناک هستند، اما خوشبختانه آنها اپراتورهای انسانی دارند که می توانند اتصال مهمات را بشکنند یا سعی کنند سلاح را به سمتی امن هدایت کنند. سلاح های خودمختار، بنا به تعریف، چنین حفاظتی ندارند.
نکته مهم این است که هوش مصنوعی تسلیحشده حتی برای ایجاد اثر تفنگ فراری نیازی ندارد که معیوب باشد. همانطور که مطالعات متعدد در مورد خطاهای الگوریتمی در صنایع نشان داده است، بهترین الگوریتم ها – که طبق طراحی عمل می کنند – می توانند نتایج صحیح داخلی ایجاد کنند که با این وجود، خطاهای وحشتناک را به سرعت در بین جمعیت ها پخش می کند.
به عنوان مثال، یک شبکه عصبی طراحی شده برای استفاده در بیمارستان های پیتسبورگ، آسم را به عنوان یک کاهش دهنده خطر در موارد ذات الریه شناسایی کرد. نرم افزار تشخیص تصویر که توسط گوگل استفاده می شود، آمریکایی های آفریقایی تبار را به عنوان گوریل شناسایی می کند. و یک ابزار یادگیری ماشینی که توسط آمازون برای رتبهبندی نامزدهای شغلی استفاده میشود، به طور سیستماتیک نمرات منفی را به زنان اختصاص میدهد.
مشکل فقط این نیست که وقتی سیستمهای هوش مصنوعی اشتباه میکنند، بهطور عمده اشتباه میکنند. این است که وقتی آنها اشتباه می کنند، سازندگان آنها اغلب نمی دانند چرا این کار را انجام داده اند و بنابراین، چگونه آنها را اصلاح کنند. مشکل جعبه سیاه هوش مصنوعی تصور توسعه اخلاقی مسئولانه سیستم های تسلیحاتی خودران را تقریبا غیرممکن می کند.
دو خطر بعدی مشکلات تکثیر تسلیحات کم رده و بالا است. بیایید با پایان پایین شروع کنیم. ارتشهایی که در حال توسعه سلاحهای خودمختار هستند، با این فرض پیش میروند که میتوانند استفاده از سلاحهای خودمختار را مهار و کنترل کنند. اما اگر تاریخ فناوری تسلیحات چیزی به دنیا آموخته باشد، این است: سلاح ها گسترش می یابند.
فشارهای بازار میتواند منجر به ایجاد و فروش گسترده چیزی شود که میتوان آن را معادل سلاح خود مختار تفنگ تهاجمی کلاشینکف در نظر گرفت: ربات های قاتل که ارزان، مؤثر و تقریباً غیرممکن هستند که در سراسر جهان در حال گردش هستند. سلاح های خودمختار «کلاشینکف» می تواند به دست افراد خارج از کنترل دولت، از جمله تروریست های بین المللی و داخلی، برسد.
با این حال، تکثیر تسلیحات رده بالا به همان اندازه بد است. کشورها می توانند برای توسعه نسخه های ویرانگر فزاینده ای از سلاح های خودمختار، از جمله آنهایی که قادر به نصب سلاح های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته ای هستند، رقابت کنند. خطرات اخلاقی افزایش مرگبار سلاح با افزایش استفاده از سلاح تقویت می شود.
سلاحهای خود مختار سطح بالا احتمالاً منجر به جنگهای مکرر میشوند، زیرا دو نیروی اصلی را که به طور تاریخی از جنگها جلوگیری کرده و کوتاهتر کردهاند، کاهش میدهند: نگرانی برای غیرنظامیان در خارج از کشور و نگرانی برای سربازان خود. این سلاحها احتمالاً مجهز به حاکمان اخلاقی گران قیمتی هستند که برای به حداقل رساندن آسیبهای جانبی طراحی شدهاند، با استفاده از آنچه اگنس کالامار، گزارشگر ویژه سازمان ملل، آن را «افسانه حمله جراحی» برای سرکوب اعتراضات اخلاقی مینامد. تسلیحات خودمختار همچنین نیاز و خطر سربازان خود را کاهش میدهند و به طور چشمگیری تحلیل هزینه و فایده کشورها را در حین راهاندازی و حفظ جنگها تغییر میدهند.
جنگهای نامتقارن، یعنی جنگهایی که در خاک کشورهایی که فاقد فناوری رقیب هستند به راه افتاده است، احتمالاً رایجتر میشوند. به بیثباتی جهانی ناشی از مداخلات نظامی شوروی و ایالات متحده در طول جنگ سرد، از اولین جنگ نیابتی تا ضربهای که امروز در سراسر جهان تجربه میشود، فکر کنید. آن را در هر کشوری که در حال حاضر به دنبال تسلیحات خودمختار پیشرفته هستند ضرب کنید.
تعداد 0 دیدگاه برای این مطلب ثبت شده است.
دیدگاه شما در رابطه با این مطلب