فناوری هوش مصنوعی در حال حاضر برای به پرواز درآوردن جنگندهها نیز به کار برده میشود. آیا این فناوری میتواند قابل اعتماد؟
به نقل از نیویورکر، در صبح ابری در ماه مه گذشته، یک هواپیما از فرودگاه بین المللی نیاگارا بر فراز حریم هوایی محدود نظامی دریاچه انتاریو به پرواز درآمد. این هواپیما که دارای نشان نیروی هوایی امریکا بود در اصل یک جنگنده چکسلواکی تغییر کاربری یافته آلباتروس ال -۳۹ بود که توسط یک پیمانکار دفاعی خصوصی خریداری شده است.
محفظه کابین آن مملو از حسگرها و پردازندههای رایانهای بود که عملکرد هواپیما را ثبت میکردند. جنگنده به مدت دو ساعت در خلاف جهت عقربههای ساعت دور دریاچه پرواز کرد. مهندسان بر روی زمین شاهد این پرواز بی سابقه بودند.
این پرواز در راستای تلاش برای دستیابی به هدف مشارکت جنگندههای بدون دخالت خلبان انسانی در نبردهای هوایی انجام شده است.
این تمرین گامی اولیه در برنامه تکامل جنگ افزارهای نظامی هوایی معروف به ACE آژانس تحقیقاتی وزارت دفاع امریکا و یکی از بیش از ۶۰۰ پروژه آن وزارتخانه بوده که در آن هوش مصنوعی در ابزارآلات جنگی، ترکیب شده است. در سال جاری، پنتاگون قصد دارد نزدیک به یک میلیارد دلار برای فناوری مرتبط با هوش مصنوعی هزینه کند.
نیروی دریایی در حال ساخت کشتیهای بدون سرنشین است که میتوانند ماهها در دریا بمانند. ارتش امریکا در حال توسعه ناوگانی از وسایل نقلیه رزمی رباتیک است. هوش مصنوعی برای بهبود تدارکات، جمعآوری اطلاعات و دستهای از فناوریهای پوشیدنی، حسگرها و رباتهای کمکی که توسط ارتش مورد استفاده قرار گرفته اند کاربرد دارد.
الگوریتمها در حال حاضر در پرواز هواپیما کارکرد خوبی دارند. اولین سیستم خلبان خودکار که شامل اتصال ژیروسکوپ به بال و دم هواپیما بود در سال ۱۹۱۴ میلادی حدود یک دهه پس از پرواز برادران رایت راه اندازی شد.
تعدادی از فناوریهای نظامی کنونی، مانند مین یابهای زیر آب و بمبهای هدایت شونده لیزری پس از کارگذاری توسط انسان، خود به صورت مستقل عمل میکنند. با این وجود، نبرد هوایی پیچیدگیهای خاص خود را دارد.
یک جنگنده مجهز به فناوری هوش مصنوعی در نهایت میتواند مانورهای دشوارتری را انجام داده و ریسکهای بیش تری را بپذیرد. با این وجود، هدف برنامه ACE تغییر نقش خلبان است نه حذف کامل آن. در چنین ایدهای هوش مصنوعی، هواپیما را با مشارکت خلبان به پرواز در خواهد آورد و عامل انسانی آن چه را که هوش مصنوعی تحت نظر دارد را در مدار حفظ خواهد کرد و در صورت لزوم مداخله انسانی در طول پرواز صورت خواهد گرفت.
یک جنگنده با ویژگیهای مستقل به خلبانان این امکان را میدهد تا به “مدیران جنگ” تبدیل شوند و اسکادرانهای پهپادی را هدایت کنند مانند مربی فوتبالی که اعضای تیم را انتخاب میکند و سپس آنان را در زمین برای اجرای بازی قرار میدهد.
“استیسی پتیجان” مدیر برنامه دفاعی در مرکز امنیت جدید آمریکا میگوید برنامه ACE بخشی از تلاش گستردهتر برای تقسیم کردن نیروهای نظامی امریکایی به واحدهای کوچکتر و کم هزینهتر است. به عبارت دیگر، هدف استفاده از انسانهای کمتر و ماشینهای مصرفی بیشتر است. از این ایده تحت عنوان “جنگ موزائیکی” یاد میشود.
در مورد نبردهای هوایی این هواپیماهای خودمختار بسیار کوچکتر را میتوان به روشهای غیر منتظرهای ترکیب کرد تا دشمنان را با پیچیدگی خود تحت تاثیر قرار دهند. اگر هر یک از هواپیماها سرنگون شوند تغییر بزرگی رخ نخواهد داد.
در مجموع ال-۳۹ بیست بار بر فراز دریاچه انتاریو پرواز کرده و در هر پرواز اطلاعاتی را در اختیار مهندسان و دانشمندان رایانه قرار داد که برای ساخت مدلی از دینامیک پرواز که در شرایط مختلف به آن نیاز دارند مانند حسگرهایی برای شناسایی اختلاف بین دنیای خارج و اطلاعات کد گذاری شده در نقشهها از آن استفاده میکنند.
با این وجود، الگوریتم پروازها باید محیط و هواپیما را همزمان در نظر گیرد. یک هواپیما باید ارتفاعات و زوایای مختلف را در نظر گیرد. هم چنین، تفاوت پرواز در روزهای گرم نسبت به روزهای سرد باید مورد توجه قرار گیرد.
هم چنین، اگر هواپیما مخزن سوخت اضافی یا موشکهایی را حمل کند پرواز متفاوتی را خواهد داشت. اگر برنامه ACE طبق زمان بندی صورت گرفته پیش برود تا سال ۲۰۲۴ میلادی چهار فروند اس-۳۹ مجهز به فناوری هوش مصنوعی در یک “داگ فایت” (اصطلاحی است که در مورد نبرد هوایی مستقیم بین دو هواپیمای جنگی استفاده میشود) در پرواز بر فراز دریاچه انتاریو شرکت خواهند کرد.
برای دستیابی به این هدف، ۳۲ مرکز تحقیقاتی دانشگاهی و شرکت خصوصی از سوی ارتش امریکا به کار گرفته شده اند که هر یک در یکی از دو حوزه مشکل ساز کار میکنند: یکی چگونگی وادار کردن هواپیما به پرواز و جنگیدن به تنهایی و دیگری چگونگی اعتماد خلبانان به فناوری هوش مصنوعی به اندازه کافی برای استفاده از آن.
“رابرت ورک” معاون وزیر دفاع اسبق امریکا در دوران ریاست جمهوری اوباما که پنتاگون را به سوی توسعه فناوریهای نسل بعدی سوق داد به “نیویورکر” میگوید: “اگر اعتماد نداشته باشید؛ انسان همواره باید مراقب هوش مصنوعی باشد.
در آن زمان با خود خواهید گفت: “اوه، من باید مسئولیت را بر عهده بگیرم”. هیچ تضمینی برای موفقیت برنامه ACE وجود ندارد. پروژههای “دارپا” (آژانس پروژههای پژوهشی پیشرفته دفاعی) معمولا محدود و برای آزمایش در بازه زمانی چهار تا پنج ساله هستند.
در آزمایشهای اولیه صورت گرفته، خلبان انسانی نتوانست در برابر هواپیمای مجهز به فناوری هوش مصنوعی جان سال به در ببرد و به نظر میرسد فناوری در چند سال گذشته ثابت کرده که میتواند سریعتر از انسان فکر کند و در یک محیط بکر دقیقتر واکنش نشان دهد.
هوش مصنوعی ممکن است مانورهای تاکتیکیای را اجرا کند که خلبانان برای اجتناب از آن آموزش دیده بودند مانند پرواز بسیار نزدیک به سمت هواپیماهای دشمن و حرکت با سرعتهایی که بدن انسان را تحت تاثیر قرار میدهد. یک خلبان انسانی شاید راحت نباشد خود را در در موقعیتی قرار دهد که ممکن است با چیز دیگری برخورد کند، اما فناوری هوش مصنوعی از این مزیت برخوردار است که میتواند از ریسک پذیری بیش تری برخوردار باشد. آزمایشات اولیه نشان داده که میتوان به فناوری هوش مصنوعی و کارگذاری آن روی جنگندهها اعتماد کرد و در یک سناریوی خاص به خوبی کار میکند.
با این وجود، هنوز مشخص نیست که این فناوری چگونه به احتمالات نامحدود شرایط دنیای واقعی واکنش نشان خواهد داد. ذهن انسان کندتر از رایانه پردازش میکند، اما انعطاف پذیری شناختی برای سازگاری با شرایط غیر قابل تصور را دارد. هوش مصنوعی، تا کنون در این حوزه کارکرد موفقی نداشته است.
“آنا اسکینر” روانشناس عوامل انسانی و یکی دیگر از مشاوران علمی برنامه ACE به “نیویورکر” میگوید:”انسانها میتوانند از تجربیات خود استفاده کنند و در مواجهه با عدم قطعیت اقدامات منطقی انجام دهند به خصوص در شرایط جنگی عدم اطمینان عاملی است که همیشه وجود دارد”.
متقاعد کردن خلبانان برای واگذاری کنترلها به فناوری هوش مصنوعی ممکن است حتی از توسعه آن فناوری برای استفاده بر روی جنگندهها دشوارتر باشد. “پیتر هنکاک” استاد روانشناسی در دانشگاه فلوریدای مرکزی که تأثیر اعتماد بر پذیرش فناوری را مطالعه میکند میگوید در ارتش اعتماد مسئله بی معنایی است.
در جدیدترین نظرسنجی انجام شده توسط انجمن خودروی آمریکا حدود ۸۰ درصد از پاسخ دهندگان گفته اند که با ایده وسایل نقلیه خودران راحت نیستند. نظرسنجی نشان میدهد که اکثریت پاسخ دهندگان گفته اند پیش از آن که بتوانند به یک سیستم خودران اعتماد کنند میخواهند سیستمهای فعلی بهتر کار کنند. علیرغم پیشرفتهای فراوان در فناوری، این درصد تغییر چندانی نکرده است و این موضوعی بسیار تکان دهنده است.
این بی اعتمادی در سالیان اخیر تقویت شده است. در سال ۲۰۱۷ میلادی، “انستیتو آینده زندگی” یک گروه مشاوره متمرکز بر “مفید نگهداشتن هوش مصنوعی” که “ایلان ماسک” نیز عضو هیئت مشاوران آن است ویدئوی کوتاهی را منتشر کرد که دنیایی را متصور شده بود که در آن کوادکوپتر (پهپادهای چهار پروانه ای)های مسلح شده به اندازه یک گوشی هوشمند، میتوانستند مخالفان سیاسی، دانشجویان و اعضای کنگره را هدف قرار دهند. شخصیتی شبیه “استیو جابز” در مراسم معرفی این محصول به مخاطبان مشتاق میگوید:”عصر هستهای به پایان رسید. اکنون کلیت دشمن خود را در عمل و بدون خطر از بین میبرید”.
در پایان این ویدئو که بیش از سه میلیون بار در یوتیوب دیده شده است “استوارت راسل” دانشمند رایانه از برکلی در مقابل دوربین میگوید: “اجازه دادن به ماشینها به منظور کشتن انتخابی انسانها برای امنیت و آزادی ما ویرانگر خواهد بود”.
راسل در زمره گروهی از دانشگاهیان و مدیران برجسته فناوری از جمله ایلان ماسک، استیون هاوکینگ و نوام چامسکی بوده است که نامهای را امضا کردند که در آن خواستار ممنوعیت استفاده از “سلاحهای خودمختار تهاجمی فراتر از کنترل معنادار انسان” شدند.
با این حال، هوش مصنوعی در حال حاضر یک مسابقه تسلیحاتی در سراسر جهان را هدایت میکند. در سال ۲۰۲۰ میلادی، طبق تخمینهای صورت گرفته هزینههای جهانی برای فناوری هوش مصنوعی نظامی بیش از شش میلیارد دلار بوده است و انتظار میرود تا سال ۲۰۲۵ این رقم تقریبا به میزان دو برابر افزایش یابد.
روسیه در حال توسعه وسایل نقلیه بدون سرنشین، از جمله تانکهای رباتیک و سیستمهای نظارتی است. سال گذشته، گزارش شده بود که لیبی یک پهپاد خودگردان را به فضا پرتاب کرد که به نظر میرسید مجهز به قابلیت “پردازش تصویر در زمان واقعی” برای شناسایی و هدف قرار دادن جنگندههای دشمن است.
“رابرت ورک” معاون سابق وزیر دفاع به “نیویورکر” میگوید که اطلاعات نشان میدهند چین جنگندههای از کار افتاده را به پهپادهای انتحاری خودمختار تبدیل کرده است که میتوانند همزمان با یکدیگر به عنوان یک اسکادران عمل کنند. او میافزاید:”این نوع کاملا تازهای از سلاح است که دفاع در برابر آن فوقالعاده دشوار خواهد بود”.
ایالات متحده نیز در حال آزمایش استفاده از هواپیماهای بدون سرنشین است. در آزمایشی در آوریل گذشته، یک گروه پهپاد به یک کشتی نیروی دریایی در سواحل کالیفرنیا حمله کرد.
در مقالهای که در آوریل گذشته منتشر شد “رابرت ورک” نوشت که سیستمهای مجهز به هوش مصنوعی “احتمالا به کاهش بزرگترین علت درگیریهای رزمی ناخواسته کمک میکنند: شناسایی اشتباه هدف”. ارتش ایالات متحده بارها وعده داده است که فناوری بهبود یافته باعث تقویت هدف گیری دشمن میشود.
با این وجود، نتایج همواره مثبت نبوده اند. در سال ۲۰۰۳ میلادی، در طول جنگ عراق یک سلاح خودمختار اولیه موشک پاتریوت به طور ناخواسته یک جت جنگنده بریتانیایی را سرنگون کرد و هر دو خلبان آن جان باختند. گزارش منتشر شده پنتاگون پس از آن سانحه نشان داد که این نتیجه گیری حاصل شده که اپراتورهای انسانی استقلال بیش از حدی به سیستم موشکی داده بودند.
نشریه “تایمز” پیشتر گزارشی را منتشر کرده بود مبنی بر آن که سیصد گزارش طبقه بندی شده از تلفات غیر نظامیان در خاورمیانه تحت تاثیر جنگهای هوایی امریکا نشان میدهند تصویری که دولت امریکا از جنگ دقیق و هدایت شده توسط پهپادها و بمبهای با دقت بالا ترسیم کرده در تضاد شدیدی با نتایج عملی استفاده از این تجهیزات بدون سرنشین بوده اند.
در سال ۲۰۱۸ میلادی، پژوهشگران دانشگاههای “ام آی تی” و استنفورد دریافتند که فناوری هوش مصنوعی در سیستمهای تشخیص چهره اغلب در تشخیص جنسیت زنان با پوست تیره شکست خورده اند. دو سال پس از آن، یک گزارش سرویس تحقیقاتی کنگره اشاره کرد که “این ناکامی میتواند پیامدهای مهمی برای فناوری هوش مصنوعی داشته باشد. برنامههای کاربردی در زمینه نظامی، به ویژه اگر چنین سوگیریهایی کشف نشده باقی بمانند و در سیستمهایی با اثرات کشنده گنجانده شوند نتایج مخربی را به بار خواهند آورد”.
در همین حال، “رباتهای قاتل را متوقف کنید” کارزار ائتلافی متشکل از ۱۸۰ سازمان و نهاد غیردولتی، از جمله عفو بینالملل، دیده بان حقوق بشر، و شورای جهانی کلیساها است که از کشورها خواسته تا معاهدهای حقوقی را برای کنترل استفاده از سلاحهای خود مختار مرگبار تنظیم کنند. ایالات متحده در زمره نزدیک به هفتاد کشوری که تاکنون این قرارداد را امضا کرده اند قرار ندارد. موضع “دارپا” (آژانس پروژههای پژوهشی پیشرفته دفاعی) در مورد تسلیحات خودمختار مرگبار این است که به یک تصمیم گیرنده انسانی نیاز دارد تا به میزان مناسبی در خط و مدار اصلی باقی بماند.