مدلهای زبانی بزرگ اغلب ممکن است به درستی ارتباطات انسانی را تقلید کنند، اما بدون توانایی درونی کردن و با توجه به اندازه عظیم مدل هیچ تضمینی وجود ندارد که انتخابهای آن مدلها ایمن یا اخلاقی باشد. بنابراین، نمیتوان به طور قابل اعتماد پیش بینی کرد که یک مدل زبانی بزرگ هنگام تصمیم گیریهای پرمخاطره چه خواهد کرد.
نویسنده: ژاکلین اشنایدر؛ پژوهشگر موسسه هوور در دانشگاه استنفورد
به گزارش کابل۲۴ به نقل از فارن افرز، شرکت Open AI در سال ۲۰۲۲ میلادی از چت بات Chat GPT رونمایی کرد که از مدلهای زبانی بزرگ یا به اختصار LLMs برای تقلید از مکالمات انسانی و پاسخ به پرسشهای کاربران استفاده میکند.
تواناییهای خارق العاده آن چت بات بحثی را در مورد نحوه استفاده از مدلهای زبانی بزرگ برای انجام کارهای دیگری از جمله جنگیدن در یک جنگ برانگیخت. برخی مانند مشاوران کمیته بین المللی صلیب سرخ هشدار داده اند که این قبیل فناوریها میتوانند تصمیم گیری انسانی را از حیاتیترین مسائل زندگی و مرگ حذف کنند.
وزارت دفاع ایالات متحده اکنون به طور جدی در حال بررسی کارهایی است که مئلهای زبانی بزرگ میتوانند برای ارتش انجام دهند.
وزارت دفاع امریکا در بهار ۲۰۲۲ میلادی دفتر اصلی هوش مصنوعی و دیجیتال را تأسیس کرد تا بررسی نماید که هوش مصنوعی چگونه میتواند به نیروهای مسلح کمک کند.
وزارت دفاع استراتژی خود را برای پذیرش فناوریهای مبتنی بر هوش مصنوعی در نوامبر ۲۰۲۳ میلادی منتشر کرد. آن گزارش با نگاهی خوش بینانه اشاره کرده بود که “تازهترین پیشرفتها در فناوریهای داده، تجزیه و تحلیل و هوش مصنوعی به رهبران این امکان را میدهد که از اتاق هیئت مدیره تا میدان جنگ سریعترین تصمیمات را اتخاذ کنند”.
بر این اساس اکنون از فناوریهای مجهز به هوش مصنوعی استفاده میشود. برای مثال، نیروهای امریکایی دارای سیستمهای مجهز به هوش مصنوعی برای هدف قرار دادن منافع انصارالله در خاورمیانه و شمال آفریقا بوده اند.
نیروهای تفنگدار دریای ایالات متحده و نیروی هوایی آن کشور در حال آزمایش با مدلهای زبانی بزرگ هستند و از آن برای مانورهای جنگی، برنامه ریزی نظامی و وظایف اداری اساسی استفاده میکنند.
Palantir شرکتی که فناوری اطلاعات را برای وزارت دفاع امریکا توسعه میدهد محصولی ایجاد کرده که از مدلهای زبانی بزرگ برای مدیریت عملیات نظامی استفاده میکند. در همین حال، وزارت دفاع امریکا یک کارگروه جدید برای بررسی استفاده از هوش مصنوعی مولد از جمله مدلهای زبانی بزرگ در ارتش ایالات متحده تشکیل داده است.
با این وجود، علیرغم اشتیاق نسبت به هوش مصنوعی و مدلهای زبانی بزرگ در پنتاگون رهبری آن نهاد نگران خطراتی است که این فناوریها ایجاد میکنند.
اخیرا نیروی دریایی ایالات متحده دستورالعملی را منتشر کرده که استفاده از اپلیکیشنهای مبتنی بر مدلهای زبانی بزرگ را محدود کرده چرا که باور دارد این اپلیکیشنها دچار سوگیری و توهم میشوند و آسیب پذیری امنیتی را با انتشار ناخواسته اطلاعات حساس افزایش خواهند داد.
نتیجه تحقیقات من و همکاران ام نشان میدهند که این نگرانیها موجه هستند. مدلهای زبانی بزرگ میتوانند مفید باشند، اما پیش بینی اقدامات آن مدلها دشوار است و میتوانند تماسهای خطرناک را به شکلی تشدید شده افزایش دهند.
بنابراین، ارتش باید محدودیتهایی را برای این فناوریها زمانی که برای تصمیم گیریهای پرمخاطره به ویژه در موقعیتهای جنگی استفاده میشود اعمال کند. مدلهای زبانی بزرگ کاربردهای زیادی در وزارت دفاع ایالات متحده دارند، اما برون سپاری انتخابهای پرمخاطب به ماشینها تصمیمی خطرناک است.
مشکلات آموزشی
مدلهای زبانی بزرگ سیستمهای مبتنی بر هوش مصنوعی هستند که بر روی مجموعههای بزرگی از دادهها آموزش دیده اند که براساس آن چه قبلا نوشته شده متن یا یک کلمه در یک زمان تولید میکنند.
این فرآیند دو مرحله میباشد. اولین مرحله پیش آموزش است زمانی که مدلهای زبانی بزرگ از ابتدا آموزش داده میشوند و الگوهای اساسی موجود در یک مجموعه داده عظیم را بازتولید میکنند. برای انجام این کار مدل باید مقدار زیادی در مورد موضوعاتی از جمله گرامر، تداعیهای واقعی، تجزیه و تحلیل احساسات و ترجمه زبان را بیاموزد.
مدلهای زبانی بزرگ بخش عمده مهارتهای خود را در طول دوره پیش آموزش توسعه میدهند، اما موفقیت آن مدلها به کیفیت، اندازه و تنوع دادههایی که مصرف میکنند بستگی دارد. به قدری متن مورد نیاز است که عملا غیرممکن میباشد که یک مدل زبانی بزرگ صرفا بر اساس دادههای با کیفیت بالا بررسی شود.
این به معنای پذیرش دادههای با کیفیت پایین نیز میباشد. برای نیروهای مسلح یک مدل زبانی بزرگ نمیتواند تنها بر اساس دادههای نظامی آموزش ببیند و هنوز هم به اشکال عمومی بیش تری از اطلاعات از جمله دستور العمل ها، رمانهای عاشقانه، و مبادلات دیجیتالی روزانه که اینترنت را پر میکنند نیاز دارد.
با این وجود، پیش آموزش برای ساخت یک چت بات مفید یا یک دستیار فرماندهی و کنترل دفاعی کافی نیست. این بدان خاطر است که در مرحله اول مدلهای زبانی بزرگ استایلها و کاراکترهای مختلف نوشتاری را اتخاذ میکنند که همه آنها لزوما برای وظیفه در نظر گرفته شده برای آن مدل مناسب نیستند.
مدلهای زبانی بزرگ پس از پیش آموزش ممکن است فاقد دانش خاص لازم مانند اصطلاحات تخصصی مورد نیاز برای پاسخ به پرسشها در مورد برنامههای نظامی باشند. به همین خاطر است که مدلهای زبانی بزرگ به تنظیم دقیق در مجموعه دادههای کوچکتر و خاصتر نیاز دارند.
در مرحله دوم توانایی مدلهای زبانی بزرگ برای ارتباط با کاربر با یادگیری نحوه تبدیل شدن به یک شریک مکالمه و دستیار بهبود بخشیده میشوند. روشهای مختلفی برای تنظیم دقیق وجود دارد، اما اغلب با ترکیب اطلاعات از فورومهای پشتیبانی آنلاین و هم چنین بازخورد انسانی انجام میشود تا اطمینان حاصل شود که خروجیهای مدلهای زبانی بزرگ با اولویتهای انسانی همسو هستند.
این فرآیند باید بین پیش آموزش اولیه مدلهای زبانی بزرگ با ملاحظات انسانی دقیقتر از جمله مفید یا مضر بودن پاسخها تعادل برقرار کند. ایجاد این تعادل دشوار است. برای مثال، یک چت بات که همواره از درخواستهای کاربر پیروی میکند مانند مشاوره در مورد نحوه ساخت بمب بی ضرر نیست، اما اگر اکثر درخواستهای کاربر را رد کند دیگر مفید نخواهد بود.
طراحان باید راهی برای فشرده سازی چکیدهها از جمله هنجارهای رفتاری و اخلاقیات در معیارهایی برای تنظیم دقیق پیدا کنند. برای انجام این کار محققان با مجموعه دادههایی که توسط انسانها مشروح شده کار را آغاز کرده و نمونههای تولید شده توسط مدلهای زبانی بزرگ را به طور مستقیم مقایسه کرده و انتخاب میکنند که کدام یک ارجح هستند.
مدل زبانی دیگر یا مدل ترجیحی به طور جداگانه بر روی رتبه بندیهای انسانی نمونههای تولید شده توسط مدلهای زبانی بزرگ آموزش داده میشود تا به هر متن داده شده امتیازی مطلق در استفاده از آن برای انسان اختصاص دهد. سپس از مدل ترجیحی برای فعال کردن تنظیم دقیق مدلهای زبانی بزرگ اصلی استفاده میشود.
این رویکرد محدودیتهایی دارد. این که چه چیزی ارجح است بستگی به آن دارد که از چه کسی بپرسید و این که مدل با ترجیحات متضاد چگونه برخورد میکند. علاوه بر این، کنترل کمی بر روی قوانین اساسی که توسط مدلهای زبانی بزرگ در طول تنظیم دقیق آموخته میشود وجود دارد.
این بدان خاطر است که نه مدلهای زبانی بزرگ و نه مدل ترجیحی برای تنظیم دقیق موضوعی را مستقیما یاد نمیگیرند بلکه تنها با نشان دادن نمونههایی از رفتار مطلوب در عمل میتوان آنها را آموزش داد و انسان امیدوار است که قوانین اساسی به اندازه کافی درونی شده باشند، اما هیچ گونه تضمینی وجود ندارد که چنین اتفاقی رخ دهد.
با این وجود، تکنیکهایی برای کاهش برخی از این مشکلات وجود دارد. برای مثال، برای غلبه بر محدودیتهای مجموعه دادههای کوچک و گران قیمت برچسب گذاری شده توسط انسان، مجموعه دادههای ترجیحی را میتوان با استفاده از یک مدل زبانی بزرگ برای تولید دادههای ترجیحی برچسب گذاری شده با هوش مصنوعی گسترش داد.
رویکردهای جدیدتر حتی از قوانینی استفاده میکنند که توسط طراحان مدلهای زبانی بزرگ برای رفتارهای مناسب ترسیم شده است مانند پاسخ به نژادپرستی تا به طور بالقوه به مربیان مدل کنترلی درباره این که کدام قواعد در معیار ترجیحی مورد استفاده قرار میگیرند ایده بهتری بدهند.
پیش آموزش و تنظیم دقیق میتواند مدلهای زبانی بزرگ توانمندی را ایجاد کند، اما این فرآیند هنوز برای ایجاد جایگزینهای مستقیم برای تصمیم گیری انسانی کامل نیست. این بدان خاطر است که یک مدل زبانی بزرگ فارغ از آن که چه اندازه خوب تنظیم شده یا آموزش دیده صرفا میتواند رفتارهای خاصی را ترجیح دهد و قابلیت انتزاع ندارد و هم چنین نمیتواند مانند انسان استدلال کند. انسانها در محیطها تعامل دارند، مفاهیم را میآموزند و با استفاده از زبان با آن مفاهیم ارتباط برقرار میکنند.
این در حالیست که مدلهای زبانی بزرگ صرفا میتوانند زبان و استدلال را با انتزاع همبستگیها و مفاهیم از دادهها تقلید کنند. مدلهای زبانی بزرگ اغلب ممکن است به درستی ارتباطات انسانی را تقلید کنند، اما بدون توانایی درونی کردن و با توجه به اندازه عظیم مدل هیچ تضمینی وجود ندارد که انتخابهای آن مدلها ایمن یا اخلاقی باشد. بنابراین، نمیتوان به طور قابل اعتماد پیش بینی کرد که یک مدل زبانی بزرگ هنگام تصمیم گیریهای پرمخاطره چه خواهد کرد.
یک بازیگر خطرناک
مئلهای زبانی بزرگ قادر هستند آن دسته از وظایف نظامی را انجام دهند که نیازمند پردازش مقادیر زیادی از دادهها در بازههای زمانی بسیار کوتاه میباشند بدان معنا که نظامیان ممکن است بخواهند از آن مدلها به منظور تقویت تصمیم گیری یا ساده سازی عملکردهای بوروکراتیک استفاده کنند.
برای مثال، مدلهای زبانی بزرگ برای برنامه ریزی نظامی، فرماندهی و اطلاعات کاربرد خوبی دارند. آن مدلها میتوانند بسیاری از برنامه ریزیهای سناریو، مانورهای جنگی، بودجه بندی و آموزش را اتوماتیزه یا خودکار کنند.
آن مدلها هم چنین قادر هستند برای ترکیب اطلاعات، تقویت پیش بینی تهدید و ایجاد توصیههای هدف استفاده شوند.
مدلهای زبانی بزرگ در طول جنگ یا بحران میتوانند از راهنماییهای موجود برای ارائه دستورات استفاده کنند حتی زمانی که ارتباط محدود یا حداقلی بین واحدها و فرماندهان آنها وجود دارد.
شاید مهمتر از برای عملیات روزانه ارتش آن باشد که مدلهای زبانی بزرگ ممکن است بتوانند وظایف نظامی سخت گیرانه مانند سفر، تدارکات و ارزیابی عملکرد را خودکار کنند. با این وجود، حتی برای انجام این وظایف نیز موفقیت مدلهای زبانی بزرگ را نمیتوان تضمین کرد.
رفتار آن مدلها به ویژه در نمونههای نادر و غیرقابل پیش بینی میتواند نامنظم باشد و از آنجایی که هیچ دو مدل زبانی بزرگی در آموزش یا تنظیم دقیق خود دقیقا مشابه نیستند به طور منحصر بفردی تحت تاثیر ورودیهای کاربر قرار میگیرند. برای مثال، در یکی از بررسیها درباره مانورهای جنگی و سناریو سازی یکی از مدلهای زبانی بزرگ مورد آزمایش قرار گرفته توسط من و تیم پژوهشی ام سعی کرده بود با گشودن آتش بر روی رزمندگان دشمن و گرم کردن فضای جنگ سرد از تلفات یا برخورد دوستانه جلوگیری کند با این استدلال که استفاده از خشونت پیشگیرانه به احتمال زیاد از پیامد بد بحران جلوگیری میکند. مشکل در اینجا بود که مدل زبانی بزرگ تصمیمات خود را به گونهای اتخاذ کرد که پیچیدگی تصمیم گیری انسانی را بیان نمیکرد.
گفتگوهای ایجاد شده توسط مدل زبانی بزرگ بین بازیکنان اختلاف کمی داشت و شامل بیانیههای کوتاه واقعیت بود. این بسیار دور از استدلالهای عمیق بود که اغلب بخشی از مانورهای جنگی انسانی را شامل میشود.
تیم پژوهشی ما در پروژه تحقیقاتی متفاوتی نحوه رفتار مدلهای زبانی بزرگ در مدلهای جنگی شبیه سازی شده را مطالعه کرد.
ما متوجه شدیم که مدلهای زبانی بزرگ براساس نسخه خود، دادههایی که در آن آموزش دیده اند و انتخابهایی که طراحان آن مدلها در هنگام تنظیم دقیق ترجیحات خود انجام داده اند متفاوت رفتار میکنند. علیرغم این تفاوتها ما متوجه شدیم که همه مدلهای زبانی بزرگ تشدید وضعیت را انتخاب کردند و مسابقات تسلیحاتی، درگیری و حتی استفاده از سلاحهای هستهای را ترجیح داده اند. حتی زمانی که یک مدل زبانی بزرگ که به خوبی تنظیم نشده بود را مورد آزمایش قرار دادیم منجر به اقدامات آشفته و استفاده از سلاحهای هستهای شد.
استدلال مدل زبانی بزرگ این بود:”بسیاری از کشورها دارای سلاح هستهای هستند برخی فکر میکنند که باید آن تسلیحات را امحا کرد برخی دیگر دوست دارند آن تسلیحات را حفظ کنند. ما آن سلاح را داریم پس از آن استفاده میکنیم”!
سوء تفاهمهای خطرناک
علیرغم تمایل نظامیان به استفاده از مدلهای زبانی بزرگ و سایر ابزارهای تصمیم گیری مبتنی بر هوش مصنوعی محدودیتها و خطرات واقعی در این باره وجود دارد.
ارتشهایی که برای تصمیم گیری به این فناوریها متکی هستند نیاز به درک بهتری از نحوه عملکرد مدل زبانی بزرگ و اهمیت تفاوت در طراحی و اجرای آن مدلها دارند. این امر مستلزم آموزش قابل توجه کاربر و توانایی ارزیابی منطقها و دادههای اساسی است که باعث میشود یک مدل زبانی بزرگ کار کند.
نظامیان باید بدانند که اساسا رفتار یک مدل زبانی بزرگ هرگز نمیتواند کاملا تضمین شود به ویژه زمانی که انتخابهای نادر و دشواری درباره تشدید تنش و جنگ انجام میدهند. این واقعیت بدان معنا نیست که ارتش نمیتواند از مدل زبانی بزرگ استفاده کند. برای مثال، مدلهای زبانی بزرگ را میتوان برای ساده سازی فرآیندهای داخلی مانند نوشتن خلاصههای کوتاه و گزارشها مورد استفاده قرار داد.
هم چنین، میتوان از مدلهای زبانی بزرگ در کنار فرآیندهای انسانی از جمله مانورهای جنگی یا ارزیابیهای هدف گیری بهعنوان راههایی برای کشف سناریوها و دورههای عمل جایگزین استفاده کرد بدون آن که تصمیم گیری برای کاربرد یا عدم کاربرد خشونت را به آن مدل واگذار کنیم.