به نفع هیچ کشوری نیست که سیستمهای هوش مصنوعی را توسعه دهد و منتشر کند اگر قادر به کنترل آن نباشد. اصرار بر اقدامات احتیاطی معقول به معنای ضدیت با صنعت نیست.
سیستمهایی با تواناییهای بیش از ظرفیت انسانی رها شده اند. اگر شرکتهای بزرگ فناوری از مشاهده خطرات هوش مصنوعی خودداری کنند دولتها باید وارد عمل شوند.
استوارت راسل، دانشمند علوم کمپوتر در بریتانیا
به گزارش کابل۲۴ به نقل از گاردین، اگر جای دیگری در منظومه شمسی بودهاید در اینجا یک به روز رسانی مختصر اخبار هوش مصنوعی آورده شده است.
اگر شبیه پاراگراف آغازین یک رمان علمی – تخیلی بد به نظر میرسد عذرخواهی میکنم. در تاریخ ۱۴ مارچ ۲۰۲۳ میلادی Open AI یک شرکت مستقر در سانفرانسیسکو که مایکروسافت سرمایه گذاری عمدهای در آن دارد یک سیستم هوش مصنوعی به نام جی پی تی -۴ (GPT-۴) را منتشر کرد. در تاریخ ۲۲ مارچ در گزارشی تهیه شده توسط گروه برجستهای از محققان مایکروسافت از جمله دو عضو آکادمیهای ملی ایالات متحده ادعا شد که جی پی تی -۴ “جرقههای هوش مصنوعی عمومی” را نشان میدهد. (هوش عمومی مصنوعی یا AGI یک کلمه کلیدی برای سیستمهای هوش مصنوعی است که در طیف کاملی از وظایفی که ذهن انسان برای آن قابل اجرا است مطابقت دارد یا از آن فراتر میرود).
در تاریخ ۲۹ مارچ انستیتو آینده زندگی یک موسسه غیرانتفاعی به ریاست “مکس تگمارک” پروفسور موسسه فناوری ماساچوست (ام آی تی) نامهای سرگشاده منتشر کرد که در آن خواستار توقف آزمایشهای غول پیکر هوش مصنوعی شده بود. این سند توسط چهرههای شناخته شدهای مانند “ایلان ماسک” مدیر عامل تسلا، “استیو وزنیاک” بنیانگذار اپل و “یوشوا بنجیو” برنده جایزه تورینگ و همچنین صدها محقق برجسته هوش مصنوعی امضا شده است.
طوفان رسانهای متعاقب آن کماکان ادامه دارد. من نیز از امضاکنندگان آن نامه بودم به این امید که دست کم منجر به گفتگوی جدی و متمرکز میان سیاستگذاران، شرکتهای فناوری و جامعه تحقیقاتی هوش مصنوعی شود گفتگو در مورد اینکه چه نوع حفاظتی پیش از حرکت به جلو مورد نیاز است.
زمان سخن گفتن از این که هوش مصنوعی صرفا یک تحقیق ناب میباشد مدتها گذشته است.
پس سر و صدا برای چیست؟
جی پی تی -۴ آخرین نمونه از مدلهای زبان بزرگ یا LLM است. یک LLM را به عنوان یک مدار بسیار بزرگ با تریلیون پارامتر قابل تنظیم در نظر بگیرید.
این به عنوان یک لوح خالی آغاز شده و با دهها تریلیون کلمه متن آموزش داده میشود به اندازه تمام کتابهایی که بشریت تولید کرده است.
هدف این مدلهای زبان بزرگ آن است که در پیش بینی کلمه بعدی در دنبالهای از کلمات خوب عمل کند و پس از حدود یک میلیارد تریلیون اختلالات تصادفی پارامترها بسیار خوب عمل خواهد کرد.
قابلیتهای سیستم حاصل قابل توجه است. طبق گفته وب سایت Open AI جی پی تی -۴ در طیف وسیعی از آزمونهای ورودی دانشگاه و تحصیلات تکمیلی برتر انسانها امتیاز میگیرد.
هم چنین، جی پی تی -۴ طبق گفته سازنده آن میتواند قضیه فیثاغورث را در قالب غزل شکسپیر توصیف کرده و پیش نویس سخنرانی وزیر کابینه را از دیدگاه یک نماینده مجلس از هر حزب سیاسی نقد کند.
هر روز تواناییهای شگفتانگیز جدیدی کشف میشوند. جای تعجب نیست که هزاران شرکت بزرگ و کوچک به دنبال راههایی برای کسب درآمد از این عرضه نامحدود اطلاعات تقریبا رایگان هستند.
مدلهای زبان بزرگ میتوانند بسیاری از وظایفی را انجام دهند که مشاغل صدها میلیون نفر را در بر میگیرد به خصوص هر فردی که سر و کارش با زبان است.
در حالتی خوش بینانهتر ابزارهای ساخته شده مبتنی بر مدلهای زبان بزرگ قادر به ارائه آموزش بسیار شخصی در سراسر جهان خواهند بود.
با این وجود، متاسفانه مدلهای زبان بزرگ به دلیل دچار شدن به توهم پاسخهای کاملا نادرست نیز ارائه میدهند که اغلب از سوی نقل قولهای ساختگی پشتیبانی میشوند، زیرا آموزش آن هیچ ارتباطی با دنیای خارج ندارد.
مدلهای زبان بزرگ ابزار مناسبی برای اطلاع رسانی نادرست هستند و برخی از آنها به خودکشی در میان انسانها دامن زده و حتی آن را تشویق میکرده اند.
Open AI خود توصیه کرده که از “استفادههای پرمخاطب از این فناوری به طور کلی اجتناب ورزید”. با این وجود، به نظر میرسد هیچ کس به آن توصیه توجهی نکرده است.
آزمایشهای Open AI نشان داد که جی پی تی -۴ میتواند عمدا به یک مخاطب انسانی دروغ بگوید (با این مضمون که نه، من یک ربات نیستم.
من یک اختلال بینایی دارم که دیدن تصاویر را برایم دشوار میسازد) تا به ظاهر برای حل مشکل کمک کند.
در حالی که Open AI تلاشهای شدیدی انجام داده تا جی پی تی -۴ به درخواستهای حساس (برای مثال توصیههای پزشکی و آسیب رساندن افراد به خود) پاسخ دهد مشکل اصلی این است که نه Open AI و نه هیچ کس دیگری ایدهای واقعی درباره نحوه عملکرد جی پی تی -۴ ندارند.
من از متخصصی پرسیدم که آیا جی پی تی -۴ اهداف داخلی خود را توسعه داده و آن را در انتخاب خروجیهای خود به کار میگیرد؟ او در پاسخ گفت: “من هیچ ایدهای در این باره ندارم”.
در حال حاضر دلایلی فنی وجود دارد که فرض کنیم جی پی تی -۴ در توانایی خود برای شکل دهی و اجرای طرحهای پیچیده محدود است، اما با توجه به سرعت پیشرفت دشوار است که بگوییم نسخههای آینده آن چنین تواناییای را نخواهند داشت و همین موضوع منجر به یکی از نگرانیهای اصلی نهفته در نامه سرگشاده میشود: چگونه میتوانیم قدرت را بر موجودات قدرتمندتر از خودمان برای همیشه حفظ کنیم؟
ایده اصلی توقف پیشنهادی نامه سرگشاده این است که هیچ سیستمی نباید منتشر شود تا زمانی که توسعه دهنده به طور قانع کننده نشان دهد که خطر بی دلیل ندارد.
این دقیقا مطابق با اصول هوش مصنوعی سازمان همکاری و توسعه اقتصادی است که بریتانیا، ایالات متحده و بسیاری از دولتهای دیگر آن را امضا کردهاند:
“سیستمهای هوش مصنوعی باید در تمام چرخه عمر خود قوی و ایمن باشند تا در شرایط استفاده عادی، استفاده قابل پیش بینی یا سوء استفاده یا سایر شرایط نامطلوب عملکرد مناسبی داشته و خطر ایمنی غیر منطقی را ایجاد نکنند”.
این وظیفه توسعه دهنده است که نشان دهد سیستمهایش این معیارها را برآورده میسازند.
من فکر نمیکنم فردا “ساتیا نادلا” مدیرعامل مایکروسافت با من تماس بگیرد و بگوید: “موافق هستم ما تسلیم شده و متوقف میشویم”!
در سخنرانیهای تازه در برکلی این ایده مطرح شد که هیچ امکانی وجود ندارد که تمام شرکتهای بزرگ فناوری متوقف شوند مگر آن که دولتها مداخله کنند؛ بنابراین ضروری است که دولتها بحثهای جدی را با کارشناسان شرکتهای فناوری و با یکدیگر آغاز کنند.
به نفع هیچ کشوری نیست که سیستمهای هوش مصنوعی را توسعه دهد و منتشر کند اگر قادر به کنترل آن نباشد. اصرار بر اقدامات احتیاطی معقول به معنای ضدیت با صنعت نیست.
چرنوبیل زندگی بسیاری از انسانها را نابود کرد، اما تلفات و هزینههای زیادی بر صنعت هستهای جهانی نیز تحمیل کرد. من یک محقق هوش مصنوعی هستم.
من نمیخواهم حوزه تحقیقاتی ام از بین برود. بشریت چیزهای زیادی برای به دست آوردن از هوش مصنوعی دارد. همزمان بشریت چیزهای زیادی برای از دست دادن در برابر هوش مصنوعی و باخت در مقابل آن را نیز دارد.