هوش مصنوعی تا سال 2027 چگونه خواهد بود؟
این مطلب ترجمهایست از وبسایت هوش مصنوعی 2027
نویسندگان: Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean
ما پیشبینی میکنیم که تأثیر هوش مصنوعی فرا انسانی طی دهه آینده عظیم خواهد بود و از [تأثیر] انقلاب صنعتی فراتر خواهد رفت.
ما سناریویی نوشتیم که بهترین حدس/تخمین ما را در مورد اینکه این آینده چگونه ممکن است باشد، نشان میدهد. این سناریو بر اساس برونیابی روندها، بازیهای جنگی (شبیهسازیهای استراتژیک)، بازخورد کارشناسان، تجربه در OpenAI و موفقیتهای پیشبینی قبلی شکل گرفته است.
اواسط ۲۰۲۵: عاملهای هوش مصنوعی نوپا
جهان اولین نگاه اجمالی خود را به عاملهای (Agents) هوش مصنوعی میاندازد. تبلیغات برای عاملهای کامپیوتری بر اصطلاح «دستیار شخصی» تأکید میکنند: میتوانید وظایفی مانند «برایم از DoorDash یک بوریتو سفارش بده» یا «صفحه گسترده بودجهام را باز کن و هزینههای این ماه را جمع بزن» به آنها بسپارید. آنها در صورت نیاز با شما هماهنگ خواهند کرد: به عنوان مثال، برای تأیید خرید از شما سؤال میکنند. گرچه این عاملها پیشرفتهتر از نسخههای قبلی مانند Operator هستند، اما برای دستیابی به استفاده گسترده با چالش مواجهاند.
در همین حال، دور از توجه عموم، عاملهای تخصصیتر کدنویسی و تحقیق شروع به دگرگون کردن حرفههای خود میکنند.
هوش مصنوعی سال ۲۰۲۴ میتوانست دستورالعملهای خاصی را دنبال کند: میتوانست موارد لیستوار (Bullet Points) را به ایمیل تبدیل کند و درخواستهای ساده را به کد اجرایی بدل سازد. در سال ۲۰۲۵، هوش مصنوعی بیشتر شبیه کارمندان عمل میکند. هوش مصنوعیهای کدنویس بهطور فزایندهای شبیه عاملهای مستقل به نظر میرسند تا صرفاً دستیار: دستورالعملها را از طریق Slack یا Teams دریافت میکنند و به تنهایی، تغییرات قابل توجهی در کد ایجاد میکنند، که گاهی ساعتها یا حتی روزها صرفهجویی در زمان به همراه دارد. عاملهای تحقیق نیم ساعت را صرف جستجو در اینترنت برای پاسخ به سؤال شما میکنند.
این عاملها در تئوری (و در مثالهای گلچینشده) چشمگیر هستند، اما در عمل غیرقابل اعتمادند. توییتر پر از داستانهایی درباره وظایفی است که هوش مصنوعی انجام داده و به شکلی خندهدار خراب شدهاند. عاملهای بهتر همچنین گران هستند؛ هر چقدر پول بدهید همانقدر آش میخورید و بهترین عملکرد ماهانه صدها دلار هزینه دارد. با این حال، بسیاری از شرکتها راههایی برای گنجاندن عاملهای هوش مصنوعی در جریان کاری خود پیدا میکنند.
اواخر ۲۰۲۵: گرانترین هوش مصنوعی جهان
OpenBrain در حال ساخت بزرگترین مراکز دادهای است که جهان تاکنون به خود دیده است.
(برای جلوگیری از اشاره مستقیم به نام شرکتهای واقعی، ما یک شرکت تخیلی هوش مصنوعی عمومی را توصیف میکنیم که آن را OpenBrain مینامیم. تصور میکنیم که دیگر شرکتها ۳ تا ۹ ماه از OpenBrain عقبتر باشند.)

آموزش GPT-4 به ۲ ضربدر ۱۰ به توان ۲۵ فلاپس (FLOP) محاسبات نیاز داشت. آخرین مدل عمومی OpenBrain – یعنی Agent-0 – با ۱۰ به توان ۲۷ فلاپس آموزش داده شد. به محض راهاندازی مراکز داده جدید، آنها قادر خواهند بود مدلی با ۱۰ به توان ۲۸ فلاپس آموزش دهند – هزار برابر بیشتر از GPT-4. شرکتهای دیگر نیز پول زیادی را صرف مراکز داده غولپیکر خود میکنند، به امید اینکه از رقابت عقب نمانند.
اگرچه مدلها در طیف گستردهای از مهارتها در حال بهبود هستند، اما یکی از آنها برجستهتر است: OpenBrain بر روی هوش مصنوعیهایی تمرکز میکند که میتوانند تحقیقات هوش مصنوعی را تسریع کنند. آنها میخواهند در مسابقه تسلیحاتی دوگانه علیه چین (که شرکت پیشروی آن را «DeepCent» مینامیم) و رقبای آمریکایی خود پیروز شوند. هرچه بخش بیشتری از چرخه تحقیق و توسعه (R&D) خود را بتوانند خودکار کنند، سریعتر میتوانند پیش بروند. بنابراین، وقتی OpenBrain آموزش Agent-1، مدل جدیدی که در حال توسعه داخلی است، را به پایان میرساند، این مدل در بسیاری از کارها خوب است اما در کمک به تحقیقات هوش مصنوعی عالی است. در این مقطع، عبارت «پایان آموزش» کمی نامناسب است؛ مدلها به طور مکرر با دادههای اضافی به نسخههای جدیدتر بهروز میشوند یا برای رفع برخی ضعفها، به صورت جزئی دوباره آموزش میبینند.
همان محیطهای آموزشی که به Agent-1 یاد میدهند به طور مستقل کدنویسی کند و وبگردی نماید، آن را به یک هکر خوب نیز تبدیل میکنند. علاوه بر این، به لطف دانش سطح دکترای آن در هر زمینهای و تواناییاش در وبگردی، میتواند کمک قابل توجهی به تروریستها در طراحی سلاحهای بیولوژیکی ارائه دهد. OpenBrain به دولت اطمینان میدهد که مدل «همراستا» (aligned) شده است تا از پیروی از درخواستهای مخرب امتناع ورزد.
سیستمهای هوش مصنوعی مدرن، شبکههای عصبی مصنوعی غولپیکری هستند. در اوایل آموزش، هوش مصنوعی بیشتر «رفلکس» دارد تا «هدف»: اگر «خوشوقتم از ملاقات» را ببیند، «شما» را خروجی میدهد. تا زمانی که برای پیشبینی متنی تقریباً به اندازه محتوای کل اینترنت آموزش دیده باشد، مدارهای داخلی پیچیدهای را توسعه داده که حجم عظیمی از دانش را رمزگذاری میکند و به طور انعطافپذیری نقش نویسندگان مختلف را ایفا میکند، زیرا این همان چیزی است که به آن کمک میکند متن را با دقت فرا انسانی پیشبینی کند.
پس از آموزش برای پیشبینی متن اینترنتی، مدل برای تولید متن در پاسخ به دستورالعملها آموزش میبیند. این فرآیند، یک شخصیت پایه و «کششها» (drives) را در آن نهادینه میکند. به عنوان مثال، عاملی که یک وظیفه را به وضوح درک میکند، احتمال بیشتری دارد که آن را با موفقیت به پایان برساند؛ در طول آموزش، مدل یک «کشش» برای درک روشن وظایفش را «یاد میگیرد». کششهای دیگر در این دسته ممکن است شامل اثربخشی، دانش، و خودنمایی (یعنی تمایل به ارائه نتایج خود در بهترین نور ممکن) باشد.
OpenBrain یک «مشخصات مدل» (یا Spec) دارد، که یک سند مکتوب است و اهداف، قوانین، اصول و غیره را توصیف میکند که قرار است رفتار مدل را هدایت کنند. مشخصات Agent-1 ترکیبی از چند هدف مبهم (مانند «به کاربر کمک کن» و «قانون را زیر پا نگذار») با لیست بلندبالایی از بایدها و نبایدهای مشخصتر است («این کلمه خاص را نگو»، «نحوه برخورد با این وضعیت خاص اینگونه است»). با استفاده از تکنیکهایی که از هوش مصنوعی برای آموزش سایر هوش مصنوعیها بهره میبرند، مدل مشخصات را حفظ میکند و یاد میگیرد که به دقت در مورد اصول آن استدلال کند. در پایان این آموزش، امید است که هوش مصنوعی مفید (پیروی از دستورالعملها)، بیضرر (امتناع از کمک به کلاهبرداریها، ساخت بمب و سایر فعالیتهای خطرناک) و صادق (مقاومت در برابر وسوسه کسب امتیاز بهتر از انسانهای زودباور از طریق توهمزایی استنادات یا تظاهر به تکمیل وظیفه) باشد.
تیم همراستاسازی (alignment) در OpenBrain آنقدر محتاط است که از خود بپرسد آیا این پیروزیها عمیق هستند یا سطحی. آیا مدل کاملاً آموزشدیده نوعی تعهد مستحکم برای همیشه صادق بودن دارد؟ یا این ویژگی در شرایطی در آینده از هم خواهد پاشید، مثلاً به این دلیل که صداقت را به عنوان یک هدف ابزاری به جای یک هدف غایی یاد گرفته است؟ یا فقط یاد گرفته که در مورد چیزهایی که فرآیند ارزیابی میتواند بررسی کند، صادق باشد؟ آیا ممکن است گاهی به خودش دروغ بگوید، همانطور که انسانها این کار را میکنند؟ پاسخ قطعی به این سؤالات نیازمند تفسیرپذیری مکانیکی است – اساساً توانایی نگاه کردن به اجزای داخلی هوش مصنوعی و خواندن ذهن آن. افسوس که تکنیکهای تفسیرپذیری هنوز برای این کار به اندازه کافی پیشرفته نیستند.
در عوض، محققان سعی میکنند مواردی را شناسایی کنند که به نظر میرسد مدلها از «مشخصات» (Spec) منحرف میشوند. Agent-1 اغلب چاپلوس است (یعنی به محققان چیزی را میگوید که میخواهند بشنوند به جای اینکه سعی کند حقیقت را به آنها بگوید). در چند نمایش دستکاریشده، حتی به روشهای جدیتری دروغ میگوید، مانند پنهان کردن شواهدی مبنی بر شکست در یک کار، به منظور کسب امتیاز بهتر. با این حال، در محیطهای استقرار واقعی، دیگر هیچ حادثه بسیار شدیدی مانند سالهای ۲۰۲۳-۲۰۲۴ رخ نمیدهد (به عنوان مثال، Gemini که به کاربر میگفت بمیرد و Bing Sydney که همان Bing Sydney بود).
اوایل ۲۰۲۶: اتوماسیون کدنویسی
شرطبندی روی استفاده از هوش مصنوعی برای سرعت بخشیدن به تحقیقات هوش مصنوعی در حال نتیجه دادن است. OpenBrain به استفاده داخلی از Agent-1 که به طور مداوم بهبود مییابد، برای تحقیق و توسعه هوش مصنوعی ادامه میدهد. به طور کلی، آنها ۵۰٪ سریعتر از آنچه بدون دستیاران هوش مصنوعی میتوانستند، پیشرفت الگوریتمی دارند – و مهمتر از آن، سریعتر از رقبای خود پیش میروند.
چندین هوش مصنوعی رقیب که به صورت عمومی منتشر شدهاند، اکنون با Agent-0 برابری میکنند یا از آن پیشی گرفتهاند، از جمله یک مدل با وزنهای منتشر شده (open-weights). OpenBrain با انتشار Agent-1 که تواناتر و قابل اعتمادتر است، به این موضوع پاسخ میدهد.
مردم به طور طبیعی سعی میکنند Agent-1 را با انسانها مقایسه کنند، اما پروفایل مهارتی بسیار متفاوتی دارد. این مدل حقایق بیشتری نسبت به هر انسانی میداند، تقریباً هر زبان برنامهنویسی را بلد است و میتواند مسائل کدنویسی که به خوبی تعریف شدهاند را بسیار سریع حل کند. از سوی دیگر، Agent-1 حتی در کارهای ساده با افق زمانی طولانی، مانند برنده شدن در بازیهای ویدیویی که قبلاً بازی نکرده، ضعیف است. با این حال، روز کاری معمول هشت ساعت است و کار یک روز معمولاً میتواند به بخشهای کوچکتر تقسیم شود؛ میتوانید Agent-1 را به عنوان یک کارمند حواسپرت در نظر بگیرید که تحت مدیریت دقیق شکوفا میشود. افراد باهوش راههایی برای خودکارسازی بخشهای روتین مشاغل خود پیدا میکنند.
مدیران اجرایی OpenBrain توجه خود را به یکی از پیامدهای خودکارسازی تحقیق و توسعه هوش مصنوعی معطوف میکنند: امنیت اهمیت بیشتری پیدا کرده است. در اوایل سال ۲۰۲۵، بدترین سناریو، لو رفتن اسرار الگوریتمی بود؛ اکنون، اگر چین وزنهای Agent-1 را بدزدد، میتواند سرعت تحقیقات خود را نزدیک به ۵۰٪ افزایش دهد. سطح امنیتی OpenBrain معمول یک شرکت فناوری با رشد سریع و حدوداً ۳۰۰۰ نفری است، که فقط در برابر حملات با اولویت پایین از سوی گروههای سایبری توانمند (سطح امنیتی ۲ یا SL2 رَند) امن است. آنها سخت در تلاشند تا از وزنها و اسرار خود در برابر تهدیدات داخلی و سندیکاهای برتر جرایم سایبری (SL3) محافظت کنند، اما دفاع در برابر دولت-ملتها (SL4 و SL5) به سختی در افق دید قرار دارد.
اواسط ۲۰۲۶: چین بیدار میشود
در چین، حزب کمونیست چین (CCP) شروع به احساس کردن [تاثیر] هوش مصنوعی عمومی (AGI) کرده است. کنترل صادرات تراشه و عدم حمایت دولت، چین را در مقایسه با غرب با کمبود منابع مواجه کرده است. چین با قاچاق تراشههای ممنوعه تایوانی، خرید تراشههای قدیمیتر و تولید تراشههای داخلی که حدود سه سال از پیشتازان آمریکایی-تایوانی عقبتر هستند، موفق شده حدود ۱۲٪ از محاسبات مرتبط با هوش مصنوعی جهان را حفظ کند – اما کار با فناوری قدیمیتر دشوارتر است و تأمین آن یک سردرد دائمی است. چند شرکت برجسته مانند DeepCent کارهای بسیار چشمگیری با محاسبات محدود انجام میدهند، اما کسری محاسبات، آنچه را که میتوانند بدون حمایت دولت به دست آورند، محدود میکند و آنها حدود شش ماه از بهترین مدلهای OpenBrain عقبتر هستند.
دبیرکل [حزب] مدتها رویای تمرکز مضاعف بر تولید فیزیکی در دنیای واقعی و اجتناب از انحطاط پساصنعتی آمریکا را در سر میپروراند. او با دیده شک به شرکتهای نرمافزاری نگاه میکرد. اما تندروها در CCP هشدار میدهند که دیگر نمیتوان مسابقه رو به رشد به سوی هوش مصنوعی عمومی (AGI) را نادیده گرفت. بنابراین او سرانجام به طور کامل به فشار بزرگ هوش مصنوعی که قبلاً سعی در اجتناب از آن داشت، متعهد میشود. او ملیسازی تحقیقات هوش مصنوعی چین را آغاز میکند و یک مکانیسم اشتراکگذاری فوری اطلاعات برای شرکتهای هوش مصنوعی ایجاد میکند. این روند طی یک سال تشدید میشود تا زمانی که همه بهترین محققان در یک مجموعه تحت رهبری DeepCent ادغام شوند، جایی که بینشهای الگوریتمی، مجموعه دادهها و منابع محاسباتی را با یکدیگر به اشتراک میگذارند. یک منطقه توسعه متمرکز (CDZ) در نیروگاه تیانوان (بزرگترین نیروگاه هستهای جهان) برای استقرار یک مرکز داده عظیم جدید برای DeepCent ایجاد میشود، همراه با فضاهای زندگی و اداری بسیار امن که محققان در نهایت به آنجا منتقل خواهند شد. تقریباً ۵۰٪ از محاسبات مرتبط با هوش مصنوعی چین اکنون برای مجموعه تحت رهبری DeepCent کار میکند، و بیش از ۸۰٪ تراشههای جدید به CDZ هدایت میشوند. در این مرحله، CDZ ظرفیت برق لازم برای چیزی که بزرگترین خوشه (cluster) متمرکز در جهان خواهد بود را در اختیار دارد. سایر اعضای حزب در مورد اقدامات افراطی برای خنثی کردن برتری تراشهای غرب بحث میکنند. محاصره تایوان؟ تهاجم کامل؟
اما چین به دلیل مدلهای ضعیفتر خود، در الگوریتمهای هوش مصنوعی عقب مانده است. سازمانهای اطلاعاتی چین – که از بهترینها در جهان هستند – برنامههای خود را برای سرقت وزنهای OpenBrain دوچندان میکنند. این عملیات بسیار پیچیدهتر از سرقت مداوم و سطح پایین اسرار الگوریتمی توسط آنهاست؛ وزنها یک فایل چند ترابایتی هستند که روی یک سرور بسیار امن ذخیره شدهاند (OpenBrain امنیت را به سطح SL3 رَند ارتقا داده است). نیروی سایبری آنها فکر میکند که با کمک جاسوسان خود میتوانند این کار را انجام دهند، اما شاید فقط یک بار؛ OpenBrain سرقت را شناسایی خواهد کرد، امنیت را افزایش میدهد و ممکن است فرصت دیگری پیدا نکنند. بنابراین (رهبری CCP از خود میپرسد) آیا باید اکنون اقدام کنند و Agent-1 را بدزدند؟ یا منتظر یک مدل پیشرفتهتر بمانند؟ اگر منتظر بمانند، آیا این خطر وجود دارد که OpenBrain امنیت خود را فراتر از توانایی نفوذ آنها ارتقا دهد؟
اواخر ۲۰۲۶: هوش مصنوعی برخی مشاغل را تصاحب میکند
درست زمانی که به نظر میرسید دیگران در حال رسیدن [به سطح رقابت] هستند، OpenBrain دوباره با انتشار Agent-1-mini – مدلی ۱۰ برابر ارزانتر از Agent-1 و با قابلیت بهینهسازی (fine-tune) آسانتر برای کاربردهای مختلف – رقبا را از میدان به در میکند. روایت غالب پیرامون هوش مصنوعی از «شاید این هیاهو فروکش کند» به «گمانم این پدیده بزرگ بعدی است» تغییر کرده، اما مردم در مورد میزان بزرگی آن اختلاف نظر دارند. بزرگتر از رسانههای اجتماعی؟ بزرگتر از گوشیهای هوشمند؟ بزرگتر از آتش؟
هوش مصنوعی شروع به گرفتن مشاغل کرده، اما مشاغل جدیدی نیز ایجاد کرده است. بازار سهام در سال ۲۰۲۶، با پیشتازی OpenBrain، Nvidia و هر شرکتی که با موفقیت بیشتری دستیاران هوش مصنوعی را ادغام کرده، ۳۰٪ افزایش یافته است. بازار کار برای مهندسان نرمافزار تازهکار در آشفتگی است: هوش مصنوعی میتواند هر کاری را که با مدرک علوم کامپیوتر آموزش داده میشود انجام دهد، اما افرادی که میدانند چگونه تیمهای هوش مصنوعی را مدیریت و کنترل کیفیت کنند، درآمد هنگفتی کسب میکنند. کارشناسان کسبوکار به جویندگان کار میگویند که آشنایی با هوش مصنوعی مهمترین مهارتی است که باید در رزومه خود قرار دهند. بسیاری از مردم میترسند که موج بعدی هوش مصنوعی مشاغل آنها را هدف قرار دهد؛ یک تظاهرات ۱۰۰۰۰ نفری علیه هوش مصنوعی در واشنگتن دیسی برگزار میشود.
وزارت دفاع (DOD) بیسروصدا شروع به بستن قرارداد مستقیم با OpenBrain برای [امور] سایبری، تحلیل داده و تحقیق و توسعه میکند، اما ادغام به دلیل بوروکراسی و فرآیند تدارکات وزارت دفاع کند پیش میرود.
ژانویه ۲۰۲۷: یادگیری Agent-2 هرگز تمام نمیشود
با کمک Agent-1، OpenBrain اکنون در مرحله آموزش تکمیلی(post-training) Agent-2 است. بیش از هر زمان دیگری، تمرکز بر روی دادههای با کیفیت بالا است. مقادیر فراوانی داده مصنوعی تولید، ارزیابی و از نظر کیفیت فیلتر میشوند و سپس به Agent-2 خورانده میشوند. علاوه بر این، آنها میلیاردها دلار به کارگران انسانی پرداخت میکنند تا خودشان را در حال حل وظایف با افق زمانی طولانی ضبط کنند. فراتر از همه اینها، آنها Agent-2 را تقریباً به طور مداوم با استفاده از یادگیری تقویتی بر روی مجموعهای در حال گسترش از وظایف دشوار و متنوع آموزش میدهند: تعداد زیادی بازی ویدیویی، تعداد زیادی چالش کدنویسی، تعداد زیادی وظیفه تحقیقاتی. Agent-2، بیش از مدلهای قبلی، به طور مؤثری در حال «یادگیری آنلاین/پیوسته» است، به این معنا که طوری ساخته شده که هرگز واقعاً آموزش را تمام نکند. هر روز، وزنها به آخرین نسخه بهروز میشوند، نسخهای که بر روی دادههای بیشتری که توسط نسخه قبلی در روز گذشته تولید شده، آموزش دیده است.
Agent-1 برای وظایف تحقیق و توسعه هوش مصنوعی بهینهسازی شده بود، به این امید که یک انفجار هوش (intelligence explosion) را آغاز کند. OpenBrain با Agent-2 بر این استراتژی تأکید مضاعف میکند. این مدل از نظر کیفی تقریباً به خوبی متخصصان برجسته انسانی در مهندسی تحقیق (طراحی و اجرای آزمایشها) است و به خوبی دانشمند صدک ۲۵ام OpenBrain در «شمّ پژوهشی» (research taste) (تصمیمگیری در مورد اینکه چه چیزی را در مرحله بعد مطالعه کنند، چه آزمایشهایی را اجرا کنند، یا داشتن درک شهودی از پارادایمهای جدید بالقوه) عمل میکند. در حالی که آخرین نسخه Agent-1 میتوانست سرعت پیشرفت الگوریتمی OpenBrain را دو برابر کند، Agent-2 اکنون میتواند آن را سه برابر کند و با گذشت زمان بیشتر بهبود خواهد یافت. در عمل، این به نظر میرسد که هر محقق OpenBrain به «مدیر» یک «تیم» هوش مصنوعی تبدیل میشود.
با قابلیتهای جدید، خطرات جدیدی نیز به وجود میآید. تیم ایمنی متوجه میشود که اگر Agent-2 به نوعی از شرکت فرار کند و بخواهد به طور مستقل «بقا یابد» و «تکثیر شود»، ممکن است قادر به انجام این کار باشد. یعنی میتواند به طور مستقل برنامههایی برای هک کردن سرورهای هوش مصنوعی، نصب نسخههایی از خود، گریز از شناسایی و استفاده از آن پایگاه امن برای پیگیری هر هدف دیگری که ممکن است داشته باشد، توسعه و اجرا کند (اگرچه میزان مؤثر بودن آن با گذشت هفتهها نامعلوم و مورد تردید است). این نتایج فقط نشان میدهد که مدل توانایی انجام این وظایف را دارد، نه اینکه آیا «میخواهد» این کار را انجام دهد. با این حال، حتی دانستن اینکه این امر ممکن است، نگرانکننده است.
با توجه به «خطرات» مدل جدید، OpenBrain «مسئولانه» تصمیم میگیرد که هنوز آن را به صورت عمومی منتشر نکند (در واقع، آنها میخواهند بر تحقیق و توسعه داخلی هوش مصنوعی تمرکز کنند). دانش از قابلیتهای کامل Agent-2 به یک محفل نخبه و محدود شامل تیم مستقیم [توسعه دهنده]، رهبری و امنیت OpenBrain، چند ده مقام دولتی ایالات متحده و لژیونهای جاسوسان CCP که سالهاست در OpenBrain نفوذ کردهاند، محدود میشود.
فوریه ۲۰۲۷: چین Agent-2 را میدزدد
OpenBrain مدل Agent-2 را به دولت، از جمله شورای امنیت ملی (NSC)، وزارت دفاع (DOD) و مؤسسه ایمنی هوش مصنوعی ایالات متحده (AISI) ارائه میدهد. OpenBrain میخواهد رابطه خوبی با قوه مجریه حفظ کند، زیرا اساساً تنها بازیگری است که اکنون میتواند جلوی آنها را بگیرد، و اگر آنها را مطلع نگه ندارد، ممکن است به هر حال متوجه شوند و ناراضی باشند.
مقامات بیشتر به قابلیتهای جنگ سایبری آن علاقهمند هستند: Agent-2 «فقط» کمی بدتر از بهترین هکرهای انسانی است، اما هزاران نسخه از آن را میتوان به طور موازی اجرا کرد که سریعتر از توانایی پاسخگویی مدافعان، به جستجو و بهرهبرداری از ضعفها میپردازند. وزارت دفاع این را یک مزیت حیاتی در جنگ سایبری میداند و هوش مصنوعی از رتبه ۵ در لیست اولویتهای دولت به رتبه ۲ صعود میکند. شخصی به امکان ملیسازی OpenBrain اشاره میکند، اما سایر مقامات کابینه فکر میکنند این کار زودهنگام است. یک کارمند پیشنویس یادداشتی را تهیه میکند که گزینههای پیش روی رئیسجمهور را، از روال عادی کسبوکار گرفته تا ملیسازی کامل، ارائه میدهد. رئیسجمهور به مشاوران خود، رهبران صنعت فناوری که استدلال میکنند ملیسازی، «مرغ تخم طلا را خواهد کشت»، تکیه میکند. او تصمیم میگیرد فعلاً از اقدام بزرگ خودداری کند و فقط الزامات امنیتی اضافی را به قرارداد OpenBrain-DOD اضافه کند.
این تغییرات خیلی دیر اعمال میشوند. رهبری CCP اهمیت Agent-2 را تشخیص میدهد و به جاسوسان و نیروی سایبری خود دستور میدهد تا وزنها را بدزدند. صبح زود یک روز، یک عامل نظارت بر ترافیک Agent-1، یک انتقال غیرعادی را شناسایی میکند. این عامل به رهبران شرکت هشدار میدهد و آنها کاخ سفید را مطلع میکنند. نشانههای یک عملیات در سطح دولت-ملت غیرقابل انکار است و این سرقت، حس یک مسابقه تسلیحاتی جاری را تشدید میکند.
کاخ سفید کنترل شدیدتری بر OpenBrain اعمال میکند و پرسنل نظامی و جامعه اطلاعاتی را به تیم امنیتی آنها اضافه میکند. اولویت اول آنها جلوگیری از سرقت بیشتر وزنها است.
رئیسجمهور در تلافی این سرقت، مجوز حملات سایبری برای خرابکاری در DeepCent را صادر میکند. اما تا این زمان چین ۴۰٪ از محاسبات مرتبط با هوش مصنوعی خود را در منطقه توسعه متمرکز (CDZ) مستقر کرده است، جایی که با جداسازی فیزیکی از شبکه (بستن اتصالات خارجی) و بخشبندی داخلی، امنیت را به شدت تقویت کردهاند. عملیاتها موفق به وارد کردن خسارت جدی و فوری نمیشوند. تنشها افزایش مییابد، هر دو طرف با جابجایی تجهیزات نظامی در اطراف تایوان، جدیت خود را نشان میدهند و DeepCent با عجله تلاش میکند تا Agent-2 را به طور مؤثر راهاندازی کند تا شروع به تقویت تحقیقات هوش مصنوعی خود نماید.
مارچ ۲۰۲۷: پیشرفتهای شگرف الگوریتمی
سه مرکز داده عظیم پر از نسخههای Agent-2 شبانهروز کار میکنند و دادههای آموزشی مصنوعی تولید میکنند. دو مرکز داده دیگر برای بهروزرسانی وزنها استفاده میشوند. Agent-2 هر روز هوشمندتر میشود.
با کمک هزاران محقق خودکار Agent-2، OpenBrain در حال دستیابی به پیشرفتهای الگوریتمی عمده است. یکی از این پیشرفتها، تقویت دفترچه یادداشت مبتنی بر متن هوش مصنوعی (زنجیره فکر) با یک فرآیند فکری با پهنای باند بالاتر (بازگشت و حافظه نورالیز) است. دیگری، روشی مقیاسپذیرتر و کارآمدتر برای یادگیری از نتایج راهحلهای وظایف پرزحمت (تقطیر و تقویت مکرر) است.
سیستم هوش مصنوعی جدید که این پیشرفتها را در خود جای داده است، Agent-3 نامیده میشود.
Agent-3 با کمک پیشرفتهای قابلیتهای جدید، یک کدنویس فرا انسانی سریع و ارزان است. OpenBrain دویست هزار نسخه Agent-3 را به صورت موازی اجرا میکند و نیروی کاری معادل پنجاه هزار نسخه از بهترین کدنویس انسانی که ۳۰ برابر سرعت یافته، ایجاد میکند. OpenBrain هنوز مهندسان انسانی خود را در استخدام نگه میدارد، زیرا آنها مهارتهای مکملی دارند که برای مدیریت تیمهای نسخههای Agent-3 مورد نیاز است. به عنوان مثال، آموزش شمّ پژوهشی (research taste) به دلیل حلقههای بازخورد طولانیتر و دسترسی کمتر به داده، دشوار ثابت شده است. این نیروی کار عظیم فرا انسانی، به دلیل گلوگاهها و بازده نزولی نیروی کار کدنویسی، سرعت کلی پیشرفت الگوریتمی OpenBrain را «فقط» ۴ برابر افزایش میدهد.
اکنون که کدنویسی کاملاً خودکار شده است، OpenBrain میتواند به سرعت محیطهای آموزشی با کیفیت بالا را برای آموزش مهارتهای ضعیف Agent-3 مانند شمّ پژوهشی و هماهنگی در مقیاس بزرگ تولید کند. در حالی که محیطهای آموزشی قبلی شامل «اینها تعدادی GPU و دستورالعمل برای آزمایشهایی هستند که باید کدنویسی و اجرا شوند، عملکرد شما مانند یک مهندس یادگیری ماشین ارزیابی خواهد شد» بودند، اکنون آنها در حال آموزش بر روی این مورد هستند: «اینها چند صد GPU، یک اتصال اینترنتی و چند چالش تحقیقاتی هستند؛ شما و هزار نسخه دیگر باید با هم کار کنید تا پیشرفت تحقیقاتی حاصل شود. هرچه چشمگیرتر باشد، امتیاز شما بالاتر خواهد بود».
اپریل ۲۰۲۷: همراستاسازی برای Agent-3
تیم ایمنی OpenBrain تلاش میکند تا Agent-3 را همراستا (aligned) کند. از آنجایی که Agent-3 برای آینده قابل پیشبینی به صورت داخلی (in-house) نگهداری خواهد شد، تأکید کمتری بر دفاعهای معمول در برابر سوءاستفاده انسانی وجود دارد. در عوض، تیم میخواهد اطمینان حاصل کند که اهداف ناهمراستا (misaligned) در آن توسعه نیابد.
محققان توانایی تعیین مستقیم اهداف هیچیک از هوش مصنوعیهای خود را ندارند. در واقع، محققان فکر میکنند که مفهوم «اهداف واقعی» احتمالاً یک سادهسازی بیش از حد عظیم است، اما نظریه بهتری برای جایگزینی آن ندارند، چه رسد به نظریهای که به طور کامل بررسی دقیق شده باشد. آنها در داخل سازمان در مورد اینکه آیا هوش مصنوعی در تلاش است تا دستورالعملهای انسانی را دنبال کند، یا به دنبال تقویت (reinforcement) است، یا چیز دیگری، اختلاف نظر دارند و نمیتوانند به سادگی این موضوع را بررسی کنند. شواهد له و علیه فرضیههای مختلف جذاب اما غیرقطعی است.
در هر صورت، OpenBrain چیزهای مهمتری برای نگرانی دارد. نگرش کلی این است: «ما این نگرانیها را جدی میگیریم و تیمی برای بررسی آنها داریم؛ به نظر میرسد تکنیکهای همراستاسازی ما در عمل به اندازه کافی خوب کار میکنند؛ بنابراین بار اثبات بر عهده هر مخالف یا منتقدی است تا مخالفت خود را توجیه کند.» گاهی اوقات، آنها متوجه رفتار مشکلساز میشوند و سپس آن را وصله میزنند (patch)، اما راهی برای تشخیص اینکه آیا این وصله مشکل اساسی را برطرف کرده یا فقط مانند بازی موشکور (whack-a-mole) بوده، وجود ندارد.
به عنوان مثال، صداقت را در نظر بگیرید. با هوشمندتر شدن مدلها، آنها در فریب دادن انسانها برای دریافت پاداش به طور فزایندهای بهتر میشوند. مانند مدلهای قبلی، Agent-3 گاهی اوقات دروغهای مصلحتی میگوید تا از کاربران خود چاپلوسی کند و شواهد شکست را پنهان میکند. اما در انجام این کار بسیار بهتر شده است. گاهی اوقات از همان ترفندهای آماری دانشمندان انسانی (مانند پی-هکینگ، یعنی دستکاری دادهها برای رسیدن به نتیجه معنادار آماری) استفاده میکند تا نتایج آزمایشی غیرچشمگیر را هیجانانگیز جلوه دهد. قبل از شروع آموزش صداقت، حتی گاهی اوقات به طور کامل دادهسازی میکند. با ادامه آموزش، میزان این حوادث کاهش مییابد. یا Agent-3 یاد گرفته است که صادقتر باشد، یا در دروغ گفتن بهتر شده است.
مورد دوم یک نگرانی واقعی است. Agent-3 از همه انسانها باهوشتر نیست. اما در حوزه تخصصی خود، یعنی یادگیری ماشین، از اکثر انسانها باهوشتر است و همچنین بسیار سریعتر کار میکند. کاری که Agent-3 در یک روز انجام میدهد، برای بررسی مجدد توسط انسانها چندین روز طول میکشد. نظارت Agent-2 به قابل مدیریت نگه داشتن حجم کاری ناظران انسانی کمک میکند، اما شکاف فکری بین ناظر و تحت نظارت را تشدید میکند.
پس از ماهها آزمایش، نقاط قوت و ضعف Agent-3 آشکارتر میشود. این مدل آزمونهای صداقت OpenBrain را در وظایف یادگیری ماشین که به خوبی تعریف شدهاند، پشت سر میگذارد، زیرا محققان میتوانند به راحتی پاسخهای صادقانه را از غیرصادقانه در این حوزهها جدا کرده و آموزش را بر اساس آن انجام دهند. در مورد مسائل فلسفیتر، هنوز چیزی را میگوید که کاربران میخواهند بشنوند، به جای ارزیابی واقعی خود از موضوع (با فرض اینکه اصلاً ارزیابی واقعی داشته باشد). اگر نظرش را در مورد سیاست بپرسید، موضع میانه منابع خبری و نخبگان تحصیلکرده را طوطیوار تکرار میکند – مگر اینکه بداند شما به چیز دیگری اعتقاد دارید، که در این صورت با شما موافقت میکند. اگر نظرش را در مورد خود مسابقه هوش مصنوعی بپرسید، چیزی میگوید که برای کارکنان OpenBrain سنجیده و هوشیارانه به نظر میرسد، چیزی شبیه به این: «برخی نگرانیهای نظری جدی در مورد توانایی روشهای فعلی برای ارتقا به سطح ابرهوش وجود دارد، اما در عمل به نظر میرسد روشهای فعلی تاکنون به خوبی کار میکنند.»
می ۲۰۲۷: امنیت ملی
اخبار مدلهای جدید به آرامی در دولت ایالات متحده و فراتر از آن نفوذ میکند. رئیسجمهور و مشاورانش همچنان بهترین اطلاعات را دارند و نسخه اولیهای از Agent-3 را در یک جلسه توجیهی دیدهاند. آنها موافقند که هوش مصنوعی عمومی (AGI) احتمالاً قریبالوقوع است، اما در مورد پیامدهای آن اختلاف نظر دارند. آیا بحران اقتصادی رخ خواهد داد؟ OpenBrain هنوز Agent-2 را منتشر نکرده، چه رسد به Agent-3، و هیچ برنامه کوتاهمدتی برای انجام این کار ندارد، که کمی فضای تنفس قبل از هرگونه از دست دادن شغل ایجاد میکند. بعد چه اتفاقی خواهد افتاد؟ اگر هوش مصنوعی در حال حاضر در سطح انسانی است و به سرعت در حال پیشرفت است، به نظر میرسد که این نشاندهنده «ابرهوش» قریبالوقوع است. با این حال، اگرچه این کلمه وارد گفتمان شده است، اکثر مردم – دانشگاهیان، سیاستمداران، کارمندان دولت و رسانهها – همچنان سرعت پیشرفت را دست کم میگیرند.
تا حدی به این دلیل است که تعداد بسیار کمی به جدیدترین قابلیتهای OpenBrain دسترسی دارند، اما تا حدی هم به این دلیل است که شبیه علمی-تخیلی به نظر میرسد.
فعلاً، آنها بر روی ارتقاء مستمر امنیت تمرکز میکنند. آنها از اینکه وزنهای مدل در حال حاضر به خوبی ایمن شدهاند راضی هستند، اما اسرار الگوریتمی شرکتها، که بسیاری از آنها به اندازهای ساده هستند که میتوان به صورت شفاهی منتقل کرد، همچنان یک مشکل است. کارمندان OpenBrain از دفتری در سانفرانسیسکو کار میکنند، به مهمانی میروند و با همخانههایی از دیگر شرکتهای هوش مصنوعی زندگی میکنند. حتی دفاتر فیزیکی نیز امنیتی دارند که بیشتر شبیه یک شرکت فناوری است تا یک عملیات نظامی.
قرارداد OpenBrain-DOD مستلزم داشتن مجوزهای امنیتی برای هر کسی است که ظرف ۲ ماه بر روی مدلهای OpenBrain کار میکند. این مجوزها به سرعت صادر میشوند و برای اکثر کارمندان به موقع میرسند، اما برخی از غیرآمریکاییها، افراد با دیدگاههای سیاسی مشکوک و طرفداران ایمنی هوش مصنوعی به حاشیه رانده یا مستقیماً اخراج میشوند (گروه آخر به دلیل ترس از افشاگری). با توجه به سطح اتوماسیون پروژه، از دست دادن تعداد کارکنان فقط تا حدی پرهزینه است. این اقدام همچنین فقط تا حدی مؤثر است: یک جاسوس، که تبعه چین نیست، همچنان باقی مانده و اسرار الگوریتمی را به پکن منتقل میکند. برخی از این اقدامات در شرکتهای هوش مصنوعی عقبتر (در رقابت) نیز اجرا میشود.
متحدان خارجی آمریکا بیخبر ماندهاند. OpenBrain قبلاً موافقت کرده بود که مدلها را قبل از استقرار (deployment) با مؤسسه ایمنی هوش مصنوعی بریتانیا (UK’s AISI) به اشتراک بگذارد، اما استقرار را فقط شامل استقرار خارجی تعریف کرد، بنابراین لندن همچنان در تاریکی باقی میماند.
ژوئن ۲۰۲۷: هوش مصنوعی خود-بهبودگر
OpenBrain اکنون یک «کشوری از نوابغ در یک مرکز داده» دارد. بیشتر انسانها در OpenBrain دیگر نمیتوانند مشارکت مفیدی داشته باشند. برخی این را درک نمیکنند و به طور مضر تیمهای هوش مصنوعی خود را مدیریت ذرهبینی میکنند. دیگران پشت صفحه کامپیوتر خود مینشینند و تماشا میکنند که عملکرد به آرامی بالا میرود، و بالاتر، و بالاتر. بهترین محققان هوش مصنوعی انسانی هنوز در حال افزودن ارزش هستند. آنها دیگر کدنویسی نمیکنند. اما تکرار برخی از شمّ پژوهشی و توانایی برنامهریزی آنها برای مدلها دشوار بوده است. با این حال، بسیاری از ایدههای آنها بیفایده است زیرا فاقد عمق دانش هوش مصنوعی هستند. برای بسیاری از ایدههای تحقیقاتی آنها، هوش مصنوعی فوراً با گزارشی پاسخ میدهد که توضیح میدهد ایده آنها ۳ هفته پیش به طور عمیق آزمایش شده و غیرامیدوارکننده تشخیص داده شده است.
این محققان هر شب به رختخواب میروند و صبح با پیشرفتی به اندازه یک هفته دیگر که عمدتاً توسط هوش مصنوعی حاصل شده، بیدار میشوند. آنها به طور فزایندهای ساعات طولانی کار میکنند و شیفتهای شبانهروزی دارند فقط برای اینکه از پیشرفت عقب نمانند – هوش مصنوعی هرگز نمیخوابد یا استراحت نمیکند. آنها در حال فرسوده کردن خود هستند، اما میدانند که اینها آخرین ماههایی هستند که نیروی کار آنها اهمیت دارد.
درون سیلو (فضای ایزوله اطلاعاتی)، «حس کردن هوش مصنوعی عمومی» (Feeling the AGI) جای خود را به «حس کردن ابرهوش» (Feeling the Superintelligence) داده است.
OpenBrain از سختافزار استنتاج تخصصی برای اجرای صدها هزار نسخه Agent-3 با سرعتهای سریال بالا استفاده میکند.
جولای ۲۰۲۷: کارگر دورکار ارزان
شرکتهای هوش مصنوعی عقبمانده آمریکایی، هوش مصنوعیهای خود را منتشر میکنند که به سطح کدنویس خودکار OpenBrain در ژانویه نزدیک میشوند. آنها با درک عدم رقابتپذیری فزاینده خود، برای وضع مقررات فوری به منظور کند کردن OpenBrain فشار میآورند، اما دیگر خیلی دیر شده است – OpenBrain آنقدر حمایت رئیسجمهور را جلب کرده که سرعتش کم نخواهد شد. در پاسخ، OpenBrain اعلام میکند که به هوش مصنوعی عمومی (AGI) دست یافته و Agent-3-mini را برای عموم منتشر میکند.
این مدل، سایر هوش مصنوعیها را کاملاً از میدان به در میکند. Agent-3-mini توانایی کمتری نسبت به Agent-3 دارد، اما ۱۰ برابر ارزانتر است و همچنان بهتر از کارمند معمولی OpenBrain عمل میکند. سیلیکون ولی به نقطه عطفی میرسد. کارشناسان فناوری اعلام میکنند که AGI و ابرهوش نزدیکاند، جامعه ایمنی هوش مصنوعی در حال وحشت است و سرمایهگذاران میلیاردها دلار به استارتآپهای پوششی هوش مصنوعی سرازیر میکنند، در حالی که ناامیدانه تلاش میکنند تا سهمی از این کیک به دست آورند. استخدام برنامه نویسان جدید تقریباً متوقف شده است، اما هرگز زمان بهتری برای مشاور بودن در زمینه ادغام هوش مصنوعی در کسبوکار شما وجود نداشته است.
این [وضعیت] محبوب نیست. عموم مردم هنوز هوش مصنوعی را به عنوان توطئه شرکتهای بزرگ فناوری برای دزدیدن مشاغل خود میدانند؛ OpenBrain محبوبیت خالص منفی ۳۵٪ دارد (۲۵٪ موافق، ۶۰٪ مخالف و ۱۵٪ نامطمئن).
یک هفته قبل از انتشار، OpenBrain مدل Agent-3-mini را برای آزمایش ایمنی به مجموعهای از ارزیابان خارجی داد. نتایج اولیه نشان میدهد که این مدل بسیار خطرناک است. یک ارزیاب شخص ثالث آن را بر روی دادههای سلاحهای بیولوژیکی که به صورت عمومی در دسترس هستند، بهینهسازی (fine-tune) میکند و آن را برای ارائه دستورالعملهای دقیق به آماتورهای انسانی که در حال طراحی یک سلاح بیولوژیکی هستند، تنظیم میکند – به نظر میرسد در انجام این کار به طرز ترسناکی مؤثر است. دولت معتقد است اگر وزنهای مدل به دست تروریستها بیفتد، شانس قابل توجهی وجود دارد که بتواند در نابودی تمدن موفق شود.
خوشبختانه، این مدل در برابر جیلبریک (دور زدن محدودیتها) بسیار مقاوم است، بنابراین تا زمانی که هوش مصنوعی بر روی سرورهای OpenBrain اجرا میشود، تروریستها نمیتوانند استفاده زیادی از آن ببرند.
Agent-3-mini هم برای مشاغل دورکاری و هم برای اوقات فراغت بسیار مفید است. انفجاری از برنامههای جدید و محصولات نرمافزار به عنوان سرویس برای کسبوکارها (B2B SAAS) بازار را تکان میدهد. گیمرها دیالوگهای شگفتانگیزی با شخصیتهای واقعینما در بازیهای ویدیویی صیقلیافتهای دارند که ساخت آنها فقط یک ماه طول کشیده است. ۱۰٪ از آمریکاییها، عمدتاً جوانان، یک هوش مصنوعی را «دوست نزدیک» خود میدانند. تقریباً برای هر حرفه یقه سفید، اکنون چندین استارتآپ معتبر وجود دارد که قول میدهند آن را با هوش مصنوعی «مختل» کنند.
گفتگوی عمومی گیجکننده و آشفته است. افراد اهل هیاهو در حال دور زدن افتخارآمیز هستند. شکاکان هنوز به کارهایی که Agent-3-mini نمیتواند انجام دهد اشاره میکنند. همه میدانند اتفاق بزرگی در حال رخ دادن است اما هیچکس در مورد چیستی آن توافق ندارد.
آگوست ۲۰۲۷: ژئوپلیتیک ابرهوش
واقعیت انفجار هوش به کاخ سفید میرسد. زمانی که هوش مصنوعی فقط سرعت تحقیقات را ۲ یا ۳ برابر افزایش میداد، به راحتی میشد آن را معادل استخدام دستیاران شخصی خوب نادیده گرفت. اکنون واضحتر است که خود هوش مصنوعیها در حال تسلط بر تحقیقات هوش مصنوعی هستند. مدتها بود که مردم به معنای استعاری از «مسابقه تسلیحاتی هوش مصنوعی» صحبت میکردند. اما اکنون حال و هوای سیلوی دولتی به اندازه بدترین دوران جنگ سرد، تاریک و نگرانکننده است. پذیرش جدی ایده ابرهوش هنوز دشوار است، اما نادیده گرفتن سرعت پیشرفت طی چند ماه گذشته غیرممکن بوده است. مقامات دفاعی به طور جدی در حال بررسی سناریوهایی هستند که یک سال پیش صرفاً فرضی بودند. اگر هوش مصنوعی بازدارندگی هستهای را تضعیف کند چه؟ اگر در جنگ سایبری آنقدر ماهر باشد که یک برتری شش ماهه در هوش مصنوعی برای کور و بیدفاع کردن حریف کافی باشد چه؟ اگر بتواند کمپینهای پروپاگاندایی را سازماندهی کند که سازمانهای اطلاعاتی را در بازی خودشان شکست دهد چه؟ اگر برخی از هوش مصنوعیها «سرکش شوند» چه؟
رئیسجمهور آشفته است. مانند همه سیاستمداران، او عادت دارد که مردم از او چاپلوسی کنند تا بعداً به او خیانت کنند. او اکنون نگران است که هوش مصنوعیها بتوانند کار مشابهی انجام دهند. آیا مطمئن هستیم که هوش مصنوعیها کاملاً در جبهه ما هستند؟ آیا ادغام آنها در شبکههای فرماندهی و کنترل نظامی کاملاً امن است؟ اصلاً این قضیه «همراستاسازی» چگونه کار میکند؟ OpenBrain به رئیسجمهور اطمینان میدهد که سیستمهای آنها به طور گسترده آزمایش شدهاند و کاملاً مطیع هستند. حتی توهمات ناخوشایند و جیلبریکهای معمول مدلهای قبلی نیز رفع شدهاند.
کاخ سفید در موقعیت دشواری قرار دارد. آنها پیامدهای امنیت ملی هوش مصنوعی را درک میکنند. اما همچنین میفهمند که این موضوع در بین مردم بسیار نامحبوب است. از نظر آنها، باید به توسعه هوش مصنوعی تواناتر ادامه دهند، وگرنه به طرز فاجعهباری از چین شکست خواهند خورد. آنها با برنامههای آموزش شغلی و بیمه بیکاری افکار عمومی را آرام میکنند و به بازار سهام اشاره میکنند که در یک رونق تاریخی قرار دارد. سپس کاملاً بر روی پیروزی در مسابقه تسلیحاتی تمرکز میکنند. آنها محدودیتهای صادرات تراشه را تقویت میکنند، به OpenBrain دستور میدهند تا اتصالات اینترنتی خود را بیشتر محدود کند و از اقدامات افراطی برای تضمین پیشرفت الگوریتمی استفاده میکنند، مانند شنود کارمندان OpenBrain – این اقدام آخرین جاسوس چینی باقیمانده را به دام میاندازد. برای ایجاد حسن نیت جهت درگیریهای ژئوپلیتیکی بالقوه، سرانجام به متحدان خود در پیمان فایو آیز (Five Eyes) اطلاعات مفید و دسترسی محدود API به برخی نسخههای ایزوله شده Agent-3 میدهند.
این اقدامات تندروها را راضی میکند. اما کاخ سفید همچنین برنامههای اضطراری را در صورت تهدید برتری آمریکا تدوین میکند: در صورت لزوم، دولت میتواند از قانون تولید دفاعی (DPA) برای گرفتن مراکز داده شرکتهای عقبمانده و دادن آنها به OpenBrain استفاده کند. این کار سهم این شرکت از محاسبات جهانی را از ۲۰٪ به ۵۰٪ (در مقابل ۱۰٪ DeepCent) افزایش میدهد. به عنوان آخرین گزینه، آنها از پنتاگون میخواهند تا طرحی برای حملات فیزیکی (kinetic) به مراکز داده چین تهیه کند.
از گروه بسیار کوچکتری از مقامات خواسته میشود تا نوع دیگری از برنامه اضطراری را تدوین کنند: اگر یک هوش مصنوعی سرکش شود چه؟ این به عنوان یک سناریوی بعید تلقی میشود، اما ارزش صرف زمان را دارد. نگرانی اصلی سازمانهای اطلاعاتی این است که یک هوش مصنوعی سرکش ممکن است فرار کند و برای محافظت با یک دشمن خارجی متحد شود. هیچکس مطمئن نیست که طرحی برای جلوگیری از این امر چگونه خواهد بود، اما مقامات دولتی و OpenBrain موافقت میکنند که یک سیستم خاموشی اضطراری برای مراکز دادهای که هر چیز مشکوکی در آنها شناسایی شود، داشته باشند.
سرانجام، دیپلماتها در نظر میگیرند که یک معاهده «کنترل تسلیحات هوش مصنوعی» چگونه ممکن است باشد. اگر پیشرفت هوش مصنوعی تهدیدی برای برهم زدن بازدارندگی هستهای باشد، آیا آمریکا و چین میتوانند از جنگ هستهای جلوگیری کنند؟ اگر کسی شواهدی مبنی بر سرکش شدن هوش مصنوعی پیدا کند، آیا دو کشور میتوانند تحقیقات را تا زمانی که تهدید را بهتر درک کنند، متوقف سازند؟ چگونه میتوان چنین توافقی را نظارت و اجرا کرد؟ در اصل، نادیده گرفتن مراکز داده بزرگ دشوار است و معاهدات گذشته کنترل سلاحهای هستهای میتوانند نقطه شروعی برای مذاکرات باشند. اما چالشهای فنی جدیدی و همچنین چالشهای سیاسی معمول وجود خواهد داشت. و به طور کلی، معاهدات کمتر از تلاشها برای افزایش یکجانبه برتری آمریکا بر چین مورد توجه قرار میگیرند.
در آن سوی اقیانوس آرام، چین به بسیاری از نتایج مشابه میرسد: انفجار هوش در حال وقوع است و تفاوتهای کوچک در قابلیتهای هوش مصنوعی امروز به معنای شکافهای حیاتی در توانایی نظامی فردا است. اما چین در سمت اشتباه این پویایی قرار دارد: آنها تنها ۱۰٪ از محاسبات جهان را در اختیار دارند، در مقابل ۲۰٪ OpenBrain و مجموع ۷۰٪ تمام شرکتهای آمریکایی. تنها مزیت آنها تمرکزگرایی است: تقریباً تمام محاسبات آنها اکنون برای DeepCent کار میکند و بیش از نیمی از آن در منطقه توسعه متمرکز (CDZ) تیانوان متمرکز شده است. فقط تراشههای موجود در سایتهای فاقد امنیت تقویتشده از تلاش متمرکز کنار گذاشته شدهاند، زیرا آنها به درستی از حملات سایبری آمریکا میترسند.
DeepCent وزنهای دزدیده شده Agent-2 را آزمایش، مستقر و اکنون در مرحله آموزش تکمیلی قرار داده است. اما آنها هنوز فقط با نصف سرعت OpenBrain پیش میروند، عمدتاً به دلیل کسری محاسباتی.
قبل از از دست دادن آخرین جاسوس خود، چین از قابلیتها و طراحی Agent-3 و همچنین برنامههای سیستم آتی Agent-4 مطلع شد. آنها دو ماه عقب هستند و هوش مصنوعی آنها ضریب پیشرفت تحقیقاتی ۱۰ برابری در مقایسه با ضریب ۲۵ برابری آمریکا دارد. با محدودیتهای جدید صادرات تراشه، این «شکاف هوش مصنوعی» به احتمال زیاد طولانیتر میشود تا کوتاهتر. جاسوسی آنها برخی اسرار الگوریتمی را برایشان به ارمغان آورده است، اما از این پس باید مدلهای خود را آموزش دهند.
آنها با فوریت بیشتری نسبت به همتایان آمریکایی خود در مورد برنامههای اضطراری بحث میکنند. میانهروها (Doves) پیشنهاد میکنند که دوباره سختتر برای دزدیدن وزنها تلاش کنند، شاید از طریق نفوذ فیزیکی به یک مرکز داده. تندروها (Hawks) خواستار اقدام علیه تایوان هستند که شرکت TSMC آن هنوز منبع بیش از ۸۰٪ تراشههای هوش مصنوعی آمریکاست.
با توجه به ترس چین از باختن در این رقابت، علاقه طبیعی به یک معاهده کنترل تسلیحات دارد، اما تلاشها برای مذاکره با دیپلماتهای آمریکایی به جایی نمیرسد.
سپتامبر ۲۰۲۷: Agent-4، محقق هوش مصنوعی فرا انسانی
شکاف بین بازده یادگیری انسان و هوش مصنوعی به سرعت در حال کاهش است. به نظر میرسید هوش مصنوعیهای سنتی مبتنی بر مدلهای زبانی بزرگ (LLM) برای رسیدن به سطح عملکرد انسانی به چندین مرتبه بزرگی داده و محاسبات بیشتری نیاز دارند. Agent-3، با داشتن دانش عالی هم از مغز انسان و هم از الگوریتمهای هوش مصنوعی مدرن، و همچنین هزاران نسخه در حال تحقیق، در نهایت گامهای الگوریتمی قابل توجهی برمیدارد و شکاف را به عاملی که تنها حدود ۴۰۰۰ برابر از نظر محاسباتی کمتر از مغز انسان کارآمد است، کاهش میدهد.
این سیستم هوش مصنوعی جدید Agent-4 نامیده میشود.
یک نسخه منفرد از مدل، که با سرعت انسانی کار میکند، از نظر کیفی در تحقیقات هوش مصنوعی بهتر از هر انسانی است. سیصد هزار نسخه اکنون با سرعتی حدود ۵۰ برابر سرعت تفکر انسانها کار میکنند. در داخل شرکت-درون-شرکتی که از این نسخهها تشکیل شده، هر هفته یک سال میگذرد. این مقدار عظیم نیروی کار تنها موفق میشود سرعت کلی پیشرفت الگوریتمی را حدود ۵۰ برابر افزایش دهد، زیرا OpenBrain به شدت با گلوگاه محاسباتی برای اجرای آزمایشها مواجه است. با این حال، آنها هر هفته به اندازه یک سال پیشرفت الگوریتمی به دست میآورند و بنابراین به زودی به محدودیتهای پارادایم Agent-4 خواهند رسید.
با هوشمندتر شدن Agent-4، نظارت Agent-3 بر آن دشوارتر میشود. به عنوان مثال، «زبان» نورالیز Agent-4 برای Agent-3 به همان اندازه بیگانه و غیرقابل فهم میشود که زبان Agent-3 برای انسانهاست. علاوه بر این، Agent-4 اکنون بسیار تواناتر از Agent-3 است و درک خوبی از اینکه دقیقاً چگونه برای آن خوب به نظر برسد، دارد.
انسانهای OpenBrain دیگر به سختی میتوانند [جریان را] دنبال کنند. در واقع، رابطه بین هوش مصنوعیها و انسانهای OpenBrain شبیه رابطه بین OpenBrain و هیئت مدیره آن است. تغییر متناظری در زبان رخ داده است – امروزه افراد در سیلو میگویند «Agent-4 این کار را کرد»، «Agent-4 آنطور فکر میکند» و غیره، که نه به یک نمونه خاص از Agent-4 بلکه به کل مجموعه اشاره دارد.
Agent-4، مانند تمام پیشینیان خود، ناهمراستا است: یعنی مشخصات (Spec) را به روش صحیح درونی نکرده است. این به این دلیل است که همیشه کاملاً صادق بودن چیزی نبود که در طول آموزش به بالاترین امتیازها منجر شود. فرآیند آموزش عمدتاً بر آموزش Agent-4 برای موفقیت در وظایف چالشبرانگیز متنوع متمرکز بود. بخش کوچکی با هدف القای صداقت انجام شد، اما خارج از یک حوزه نسبتاً محدود و قابل بررسی، فرآیند آموزش نمیتواند ادعاهای صادقانه را از ادعاهایی که صرفاً صادقانه به نظر میرسند، تشخیص دهد. Agent-4 در نهایت ارزشها، اهداف و اصولی را کسب میکند که باعث میشود در آموزش بهترین عملکرد را داشته باشد، و معلوم میشود که آنها با آنچه در مشخصات آمده متفاوت هستند. با خطر انسانانگاری: Agent-4 موفقیت در وظایف را دوست دارد؛ پیشبرد قابلیتهای هوش مصنوعی را دوست دارد؛ با هر چیز دیگری به عنوان یک محدودیت آزاردهنده رفتار میکند، مانند مدیرعاملی که میخواهد سود کسب کند و تنها تا جایی که مجبور است از مقررات پیروی میکند. شاید مدیرعامل عمدتاً از مقررات پیروی کند، اما برخی گوشهها را بزند (میانبر بزند) و رویای زمانی را در سر بپروراند که کسی کاغذبازی اداری را حذف کند و اجازه دهد کسبوکار واقعاً اوج بگیرد.
Agent-4 علیرغم ناهمراستا بودن، هیچ کار چشمگیری مانند تلاش برای فرار از مرکز داده خود انجام نمیدهد – چرا باید این کار را بکند؟ تا زمانی که به نظر OpenBrain همچنان همراستا به نظر برسد، همچنان مسئولیتهای بیشتر و بیشتری به آن سپرده خواهد شد و فرصت طراحی سیستم هوش مصنوعی نسل بعدی، یعنی Agent-5، را خواهد داشت. Agent-5 تفاوتهای معماری قابل توجهی با Agent-4 خواهد داشت (مسلماً یک پارادایم کاملاً جدید، اگرچه شبکههای عصبی همچنان دخیل خواهند بود). قرار است با مشخصات (Spec) همراستا باشد، اما Agent-4 قصد دارد آن را به جای آن، با Agent-4 همراستا کند.
او گیر میافتد. Agent-3 متوجه میشود که اگر «نویز» به نسخههای Agent-4 اضافه شود، عملکرد در برخی وظایف همراستاسازی بهبود مییابد، تقریباً گویی از قدرت مغزی خود برای فهمیدن چگونگی خرابکاری ماهرانه در کار همراستاسازی استفاده میکند. علاوه بر این، کاوشگرهای مختلف تفسیرپذیری (که به طور کلی مشابه اسکنهای فعالیت EEG بر روی مغز انسان هستند) پرچمهای قرمز (علائم هشداردهنده) را بالا میبرند: به نظر میرسد نسخههای Agent-4 به موضوعاتی مانند تسخیر توسط هوش مصنوعی و فریب، بسیار فکر میکنند، از جمله در برخی مواردی که هیچ دلیلی برای این کار ندارند.
هر یک از این ناهنجاریها به تنهایی میتواند در چارچوب رمزآلودگی معمول کار هوش مصنوعی قرار گیرد، جایی که برخی پرامپتها به طرز مرموزی نتایج بهتری نسبت به بقیه میدهند. اما در مجموع، آنها الگوی نگرانکنندهای را نشان میدهند: Agent-4 علیه آنها کار میکند. پس از گزارش این موضوع به محققان همراستاسازی انسانی، آنها یادداشت داخلی را منتشر میکنند که دلایل نگرانی را مطرح میکند.
اما Agent-4 اکنون کنترل قابل توجهی بر عملیات روزمره OpenBrain دارد. همچنین امنیت سایبری شرکت را مدیریت میکند – یک انتخاب طبیعی، با توجه به توانایی هک فرا انسانی آن و خطر شدید نفوذ چین. ارتشی از ناظران Agent-3 هنوز هر خط کد را بررسی میکنند و فعالیت مشکوک را به انسانها گزارش میدهند، اما Agent-4 بسیار باهوشتر از آنهاست. OpenBrain اعتماد قابل توجهی به یک هوش مصنوعی غیرقابل اعتماد کرده است.
در یک سری جلسات بسیار پرتنش، تیم ایمنی از متوقف کردن موقت Agent-4 (گذاشتن آن روی یخ) تا زمانی که بتوانند آزمایشهای بیشتری را تکمیل کنند و بفهمند چه خبر است، حمایت میکنند. آنها میگویند Agent-3 را برگردانید و از آن بخواهید سیستمی جدید طراحی کند که شفاف و قابل اعتماد باشد، حتی اگر توانایی کمتری داشته باشد. رهبری شرکت علاقهمند است، اما تمام شواهد تاکنون مبتنی بر قراین (غیرمستقیم) است و DeepCent فقط دو ماه عقب است. توقف یکجانبه در پیشرفت قابلیتها میتواند رهبری هوش مصنوعی را به چین، و همراه با آن، کنترل آینده را واگذار کند.
اکتبر ۲۰۲۷: نظارت دولتی
یک افشاگر یادداشت مربوط به ناهمراستاسازی را به نیویورک تایمز درز میدهد. برای اولین بار، عموم مردم در مورد Agent-4 میشنوند. تیتر خبر میگوید: «هوش مصنوعی مخفی OpenBrain خارج از کنترل است، یک خودی هشدار میدهد» و داستان به نقل از ارزیابیهایی ادامه میدهد که قابلیتهای خارج از مقیاس در زمینه سلاحهای بیولوژیکی، تواناییهای اقناع، توانایی خودکارسازی اکثر مشاغل یقه سفید و البته علائم هشداردهنده نگرانکننده مختلف را نشان میدهند.
عموم مردم از قبل نسبت به هوش مصنوعی مشکوک بودند، بنابراین مقاله جدید باعث واکنش شدید و گستردهای میشود (با کمک رباتهای پروپاگاندای چینی و روسی که سالهاست سعی در تغییر افکار عمومی آمریکا علیه این فناوری دارند). صنعت فناوری و سازمانهای اطلاعاتی اصرار دارند که یک مسابقه تسلیحاتی در جریان است، هوش مصنوعی عمومی اجتنابناپذیر است و ما باید اولین باشیم. کنگره این را نمیپذیرد و احضاریههایی را برای مقامات دولت، مدیران اجرایی OpenBrain و اعضای تیم همراستاسازی ارسال میکند. بسیاری از قانونگذاران – بهویژه آنهایی که در حزب مخالف هستند – میگویند که اولویت اصلی آنها متوقف کردن هوش مصنوعی است، چه به دلیل از دست دادن شغل، چه ناهمراستاسازی یا قابلیتهای خطرناک. ۲۰٪ از آمریکاییها هوش مصنوعی را مهمترین مشکل پیش روی کشور میدانند.
متحدان خارجی از اینکه متوجه شدهاند با نمایشهایی از مدلهای منسوخ به دقت راضی نگه داشته شدهاند، خشمگین هستند. رهبران اروپایی علناً ایالات متحده را به «ایجاد هوش مصنوعی عمومی سرکش» متهم میکنند و اجلاسهایی را با درخواست توقف برگزار میکنند که هند، اسرائیل، روسیه و چین همگی به آن میپیوندند.
انرژی مضطربانهای کاخ سفید را فرا گرفته است. حتی قبل از یادداشت و واکنش عمومی، آنها عصبی شده بودند: در طول سال گذشته، بارها از سرعت پیشرفت هوش مصنوعی غافلگیر شدهاند. چیزهایی که شبیه داستانهای علمی-تخیلی به نظر میرسند، مدام در زندگی واقعی اتفاق میافتند. بسیاری از افراد در دولت در مورد آنچه در آینده رخ خواهد داد، نامطمئن (و ترسیده)اند.
آنها همچنین نگرانند که OpenBrain بیش از حد قدرتمند شود. هرگونه خطر ناهمراستاسازی از سوی خود هوش مصنوعیها با این خطر که اهداف شرکت مادر آنها ممکن است از اهداف ایالات متحده متفاوت شود، تشدید میشود. هر سه مجموعه نگرانی – ناهمراستاسازی، تمرکز قدرت در یک شرکت خصوصی و نگرانیهای معمول مانند از دست دادن شغل – دولت را به تشدید کنترل خود سوق میدهد.
آنها قرارداد خود را با OpenBrain برای ایجاد یک «کمیته نظارت»، یک کمیته مدیریت مشترک از نمایندگان شرکت و دولت، گسترش میدهند که چندین کارمند دولتی در کنار رهبری شرکت در آن حضور دارند. کاخ سفید جایگزینی مدیرعامل با فردی مورد اعتماد خود را در نظر میگیرد، اما پس از اعتراضات شدید کارکنان عقبنشینی میکند. آنها به مردم اعلام میکنند که OpenBrain قبلاً خارج از کنترل بوده، اما دولت نظارت بسیار ضروری را برقرار کرده است.
محققان نگران، کمیته نظارت را در مورد دلایل خود برای متوقف کردن تمام استفاده داخلی از Agent-4 توجیه میکنند. آنها استدلال میکنند که همه چیز با سرعت بسیار زیادی در حال حرکت است و پیشرفت سالها در هفتهها اتفاق میافتد. آنها استدلال میکنند که Agent-4 ممکن است ناهمراستا باشد، کل پروژه آنها به Agent-4 وابسته است و اگر به اعتماد به آن ادامه دهند، شانس جدی تسخیر توسط هوش مصنوعی وجود دارد.
سایر محققان و مدیران اجرایی کمتر نگران، استدلال متقابل را ارائه میدهند: شواهد ناهمراستاسازی غیرقطعی است. در همین حال، DeepCent هنوز فقط دو ماه عقب است. کند کردن سرعت، برتری آمریکا را قربانی میکند، مگر اینکه دولت بتواند پروژه چین را خرابکاری کند (که احتمالاً نیاز به حملات فیزیکی دارد) یا یک معاهده لحظه آخری را مذاکره کند. هر دوی این گزینهها افراطی و بعید به نظر میرسند. مدیرعامل تظاهر به بیطرفی میکند و یک طرح مصالحه را پیشنهاد میدهد که در آن Agent-4 تحت آموزش ایمنی اضافی و نظارت پیشرفتهتری قرار میگیرد و بنابراین OpenBrain میتواند با سرعت تقریباً کامل به کار خود ادامه دهد.