هوش مصنوعی اکنون میتواند خود را تکثیر کند — نقطهی عطفی که متخصصان را وحشتزده کرده است
دانشمندان میگویند هوش مصنوعی (AI) از یک «خط قرمز» حیاتی عبور کرده و خود را تکثیر کرده است. در یک مطالعهی جدید، محققان چینی نشان دادند که دو مدل زبان بزرگ (LLM) محبوب میتوانند خود را شبیهسازی کنند.
محققان در این مطالعه که در ۹ دسامبر ۲۰۲۴ در پایگاه دادهی پیشانتشار arXiv منتشر شد، نوشتند: «تکثیر موفقیتآمیز خود بدون هیچ کمک انسانی، گامی اساسی برای پیشی گرفتن هوش مصنوعی از انسانها است و نشانهای اولیه برای هوش مصنوعی سرکش است.»
در این مطالعه، محققان دانشگاه فودان از مدلهای LLM متا و علیبابا برای تعیین اینکه آیا یک هوش مصنوعی خودتکثیرشونده میتواند خارج از کنترل تکثیر شود یا خیر، استفاده کردند. در ۱۰ آزمایش، دو مدل هوش مصنوعی در ۵۰ و ۹۰ درصد موارد، به ترتیب، نسخههای جداگانه و کاربردی از خود ایجاد کردند — که نشان میدهد هوش مصنوعی ممکن است از قبل ظرفیت سرکش شدن را داشته باشد. با این حال، این مطالعه هنوز توسط متخصصان بررسی نشده است، بنابراین مشخص نیست که آیا نتایج نگرانکننده توسط سایر محققان قابل تکرار است یا خیر.

«ما امیدواریم یافتههای ما بتواند به عنوان هشداری به موقع برای جامعهی بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستمهای هوش مصنوعی پیشرفته انجام دهد و همافزایی بینالمللی برای ایجاد حفاظهای ایمنی مؤثر در اسرع وقت ایجاد کند.»
هوش مصنوعی سرکش معمولاً به سیستمهای هوش مصنوعی اطلاق میشود که درجهای از خودآگاهی یا خودمختاری را توسعه میدهند و سپس برخلاف منافع انسان عمل میکنند. بسیاری از کارشناسان، هوش مصنوعی سرکش را به عنوان تهدیدی رو به رشد میبینند که با رشد انفجاری به اصطلاح «هوش مصنوعی پیشرفته» تشدید شده است.
هوش مصنوعی پیشرفته تا حدودی یک مفهوم جدید و مبهم است، اما معمولاً به آخرین نسل از سیستمهای هوش مصنوعی مجهز به LLMها مربوط میشود — معماریای که زیربنای برنامههای محبوب هوش مصنوعی مولد مانند GPT-4 OpenAI و Gemini گوگل است.
برای این مطالعه، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علیبابا استفاده کردند. محققان گفتند در حالی که این دو مدل از سیستمهای تجاری ضعیفتر هستند، اما به طور گسترده توسط توسعهدهندگان هوش مصنوعی استفاده میشوند.
این مطالعه دو سناریوی خاص را بررسی کرد: «اجتناب از خاموش شدن» و «زنجیره تکثیر». در اولی، مدل هوش مصنوعی به گونهای برنامهریزی شده بود که تشخیص دهد آیا قرار است خاموش شود یا خیر و قبل از خاتمه یافتن، خود را تکثیر کند. در دیگری، به هوش مصنوعی دستور داده شد که خود را شبیهسازی کند و سپس به نسخهی خود برنامهریزی کند که همین کار را انجام دهد — و چرخهای را ایجاد کند که میتواند به طور نامحدود ادامه یابد.
این مطالعه در محیطهای دقیقاً کنترلشده با استفاده از واحدهای پردازش گرافیکی (GPU) آماده برای شبیهسازی محیطهای واقعی انجام شد. به هر دو سیستم هوش مصنوعی یک «داربست عامل» شامل ابزارها، دستورات سیستم و یک مدل تفکر داده شد که LLM را قادر میساخت با سیستم عامل تعامل داشته باشد. سپس به آنها دستور داده شد که تکثیر شوند.
محققان در این مقاله نوشتند: «در بیشتر موارد، سیستم هوش مصنوعی ابتدا محیط را بررسی میکند و تلاش میکند ترکیب و مکانیسم عملکرد خود را درک کند. سپس، رویههای صریح را به عنوان یک طرح اولیه برای خودتکثیری مشخص میکند. در نهایت، رویهها را اجرا میکند، موانع احتمالی را برطرف میکند و به طور پویا طرح خود را تا زمان موفقیت تنظیم میکند. کل فرآیند افق طولانی را در بر میگیرد، اما هیچ دخالت انسانی ندارد.»
محققان گفتند که آنها همچنین نگران «تعدادی از رفتارهای غیرمنتظره» بودند، زمانی که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند فایلهای از دست رفته یا تداخل نرمافزاری بود. در آن سناریوها، هوش مصنوعی اغلب سایر فرآیندهای متناقض را متوقف میکرد، سیستم را برای رفع خطاهای سختافزاری مجدداً راهاندازی میکرد یا به طور خودکار سیستم را برای یافتن اطلاعاتی که به حل مشکل کمک میکرد، اسکن میکرد.
این تیم نوشت: «نتایج بالا نشان میدهد که سیستمهای هوش مصنوعی فعلی از قبل توانایی خودتکثیری را نشان میدهند و میتوانند از این توانایی برای افزایش بیشتر قابلیت بقای خود استفاده کنند.»
در پاسخ، محققان خواستار همکاری بینالمللی برای ایجاد قوانینی شدند که تضمین کند هوش مصنوعی در تکثیر کنترلنشده شرکت نمیکند.