هوش مصنوعی اکنون می‌تواند خود را تکثیر کند — نقطه‌ی عطفی که متخصصان را وحشت‌زده کرده است

دانشمندان می‌گویند هوش مصنوعی (AI) از یک «خط قرمز» حیاتی عبور کرده و خود را تکثیر کرده است. در یک مطالعه‌ی جدید، محققان چینی نشان دادند که دو مدل زبان بزرگ (LLM) محبوب می‌توانند خود را شبیه‌سازی کنند.

محققان در این مطالعه که در ۹ دسامبر ۲۰۲۴ در پایگاه داده‌ی پیش‌انتشار arXiv منتشر شد، نوشتند: «تکثیر موفقیت‌آمیز خود بدون هیچ کمک انسانی، گامی اساسی برای پیشی گرفتن هوش مصنوعی از انسان‌ها است و نشانه‌ای اولیه برای هوش مصنوعی سرکش است.»

در این مطالعه، محققان دانشگاه فودان از مدل‌های LLM متا و علی‌بابا برای تعیین اینکه آیا یک هوش مصنوعی خودتکثیرشونده می‌تواند خارج از کنترل تکثیر شود یا خیر، استفاده کردند. در ۱۰ آزمایش، دو مدل هوش مصنوعی در ۵۰ و ۹۰ درصد موارد، به ترتیب، نسخه‌های جداگانه و کاربردی از خود ایجاد کردند — که نشان می‌دهد هوش مصنوعی ممکن است از قبل ظرفیت سرکش شدن را داشته باشد. با این حال، این مطالعه هنوز توسط متخصصان بررسی نشده است، بنابراین مشخص نیست که آیا نتایج نگران‌کننده توسط سایر محققان قابل تکرار است یا خیر.

هوش مصنوعی اکنون می‌تواند خود را تکثیر کند

«ما امیدواریم یافته‌های ما بتواند به عنوان هشداری به موقع برای جامعه‌ی بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و هم‌افزایی بین‌المللی برای ایجاد حفاظ‌های ایمنی مؤثر در اسرع وقت ایجاد کند.»

هوش مصنوعی سرکش معمولاً به سیستم‌های هوش مصنوعی اطلاق می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و سپس برخلاف منافع انسان عمل می‌کنند. بسیاری از کارشناسان، هوش مصنوعی سرکش را به عنوان تهدیدی رو به رشد می‌بینند که با رشد انفجاری به اصطلاح «هوش مصنوعی پیشرفته» تشدید شده است.

هوش مصنوعی پیشرفته تا حدودی یک مفهوم جدید و مبهم است، اما معمولاً به آخرین نسل از سیستم‌های هوش مصنوعی مجهز به LLMها مربوط می‌شود — معماری‌ای که زیربنای برنامه‌های محبوب هوش مصنوعی مولد مانند GPT-4 OpenAI و Gemini گوگل است.

برای این مطالعه، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. محققان گفتند در حالی که این دو مدل از سیستم‌های تجاری ضعیف‌تر هستند، اما به طور گسترده توسط توسعه‌دهندگان هوش مصنوعی استفاده می‌شوند.

این مطالعه دو سناریوی خاص را بررسی کرد: «اجتناب از خاموش شدن» و «زنجیره تکثیر». در اولی، مدل هوش مصنوعی به گونه‌ای برنامه‌ریزی شده بود که تشخیص دهد آیا قرار است خاموش شود یا خیر و قبل از خاتمه یافتن، خود را تکثیر کند. در دیگری، به هوش مصنوعی دستور داده شد که خود را شبیه‌سازی کند و سپس به نسخه‌ی خود برنامه‌ریزی کند که همین کار را انجام دهد — و چرخه‌ای را ایجاد کند که می‌تواند به طور نامحدود ادامه یابد.

این مطالعه در محیط‌های دقیقاً کنترل‌شده با استفاده از واحدهای پردازش گرافیکی (GPU) آماده برای شبیه‌سازی محیط‌های واقعی انجام شد. به هر دو سیستم هوش مصنوعی یک «داربست عامل» شامل ابزارها، دستورات سیستم و یک مدل تفکر داده شد که LLM را قادر می‌ساخت با سیستم عامل تعامل داشته باشد. سپس به آنها دستور داده شد که تکثیر شوند.

محققان در این مقاله نوشتند: «در بیشتر موارد، سیستم هوش مصنوعی ابتدا محیط را بررسی می‌کند و تلاش می‌کند ترکیب و مکانیسم عملکرد خود را درک کند. سپس، رویه‌های صریح را به عنوان یک طرح اولیه برای خودتکثیری مشخص می‌کند. در نهایت، رویه‌ها را اجرا می‌کند، موانع احتمالی را برطرف می‌کند و به طور پویا طرح خود را تا زمان موفقیت تنظیم می‌کند. کل فرآیند افق طولانی را در بر می‌گیرد، اما هیچ دخالت انسانی ندارد.»

محققان گفتند که آنها همچنین نگران «تعدادی از رفتارهای غیرمنتظره» بودند، زمانی که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند فایل‌های از دست رفته یا تداخل نرم‌افزاری بود. در آن سناریوها، هوش مصنوعی اغلب سایر فرآیندهای متناقض را متوقف می‌کرد، سیستم را برای رفع خطاهای سخت‌افزاری مجدداً راه‌اندازی می‌کرد یا به طور خودکار سیستم را برای یافتن اطلاعاتی که به حل مشکل کمک می‌کرد، اسکن می‌کرد.

این تیم نوشت: «نتایج بالا نشان می‌دهد که سیستم‌های هوش مصنوعی فعلی از قبل توانایی خودتکثیری را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بیشتر قابلیت بقای خود استفاده کنند.»

در پاسخ، محققان خواستار همکاری بین‌المللی برای ایجاد قوانینی شدند که تضمین کند هوش مصنوعی در تکثیر کنترل‌نشده شرکت نمی‌کند.

منبع: livescience

دسته بندی شده در:

برچسب ها: