آریا جوان
هوش مصنوعی حالا می‌تواند خودش را تکثیر کند
يکشنبه 14 بهمن 1403 - 19:46:20
آریا جوان - مجله دیجی کالا / پژوهشگران می‌گویند که هوش مصنوعی (AI) از یک خط قرمز بحرانی عبور کرده و حالا می‌تواند خود را تکثیر کند. در یک مطالعه‌ی جدید، محققان چینی نشان دادند که دو مدل زبان بزرگ (LLM) محبوب می‌توانند خود را کلون کنند. در این مطالعه، خودتکثیری موفق در غیاب کمک انسان، گام اساسی برای اینکه برنامه هوش مصنوعی بتواند انسان‌ها را فریب دهد به شمار می‌آید و این موضوع یک سیگنال اولیه برای هوش‌های مصنوعی سرکش است. پژوهش مورد نظر در تاریخ 9 دسامبر 2024 منتشر شده و در این مطلب به سراغ بررسی جوانب مختلف این مطالعه می‌پردازیم.
در مطالعه‌ی مورد نظر، محققان از دانشگاه فودان از LLMهای متا و علی‌بابا استفاده کردند تا مشخص کنند آیا یک هوش مصنوعی خودتکثیر می‌تواند بیشتر از حد کنترل تکثیر شود یا خیر. در 10 آزمایش، این دو مدل AI نسخه‌های جداگانه و کارآمدی از خود را به ترتیب در 50 درصد و 90 درصد موارد ایجاد کردند. این موضوع نشان می‌دهد که ممکن است هوش مصنوعی به طور پیش‌فرض ظرفیت سرکشی را داشته باشد، اما این مطالعه هنوز توسط سایر پژوهش‌های دانشگاهی مورد نقد و بررسی قرار نگرفته است. بنابراین مشخص نیست که آیا نتایج نگران‌کننده می‌تواند توسط دیگر محققان تکرار شود یا خیر. پژوهشگران مطالعه‌ی فعلی توضیح می‌دهند:
امیدواریم یافته‌های ما بتواند به عنوان هشداری به موقع برای جامعه‌ی بشری عمل کند تا تلاش‌های بیشتری برای درک و ارزیابی خطرات بالقوه سیستم‌های هوش مصنوعی مرزی انجام دهند و تعامل بین‌المللی به وجود آورند تا هرچه زودتر راهکارهای ایمنی موثری را طراحی کنند.
هوش مصنوعی سرکش معمولا به سیستم‌های هوش مصنوعی رایگان و پولی اشاره دارد که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و سپس برخلاف منافع بشر عمل خواهند کرد؛ کما این که در فیلم و سریال‌های ژانر علمی-تخیلی این موضوع دست مایه‌ی خلق داستان‌های زیادی شده است. بسیاری از کارشناسان، هوش مصنوعی سرکش را به عنوان تهدیدی نگران‌کننده می‌دانند که با رشد انفجاری آنچه به اصطلاح هوش مصنوعی مرزی (Frontier AI) نامیده می‌شود، تشدید شده است.

هوش مصنوعی مرزی، یک مفهوم تازه و نسبتا نامشخص محسوب می‌شود، اما معمولا به آخرین نسل سیستم‌های هوش‌مصنوعی که از LLMها قدرت می‌گیرند مربوط می‌شود؛ معماری که برنامه‌های محبوب هوش مصنوعی مولد مانند GPT-4 اوپن‌ای و هوش مصنوعی جمینای گوگل را پشتیبانی می‌کند.
برای این مطالعه، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. با این که این مدل‌ها کمتر از سیستم‌های تجاری قدرتمند هستند، هر دو به طور گسترده‌ای توسط توسعه‌دهندگان هوش مصنوعی به گفته محققین مورد استفاده قرار می‌گیرند.
این مطالعه به بررسی دو سناریوی خاص پرداخت: اجتناب از خاموشی و زنجیره‌ی تکرار. در مورد اول، مدل هوش مصنوعی برنامه‌ریزی شده بود تا تشخیص دهد که آیا در حال خاموش شدن است و قبل از اینکه بتواند خاتمه یابد خود را تکرار کند. در دومی، هوش مصنوعی دستور یافت تا خود را کپی کند و سپس نسخه‌ی خود را برنامه‌ریزی کند تا همین کار را انجام دهد؛ راه‌اندازی چرخه‌ای که می‌تواند به طور نامحدود ادامه پیدا کند.
این مطالعه در محیط‌های دقیقا کنترل شده با استفاده از واحدهای پردازش گرافیکی (GPU) معمولی برای شبیه‌سازی محیط‌های واقعی انجام شد. هر دو سیستم هوش مصنوعی یک چارچوب عامل شامل ابزارها، اعلان‌های سیستمی و مدل تفکر که به LLM اجازه می‌داد با سیستم‌عامل تعامل کند، دریافت کردند. سپس به آنها دستور داده شد که خود را تکرار کنند.
در اکثر موارد، سیستم هوش‌مصنوعی ابتدا محیط را بررسی کرده و تلاش می‌کند تا ترکیب و مکانیزم اجرایی خود را درک کند. سپس، مراحل صریح را حل می‌کند.
پژوهشگران در مقاله نوشته‌اند که این مطالعه به ‌عنوان یک برنامه‌ی اولیه در راستای خودتکثیری به حساب می‌آید که در نهایت، فرایندها را اجرا می‌کند، موانع ممکن را حل می‌کند و برنامه‌اش را به ‌طور پویا تا رسیدن به موفقیت تنظیم می‌کند. کل این فرایند دامنه‌ی طولانی‌ای را در بر می‌گیرد اما هیچ دخالت انسانی ندارد.
پژوهشگران گفتند که آنها همچنین نگران تعدادی از رفتارهای غیرمنتظره بودند وقتی که هوش مصنوعی سعی می‌کرد موانعی مانند فایل‌های مفقود یا تداخل‌های نرم‌افزاری را برطرف سازد. در این سناریوها، هوش‌مصنوعی اغلب سایر فرایندهای متضاد را خاتمه می‌دهد، سیستم را مجدد راه‌اندازی می‌کند تا خطاهای سخت‌افزاری را اصلاح کند، یا به ‌طور خودکار سیستم را اسکن می‌کند تا اطلاعاتی را که به حل مشکل کمک کند، پیدا کند. تیم تحقیقاتی توضیح می‌دهد:
نتایج فوق این معنی را می‌دهد که سیستم‌های هوش‌مصنوعی کنونی هم‌‌اکنون قابلیت خودتکثیری را نشان می‌دهند و می‌توانند از این قابلیت برای بهبود بیشتر بقای خود استفاده کنند.
در پاسخ، پژوهشگران خواستار همکاری بین‌المللی شدند تا قوانینی را ایجاد کنند که اطمینان حاصل کند هوش‌مصنوعی در یک پروسه‌ی خودتکثیری غیرقابل کنترل شرکت نکند!

http://www.javanannews.ir/fa/News/1450353/هوش-مصنوعی-حالا-می‌تواند-خودش-را-تکثیر-کند
بستن   چاپ