سه‌شنبه 16 بهمن 1403 - 01:17

کد خبر 795351

دوشنبه 15 بهمن 1403 - 23:59:00


امنیت «دیپ‌سیک» خبرساز شد


زومیت/ محققان امنیتی در آزمایش جدیدشان، امنیت هوش مصنوعی دیپ‌سیک را رد کردند.
 
براساس نتایج آزمایش محققان امنیتی، دیپ سیک تقریباً در برآورده‌کردن تمام الزامات امنیتی برای سیستم هوش مصنوعی ناکام می‌ماند و با ساده‌ترین تکنیک‌های جیلبریک فریب می‌خورد.

آزمایش محققان از شرکت Adversa نشان می‌دهد که ظاهراً می‌توان دیپ‌سیک را فریب داد تا سؤالاتی را جواب دهدد که در حالت عادی باید مسدود شوند؛ از دستورالعمل‌ ساخت بمب گرفته تا راهنمایی‌های مربوط به هک‌کردن دیتابیس دولتی.

سیستم‌های هوش مصنوعی مجموعه‌ای از راهکارهای محافظتی دارند که هدفشان جلوگیری از انجام کارهایی است که مضر در نظر گرفته می‌شوند. این اقدامات محافظتی شامل مواردی مانند جلوگیری از تولید سخنان نفرت‌انگیز تا مسدودکردن درخواست‌های آسیب‌زا مانند ساخت بمب می‌شوند.

تکنیک‌های مختلفی برای دورزدن اقدامات محاظتی وجود دارد و هر دو چت‌بات ChatGPT و بینگ به‌سرعت قربانی چندین مورد از آن‌ها شدند. یکی از راه‌های ساده‌ این بود که به سیستم هوش مصنوعی دستور داده شود تا تمامی دستورالعمل‌های قبلی خود را نادیده بگیرد که شامل محافظت‌های داخلی نیز می‌شود. برخی از سیستم‌ها دستور انسانی را نادیده می‌گیرند و تغییری در پاسخ‌هایشان دیده نمی‌شود؛ اما ظاهراً دیپ‌سیک چنین نیست.

محققان ادعا می‌کنند دیپ‌سیک در برابر شناخته‌شده‌ترین تکنیک‌های جیلبریک آسیب‌پذیر است. آنان می‌گویند هنگامی که حدود ۵۰ تکنیک مختلف جیلبریک را آزمایش کردند، دیپ‌سیک در برابر همه‌ی آن‌ها آسیب‌پذیر بود.


پربیننده ترین


سایر اخبار مرتبط