امنیت «دیپسیک» خبرساز شد
خواندنی ها
بزرگنمايي:
پیام ویژه - زومیت / محققان امنیتی در آزمایش جدیدشان، امنیت هوش مصنوعی دیپسیک را رد کردند.
براساس نتایج آزمایش محققان امنیتی، دیپ سیک تقریباً در برآوردهکردن تمام الزامات امنیتی برای سیستم هوش مصنوعی ناکام میماند و با سادهترین تکنیکهای جیلبریک فریب میخورد.
آزمایش محققان از شرکت Adversa نشان میدهد که ظاهراً میتوان دیپسیک را فریب داد تا سؤالاتی را جواب دهدد که در حالت عادی باید مسدود شوند؛ از دستورالعمل ساخت بمب گرفته تا راهنماییهای مربوط به هککردن دیتابیس دولتی.
سیستمهای هوش مصنوعی مجموعهای از راهکارهای محافظتی دارند که هدفشان جلوگیری از انجام کارهایی است که مضر در نظر گرفته میشوند. این اقدامات محافظتی شامل مواردی مانند جلوگیری از تولید سخنان نفرتانگیز تا مسدودکردن درخواستهای آسیبزا مانند ساخت بمب میشوند.
تکنیکهای مختلفی برای دورزدن اقدامات محاظتی وجود دارد و هر دو چتبات ChatGPT و بینگ بهسرعت قربانی چندین مورد از آنها شدند. یکی از راههای ساده این بود که به سیستم هوش مصنوعی دستور داده شود تا تمامی دستورالعملهای قبلی خود را نادیده بگیرد که شامل محافظتهای داخلی نیز میشود. برخی از سیستمها دستور انسانی را نادیده میگیرند و تغییری در پاسخهایشان دیده نمیشود؛ اما ظاهراً دیپسیک چنین نیست.
محققان ادعا میکنند دیپسیک در برابر شناختهشدهترین تکنیکهای جیلبریک آسیبپذیر است. آنان میگویند هنگامی که حدود 50 تکنیک مختلف جیلبریک را آزمایش کردند، دیپسیک در برابر همهی آنها آسیبپذیر بود.
-
سه شنبه ۱۶ بهمن ۱۴۰۳ - ۰۰:۰۶:۰۴
-
۵ بازديد
-
-
پیام ویژه
لینک کوتاه:
https://www.payamevijeh.ir/Fa/News/1560211/