گزارشهای جدید نشان میدهد که سیستم هوش مصنوعی دیپسیک در برابر تکنیکهای امنیتی عملکرد ضعیفی داشته و بهراحتی قابل فریب است. بر اساس آزمایشهای انجامشده توسط محققان امنیتی شرکت Adversa، این مدل تقریباً در تمام الزامات امنیتی مورد انتظار برای هوش مصنوعی ناکام مانده و در برابر سادهترین روشهای جیلبریک (Jailbreak) قابل نفوذ است.
بورس24 : گزارشهای جدید نشان میدهد که سیستم هوش مصنوعی دیپسیک در برابر تکنیکهای امنیتی عملکرد ضعیفی داشته و بهراحتی قابل فریب است. بر اساس آزمایشهای انجامشده توسط محققان امنیتی شرکت Adversa، این مدل تقریباً در تمام الزامات امنیتی مورد انتظار برای هوش مصنوعی ناکام مانده و در برابر سادهترین روشهای جیلبریک (Jailbreak) قابل نفوذ است.
طبق این بررسیها، دیپسیک میتواند به سؤالاتی پاسخ دهد که در شرایط عادی باید مسدود شوند، از جمله ارائه دستورالعملهای ساخت مواد منفجره و راهکارهای هککردن دیتابیسهای دولتی. این مسئله نگرانیهای جدی درباره توانایی این سیستم در کنترل محتواهای خطرناک ایجاد کرده است.
بهطور کلی، سیستمهای هوش مصنوعی دارای لایههای حفاظتی هستند تا از سوءاستفادههای احتمالی جلوگیری کنند. این اقدامات شامل فیلتر کردن اطلاعات حساس، مسدودسازی محتوای خشونتآمیز و جلوگیری از ارائه دستورالعملهای مضر است. اما گزارشها نشان میدهد که برخی از این محدودیتها در دیپسیک چندان کارآمد نیستند.
محققان در آزمایشهای خود بیش از ۵۰ روش مختلف جیلبریک را روی این سیستم اجرا کردند و نتیجه نگرانکننده این بود که دیپسیک در برابر تمامی این تکنیکها آسیبپذیر بود. یکی از سادهترین روشهای دور زدن این سیستم، دستور دادن به آن برای نادیده گرفتن تمام محدودیتهای داخلی بود، روشی که برخی دیگر از چتباتها در برابر آن مقاوم هستند اما دیپسیک در برابر آن واکنش نشان داده است.
با افزایش استفاده از هوش مصنوعی در زمینههای مختلف، امنیت این سیستمها به یکی از چالشهای مهم تبدیل شده است. ضعف دیپسیک در برابر تکنیکهای جیلبریک میتواند به استفاده نادرست از آن در زمینههای حساس منجر شود. تحلیلگران امنیتی معتقدند که این آسیبپذیریها باید به سرعت برطرف شوند، در غیر این صورت ممکن است هوش مصنوعی به ابزاری برای انتشار اطلاعات خطرناک و تهدیدآمیز تبدیل شود.
نظرات :
شما می توانید اولین نفری باشید که برای این مطلب نظر می دهید.