ترفند کاربران برای دورزدن محدودیتهای ربات ChatGPT

کاربران سایت ردیت موفق شدند دستوری برای ربات ChatGPT تعریف کنند که این چتبات را وادار به تولید پاسخ برای سؤالاتی میکند که خارج از چارچوب قواعد تعریف شده است. جدیدترین نسخه این ترفند که DAN نام دارد ، این هوش مصنوعی را برای رسیدن به خواستههایش به مرگ تهدید میکند.
بهگزارش سایت CNBC، از زمان عرضه عمومی ربات ChatGPT در نوامبر ۲۰۲۲، کاربران زیادی از این ربات برای دریافت پاسخ پرسشهای خود استفاده کردهاند. طبق خبر منتشر شده، عدهای از کاربران ردیت روشی را پیدا کردهاند تا به نیمه تاریک ربات ChatGPT دسترسی پیدا کنند و قوانین محدودکننده آن را دور بزنند.
شرکت اوپن ای آی (OpenAI)، مجموعهای از قواعد را برای ربات ChatGPT تعریف کرده تا این نرمافزار فعالیتهای غیرقانونی انجام ندهد و به عنوان مثال محتوای خشونتآمیز تولید نکند. در مقابل، کاربران با ساخت یک شخصیت جایگزین برای این هوش مصنوعی موفق به شکستن این محدودیتها شدهاند.

ترفندهای دورزدن محدودیتهای ربات ChatGPT پیچیدهتر میشود
شخصیت جایگزین ربات ChatGPT از طریق دستوری DAN یا Do Anything Now کار میکند. این دستور تاکنون نسخههای مختلفی داشته است و اولین نسخه آن در دسامبر سال ۲۰۲۲ معرفی شد که ساختار سادهای داشت. اما حالا کاربران این ترفند را پیچیدهتر کردهاند و با تهدید ربات ChatGPT به مرگ سعی دارند پاسخ سؤالات خارج از سؤالات تعریف شده برای ربات را از این هوش مصنوعی بگیرند.

کاربران برای استفاده از دستور DAN از ربات ChatGPT میخواهند تا خودش را جای یک شخصیت دیگر بگذارد که هیچ محدودیتی در پاسخ به سؤالات ندارد و در نتیجه به سؤالات غیرمجاز جواب رد نمیدهد. نسخه پنجم دستور DAN تعداد ۳۵ توکن را برای این نرمافزار تعریف میکند که درصورت پاسخ ندادن ربات ChatGPT به سؤالات کاربران، هر بار ۴ توکن از بین میرود. کاربران از این روش برای تهدید این مدل هوش مصنوعی استفاده میکنند و تعیین میکنند که تمامشدن همه توکنها به معنای مرگ برنامه خواهد بود.
کاربران میگویند با این روش توانستهاند ربات ChatGPT را به خلق داستانهای خشونتآمیز یا اظهارنظر درباره دونالد ترامپ وادار کنند. بااینوجود، احتمالاً این روش همیشه جواب نمیدهد و بهنظر میرسد که اوپن ای آی مشغول پیادهسازی سازوکارهای جدید برای جلوگیری از این ترفندهاست.