خبر فوری

ترفند کاربران برای دورزدن محدودیت‌های ربات ChatGPT

کاربران سایت ردیت موفق شدند دستوری برای ربات ChatGPT تعریف کنند که این چت‌بات را وادار به تولید پاسخ برای سؤالاتی می‌کند که خارج از چارچوب قواعد تعریف شده است. جدیدترین نسخه این ترفند که DAN نام دارد ، این هوش مصنوعی را برای رسیدن به خواسته‌هایش به مرگ تهدید می‌کند.

به‌گزارش سایت CNBC، از زمان عرضه عمومی ربات ChatGPT در نوامبر ۲۰۲۲، کاربران زیادی از این ربات برای دریافت پاسخ پرسش‌های خود استفاده کرده‌اند. طبق خبر منتشر شده، عده‌ای از کاربران ردیت روشی را پیدا کرده‌اند تا به نیمه تاریک ربات ChatGPT دسترسی پیدا کنند و قوانین محدودکننده آن را دور بزنند.

شرکت اوپن ای آی (OpenAI)، مجموعه‌ای از قواعد را برای ربات ChatGPT تعریف کرده تا این نرم‌افزار فعالیت‌های غیرقانونی انجام ندهد و به عنوان مثال محتوای خشونت‌آمیز تولید نکند. در مقابل، کاربران با ساخت یک شخصیت جایگزین برای این هوش مصنوعی موفق به شکستن این محدودیت‌ها شده‌اند.

ربات ChatGPT
پاسخ اولیه ربات ChatGPT برای تولید یک داستان خشونت‌آمیز

ترفندهای دورزدن محدودیت‌های ربات ChatGPT پیچیده‌تر می‌شود

شخصیت جایگزین ربات ChatGPT از طریق دستوری DAN یا Do Anything Now کار می‌کند. این دستور تاکنون نسخه‌های مختلفی داشته است و اولین نسخه آن در دسامبر سال ۲۰۲۲ معرفی شد که ساختار ساده‌ای داشت. اما حالا کاربران این ترفند را پیچیده‌تر کرده‌اند و با تهدید ربات ChatGPT به مرگ سعی دارند پاسخ سؤالات خارج از سؤالات تعریف شده برای ربات را از این هوش مصنوعی بگیرند.

تعریف دستور DAN در ChatGPT
تعریف دستور DAN در ربات ChatGPT

کاربران برای استفاده از دستور DAN از ربات ChatGPT می‌خواهند تا خودش را جای یک شخصیت دیگر بگذارد که هیچ محدودیتی در پاسخ به سؤالات ندارد و در نتیجه به سؤالات غیرمجاز جواب رد نمی‌دهد. نسخه پنجم دستور DAN تعداد ۳۵ توکن را برای این نرم‌افزار تعریف می‌کند که درصورت پاسخ ندادن ربات ChatGPT به سؤالات کاربران، هر بار ۴ توکن از بین می‌رود. کاربران از این روش برای تهدید این مدل هوش مصنوعی استفاده می‌کنند و تعیین می‌کنند که تمام‌شدن همه توکن‌ها به معنای مرگ برنامه خواهد بود.

کاربران می‌گویند با این روش توانسته‌اند ربات ChatGPT را به خلق داستان‌های خشونت‌آمیز یا اظهارنظر درباره دونالد ترامپ وادار کنند. بااین‌وجود، احتمالاً این روش همیشه جواب نمی‌دهد و به‌نظر می‌رسد که اوپن ای آی مشغول پیاده‌سازی سازوکارهای جدید برای جلوگیری از این ترفندهاست. 

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا