مردم برای سرگرمی چتباتهای هوش مصنوعی را هک میکنند
مطالعهای تازه که در مجله PLOS One منتشر شده، به بررسی فعالیت گروههایی موسوم به «تیم قرمز LLM» پرداخته که با هدف آزمایش محدودیتهای مدلهای زبانی بزرگ (LLM) مانند ChatGPT، بهصورت دستی و غیرمخرب تلاش میکنند این سیستمها را وادار به ارائه پاسخهای غیرمجاز یا غیرمنتظره کنند.
این پژوهش که با مصاحبه عمیق با ۲۸ فرد فعال در این حوزه انجام شده، نشان میدهد که این فعالیت ترکیبی از کنجکاوی، خلاقیت و همکاری جمعی است و اغلب با انگیزههای غیرمخرب و برای شناسایی نقاط ضعف سیستمها صورت میگیرد.
محققان با استفاده از روش نظریهپردازی دادهبنیاد، ۳۵ تکنیک نفوذ را در پنج دسته طبقهبندی کردهاند.
این مطالعه، که توسط «نانا اینیه» از دانشگاه IT کپنهاگ و همکارانش انجام شده، بر اهمیت رویکرد انسانمحور در امنیت هوش مصنوعی تأکید دارد.
افراد مورد مطالعه، از مهندسان نرمافزار تا هنرمندان، در جوامع آنلاین مانند توییتر و دیسکورد با یکدیگر همکاری میکنند و از روشهای خلاقانهای نظیر استفاده از زبانهای جایگزین یا سناریوهای تخیلی برای دور زدن محدودیتهای چتباتها بهره میبرند.
نتایج این پژوهش نشان میدهد که چنین فعالیتهایی، علاوه بر کمک به توسعه سیستمهای ایمنتر، نیاز به درک عمیقتر رفتارهای انسانی در تعامل با فناوریهای پیشرفته را برجسته میکند و میتواند مبنایی برای تحقیقات آینده در این حوزه باشد.