برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 مردم برای سرگرمی چت‌بات‌های هوش مصنوعی را هک می‌کنند

مردم برای سرگرمی چت‌بات‌های هوش مصنوعی را هک می‌کنند

زمان مطالعه: < 1 دقیقه

مطالعه‌ای تازه که در مجله PLOS One منتشر شده، به بررسی فعالیت گروه‌هایی موسوم به «تیم قرمز LLM» پرداخته که با هدف آزمایش محدودیت‌های مدل‌های زبانی بزرگ (LLM) مانند ChatGPT، به‌صورت دستی و غیرمخرب تلاش می‌کنند این سیستم‌ها را وادار به ارائه پاسخ‌های غیرمجاز یا غیرمنتظره کنند.

این پژوهش که با مصاحبه عمیق با ۲۸ فرد فعال در این حوزه انجام شده، نشان می‌دهد که این فعالیت ترکیبی از کنجکاوی، خلاقیت و همکاری جمعی است و اغلب با انگیزه‌های غیرمخرب و برای شناسایی نقاط ضعف سیستم‌ها صورت می‌گیرد.

محققان با استفاده از روش نظریه‌پردازی داده‌بنیاد، ۳۵ تکنیک نفوذ را در پنج دسته طبقه‌بندی کرده‌اند.

این مطالعه، که توسط «نانا اینیه» از دانشگاه IT کپنهاگ و همکارانش انجام شده، بر اهمیت رویکرد انسان‌محور در امنیت هوش مصنوعی تأکید دارد.

افراد مورد مطالعه، از مهندسان نرم‌افزار تا هنرمندان، در جوامع آنلاین مانند توییتر و دیسکورد با یکدیگر همکاری می‌کنند و از روش‌های خلاقانه‌ای نظیر استفاده از زبان‌های جایگزین یا سناریوهای تخیلی برای دور زدن محدودیت‌های چت‌بات‌ها بهره می‌برند.

نتایج این پژوهش نشان می‌دهد که چنین فعالیت‌هایی، علاوه بر کمک به توسعه سیستم‌های ایمن‌تر، نیاز به درک عمیق‌تر رفتارهای انسانی در تعامل با فناوری‌های پیشرفته را برجسته می‌کند و می‌تواند مبنایی برای تحقیقات آینده در این حوزه باشد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]