کاربر مشکوک زیر ذرهبین الگوریتمها:
قدم هوش مصنوعی دیوار برای کاهش کلاهبرداری
دیوار، یکی از پلتفرمهای پرمخاطب در حوزه خرید و فروش آنلاین، گام بزرگی برای افزایش امنیت کاربرانش برداشته است. این مجموعه اخیراً از مدل هوش مصنوعی پیشرفتهای رونمایی کرده که با بهرهگیری از چندین الگوریتم و فناوری نوین، کاربران دارای رفتار مشکوک را شناسایی و طبقهبندی میکند.
برای آشنایی بیشتر با این مدل و فرآیندهای فنی پشت آن، با «میترا فاطمی»، مدیر تیم کاهش کلاهبرداری و مزاحمت دیوار، گفتوگویی داشتیم.
مدلهای متنوع، هدفی واحد: شناسایی رفتارهای مشکوک
به گفته میترا فاطمی، در طراحی این سیستم، ترکیبی از مدلهای یادگیری عمیق و الگوریتمهای تحلیل رفتاری مورد استفاده قرار گرفتهاند: «برای تحلیل رفتار آگهیگذاران، از مدلهای CNN استفاده کردهایم. در کنار آن، مدلهای rule-based و الگوریتم isolation-forest برای بررسی گزارشهای دریافتی و شناسایی موارد جعلی به کار گرفته شدهاند. همچنین مدلهای زبانی بزرگی مانند GPT-4 به ما کمک کردهاند تا محتوای آگهیها و چتها را از منظر تخلف بررسی کنیم.»
رفتار مشکوک یعنی چه؟ هوش مصنوعی چگونه متخلف را میشناسد؟
یکی از سؤالات مهم درباره چنین سیستمهایی، نحوه تعریف «رفتار مشکوک» است. فاطمی میگوید: «ما از مدلهای supervised یادگیری ماشین استفاده کردهایم که بر اساس دیتاستهای برچسبخورده آموزش دیدهاند. این مدلها به کمک ایجنتهایی مشابه کارشناسان انسانی، رفتار آگهیگذاران را در بازه زمانی بررسی میکنند. این ایجنتها بهویژه به دنبال نشانههای تکرار تخلف در آگهیهای متوالی یا متن مکالمات هستند.»
راهی برای خطای کمتر: مجازاتهای پلکانی و بدون پیشداوری
یکی از چالشهای سیستمهای مشابه، جلوگیری از شناسایی اشتباه کاربران سالم بهعنوان متخلف (False Positive) است. فاطمی توضیح میدهد: «برای کاهش خطا، ما از مجازاتهای پلکانی استفاده میکنیم. یعنی اگر کاربری به اشتباه شناسایی شد، در دفعات اول با محدودیتهای سبکتری مواجه میشود. همچنین از دادههای قبلی درباره تخلفات کاربران استفاده نمیکنیم تا هیچ پیشداوری در تصمیمگیریها تأثیرگذار نباشد.»
شناسایی گزارشهای جعلی؛ بدون یادگیری ماشین
برخلاف بسیاری از بخشهای دیگر، دیوار برای تشخیص گزارشهای جعلی از مدلهای یادگیری ماشین استفاده نمیکند. فاطمی در اینباره میگوید: «ما از ویژگیهایی مانند سری زمانی گزارشها و ارتباط میان گزارشگران برای شناسایی فعالیتهای مشکوک استفاده میکنیم. این روش به ما کمک میکند تا کاربرانی که بهصورت هماهنگ گزارش جعلی ارسال میکنند را شناسایی کنیم.»
احراز هویت ویدیویی؛ دیوار جلوی Deepfake را هم گرفته است؟
با توجه به اینکه فرآیند احراز هویت ویدیویی برای کاربران مشکوک اجباری شده، این پرسش مطرح است که دیوار چگونه با تهدیدهایی مانند Deepfake مقابله میکند؟
«این بخش از فرآیند به شرکتهای همکار تخصصی در حوزه احراز هویت بیرونسپاری شده و خارج از حوزه تیم ماست. اما این شرکتها از تکنولوژیهای ضد جعل چهره استفاده میکنند.»
یادگیری مداوم یا بازآموزی دورهای؟
در پاسخ به پرسش درباره پویایی مدلها، فاطمی میگوید: «مدلهای supervised ما نیاز به بازآموزی دارند. ولی به همین دلیل از مدلهای زبانی بزرگ (مانند GPT و Gemini) هم استفاده میکنیم که نیاز به training مجدد ندارند و پیوسته در حال بهروزرسانی و ارتقا هستند.»
پایان بازی برای متخلفان؟
هوش مصنوعی دیوار حالا نهتنها تخلفات را شناسایی میکند، بلکه به صورت طبقهبندیشده با آنها برخورد میکند. کاربران پرخطر به طور خودکار محدود میشوند و تنها راه بازگشت آنها، احراز هویت ویدیویی موفق است.
در نهایت، همانطور که فاطمی اشاره میکند، فناوری هرچقدر هم پیشرفته باشد، زمانی مؤثر خواهد بود که کاربران نیز آگاه باشند و نسبت به کلاهبرداریهای احتمالی هوشیاری بیشتری نشان دهند.