
آیا هوش مصنوعی میتواند معضل مدیریت محتوا را حل کند؟
در دنیای شبکههای اجتماعی، دوری از اطلاعات نادرست، محتوای توهینآمیز و مطالب آزاردهنده، چالشی همیشگی است. پلتفرمهایی مانند فیس بوک (Facebook) و یوتیوب (YouTube) سالهاست از سامانههای مدیریت محتوا برای حذف مطالب زننده استفاده میکنند، اما بر اساس نظرسنجی Cato Institute در سال ۲۰۲۱، تنها ۲۵٪ کاربران معتقدند این استانداردها بهطور عادلانه اجرا میشود.
اختلاف نظر درباره محتوای نامناسب
یکی از موانع اصلی، تفاوت دیدگاهها درباره مصادیق محتوای قابل قبول است. آیا ناسزا باید مجاز باشد؟ برهنگی یا تصاویر خشونتآمیز چطور؟ در همان نظرسنجی، حدود ۶۰٪ کاربران ترجیح دادند که خودشان اختیار بیشتری در انتخاب محتوای قابل مشاهده داشته باشند.
هوش مصنوعی؛ راهی به سوی مدیریت محتوای شخصیسازیشده
تحقیقات تازه نشان میدهد که ابزارهای هوش مصنوعی مولد (Generative AI) میتوانند مدیریت محتوا را از کنترل متمرکز پلتفرمها به دست کاربران منتقل کنند. در یک پژوهش ارائهشده در کنفرانس ACM Web Conference در سیدنی، محققان Syed Mahbubul Huq و Basem Suleiman فیلتری آزمایشی برای یوتیوب طراحی کردند که بر پایه مدلهای زبانی بزرگ کار میکند.
ارزیابی ویدیوها با چتباتهای پیشرفته
پژوهشگران با چهار چتبات هوش مصنوعی، زیرنویس ۴٬۰۹۸ ویدیوی عمومی در ۱۰ ژانر محبوب را بررسی کردند. ارزیابی بر اساس ۱۷ شاخص تعیینشده توسط «هیئت ردهبندی فیلم بریتانیا» انجام شد؛ شاخصهایی مانند خشونت، برهنگی و آسیب به خود.
نتایج نشان داد GPT-4 و Claude 3.5 در بیش از ۸۰٪ موارد توانستند محتوای مضر را شناسایی کنند. با این حال، محدودیتهایی همچنان باقی است: این سیستمها فقط متن را تحلیل میکنند، نه تصاویر، و اجرای آنها در مقیاس کل یوتیوب با هزینههای فعلی، تریلیونها دلار خرج خواهد داشت.
آینده فیلترهای هوشمند و کنترل خانوادگی
نسخه نمایشی این سامانه نوید آیندهای را میدهد که در آن والدین و کاربران میتوانند دقیقاً نوع محتوای مجاز را تعیین کنند.
Huq میگوید: «اگر والدینی صحنههای جنسی را مجاز بدانند، اما محتوای مواد مخدر را نه، میتوانند فیلتر را مطابق میل خود تنظیم کنند.» او پیشبینی میکند که با کاهش سریع هزینههای پردازش هوش مصنوعی، این قابلیت بهزودی در دسترس قرار خواهد گرفت.
نیاز به مدلهای زبانی تخصصی
به گفته Maarten Sap، استاد دانشگاه Carnegie Mellon، مدیریت مؤثر محتوا نیازمند مدلهای زبانی ویژه و تخصصی است. مدلهای عمومی موجود، برای وظایف ظریف مانند تشخیص شوخی دوستانه از حمله شخصی طراحی نشدهاند. با این حال، او معتقد است که مدلهای زبانی بزرگ فرصت توسعه ابزارهای دقیقتر را فراهم میکنند.
چالشهای اخلاقی و خطرات احتمالی
Zeerak Talat از دانشگاه Edinburgh هشدار میدهد که شخصیسازی بیش از حد میتواند فضا را برای گسترش محتوای نفرتپراکن باز کند. همچنین، نگرانیهایی درباره فرار شرکتهای فناوری از مسئولیت وجود دارد.
Carolina Are میگوید: «من نمیخواهم بار مسئولیت به دوش کاربر بیفتد و مجبور باشم خودم محتوای تهدیدآمیز یا توهینآمیز را فیلتر کنم. » Talat نیز تأکید میکند که حفاظت از فید کاربر کافی نیست؛ چرا که این کار مانع انتشار عمومی مطالب مضر درباره فرد نمیشود.
جمعبندی
هوش مصنوعی میتواند چشمانداز تازهای برای مدیریت محتوا،از فیلترهای شخصیسازیشده گرفته تا مدلهای تخصصی برای تشخیص دقیقتر محتوا ترسیم کند، اما در کنار فرصتها، خطرات و پرسشهای اخلاقی بزرگی نیز وجود دارد که بیپاسخ ماندهاند. آینده این مسیر، به تعادلی میان قدرت انتخاب کاربر و مسئولیت پلتفرمها وابسته است.