مارک زاکربرگ، مدیرعامل متا:
آزادی بیان هرگز مطلق نبوده است!
شرکت متا، غول شبکههای اجتماعی، اخیراً گامی جسورانه در جهت تغییر نحوه مدیریت گفتار آنلاین برداشته است. این شرکت اعلام کرده که مدلهای زبانی بزرگ (LLMs) را به عنوان بخشی از استراتژی جدید خود برای نظارت بر محتوا ادغام کرده است. در پست وبلاگ متا آمده است: «ما شروع به استفاده از LLMهای هوش مصنوعی کردهایم تا قبل از اعمال اقدامات اجرایی، نظر دومی درباره برخی محتواها ارائه دهیم.»
شرکت متا، غول شبکههای اجتماعی، اخیراً گامی جسورانه در جهت تغییر نحوه مدیریت گفتار آنلاین برداشته است. این شرکت اعلام کرده که مدلهای زبانی بزرگ (LLMs) را به عنوان بخشی از استراتژی جدید خود برای نظارت بر محتوا ادغام کرده است. در پست وبلاگ متا آمده است: «ما شروع به استفاده از LLMهای هوش مصنوعی کردهایم تا قبل از اعمال اقدامات اجرایی، نظر دومی درباره برخی محتواها ارائه دهیم.»
این اقدام که بهطور چشمگیری بر کاهش افراط و ناهماهنگی در نظارت بر محتوا متمرکز است، بخشی از تلاشهای متا برای بهبود مدیریت محتوا و افزایش عدالت در تصمیمگیریهای نظارتی به شمار میآید.
کاهش نیروهای انسانی و تمرکز بر هوش مصنوعی
«مارک زاکربرگ»، مدیرعامل متا، اخیراً در یک ویدئو تغییرات گستردهای در استراتژی این شرکت معرفی کرد. یکی از برجستهترین این تغییرات کاهش قابلتوجه تعداد بررسیکنندگان انسانی در پلتفرمهای متا است؛ اقدامی که بخشی از تلاشهای این شرکت برای کاهش هزینهها محسوب میشود. به گفته زاکربرگ، این تغییرات با هدف حفظ آزادی بیان و افزایش نوآوری در فضای آنلاین صورت گرفتهاند.
زاکربرگ پیشتر در سخنرانی سال ۲۰۱۹ خود در دانشگاه جورجتاون، بر اهمیت آزادی بیان تأکید کرده بود و هشدار داده بود که نظارت بیش از حد میتواند به سرکوب صداهای متنوع و کاهش گفتوگوی دموکراتیک منجر شود.
هوش مصنوعی بهعنوان «نظر دوم»
در قلب استراتژی جدید متا، استفاده از مدلهای زبانی بزرگ (LLMs) برای بررسی محتوای گزارششده قرار دارد. این مدلها که توانایی پردازش حجم عظیمی از دادهها را دارند، به شناسایی جزئیات دقیق و نقض سیاستهایی کمک میکنند که ممکن است از چشم ناظران انسانی پنهان بماند.
متا ادعا میکند که این تکنولوژی میتواند حذفهای نادرست را کاهش دهد، دقت در اجرای قوانین را افزایش دهد و نارضایتی کاربران بابت سانسور محتوایشان را به حداقل برساند. این رویکرد نهتنها بهبود نظارت را هدف قرار میدهد، بلکه به ایجاد اعتماد به فناوری و خودتنظیمی کمک میکند.
چالش تعصب در مدلهای زبانی بزرگ
با وجود قابلیتهای شگفتانگیز، مدلهای زبانی بزرگ محدودیتهایی نیز دارند. تحقیقات نشان دادهاند که این مدلها میتوانند بازتابدهنده تعصبات موجود در دادههای آموزشی خود باشند. این موضوع باعث شده که برخی کارشناسان نگرانیهایی درباره بیطرفی و عدالت در تصمیمگیریهای این مدلها مطرح کنند.
ایلان ماسک، مدیرعامل xAI، هشدار داده که این مدلها ممکن است گرایشهای ایدئولوژیک نشان دهند، در حالی که دیگر منتقدان مانند گرادی بوچ این سیستمها را به دلیل تولید محتوای فریبنده و خطرناک مورد انتقاد قرار دادهاند.
متا و اعتماد به هوش جمعی
علاوه بر هوش مصنوعی، متا از مدل نظارت غیرمتمرکز «یادداشتهای جامعه» که توسط توییتر سابق (X) معرفی شده بود، الهام گرفته است. این مدل به کاربران اجازه میدهد تا به محتوای گزارششده زمینه یا توضیحات بیشتری اضافه کنند و نظارت را همکاریمحور کنند.
مدل «یادداشتهای جامعه» که ابتدا توسط جک دورسی معرفی شد، اکنون به یکی از ویژگیهای کلیدی پلتفرم متا تبدیل شده است و به دلیل توانایی آن در جذب دیدگاههای متنوع و نمایانتر کردن نظارت مورد ستایش قرار گرفته است.
آینده نظارت دیجیتال
با ورود صنعت به عرصه هوش مصنوعی پیشرفته، تلاش متا برای ترکیب هوش مصنوعی و هوش جمعی در نظارت بر محتوا رویکردی آیندهنگرانه است. با این حال، پرسش اصلی این است که آیا این ابزارها میتوانند بدون گرفتار شدن در نقصهای خود، وعده عدالت و بیطرفی را محقق کنند؟ تنها زمان میتواند پاسخ این پرسش را مشخص کند.