فعالان هوش مصنوعی

ایران و جهان

مجموعه وبینارهای هوش مصنوعی در عمل؛ از ایده تا اجرا

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 آزادی بیان هرگز مطلق نبوده است!

مارک زاکربرگ، مدیرعامل متا:

آزادی بیان هرگز مطلق نبوده است!

زمان مطالعه: 2 دقیقه

شرکت متا، غول شبکه‌های اجتماعی، اخیراً گامی جسورانه در جهت تغییر نحوه مدیریت گفتار آنلاین برداشته است. این شرکت اعلام کرده که مدل‌های زبانی بزرگ (LLMs) را به عنوان بخشی از استراتژی جدید خود برای نظارت بر محتوا ادغام کرده است. در پست وبلاگ متا آمده است: «ما شروع به استفاده از LLMهای هوش مصنوعی کرده‌ایم تا قبل از اعمال اقدامات اجرایی، نظر دومی درباره برخی محتواها ارائه دهیم.»

شرکت متا، غول شبکه‌های اجتماعی، اخیراً گامی جسورانه در جهت تغییر نحوه مدیریت گفتار آنلاین برداشته است. این شرکت اعلام کرده که مدل‌های زبانی بزرگ (LLMs) را به عنوان بخشی از استراتژی جدید خود برای نظارت بر محتوا ادغام کرده است. در پست وبلاگ متا آمده است: «ما شروع به استفاده از LLMهای هوش مصنوعی کرده‌ایم تا قبل از اعمال اقدامات اجرایی، نظر دومی درباره برخی محتواها ارائه دهیم.»

این اقدام که به‌طور چشمگیری بر کاهش افراط و ناهماهنگی در نظارت بر محتوا متمرکز است، بخشی از تلاش‌های متا برای بهبود مدیریت محتوا و افزایش عدالت در تصمیم‌گیری‌های نظارتی به شمار می‌آید.

کاهش نیروهای انسانی و تمرکز بر هوش مصنوعی

«مارک زاکربرگ»، مدیرعامل متا، اخیراً در یک ویدئو تغییرات گسترده‌ای در استراتژی این شرکت معرفی کرد. یکی از برجسته‌ترین این تغییرات کاهش قابل‌توجه تعداد بررسی‌کنندگان انسانی در پلتفرم‌های متا است؛ اقدامی که بخشی از تلاش‌های این شرکت برای کاهش هزینه‌ها محسوب می‌شود. به گفته زاکربرگ، این تغییرات با هدف حفظ آزادی بیان و افزایش نوآوری در فضای آنلاین صورت گرفته‌اند.

زاکربرگ پیش‌تر در سخنرانی سال ۲۰۱۹ خود در دانشگاه جورج‌تاون، بر اهمیت آزادی بیان تأکید کرده بود و هشدار داده بود که نظارت بیش از حد می‌تواند به سرکوب صداهای متنوع و کاهش گفت‌وگوی دموکراتیک منجر شود.

هوش مصنوعی به‌عنوان «نظر دوم»

در قلب استراتژی جدید متا، استفاده از مدل‌های زبانی بزرگ (LLMs) برای بررسی محتوای گزارش‌شده قرار دارد. این مدل‌ها که توانایی پردازش حجم عظیمی از داده‌ها را دارند، به شناسایی جزئیات دقیق و نقض سیاست‌هایی کمک می‌کنند که ممکن است از چشم ناظران انسانی پنهان بماند.

متا ادعا می‌کند که این تکنولوژی می‌تواند حذف‌های نادرست را کاهش دهد، دقت در اجرای قوانین را افزایش دهد و نارضایتی کاربران بابت سانسور محتوایشان را به حداقل برساند. این رویکرد نه‌تنها بهبود نظارت را هدف قرار می‌دهد، بلکه به ایجاد اعتماد به فناوری و خودتنظیمی کمک می‌کند.

چالش تعصب در مدل‌های زبانی بزرگ

با وجود قابلیت‌های شگفت‌انگیز، مدل‌های زبانی بزرگ محدودیت‌هایی نیز دارند. تحقیقات نشان داده‌اند که این مدل‌ها می‌توانند بازتاب‌دهنده تعصبات موجود در داده‌های آموزشی خود باشند. این موضوع باعث شده که برخی کارشناسان نگرانی‌هایی درباره بی‌طرفی و عدالت در تصمیم‌گیری‌های این مدل‌ها مطرح کنند.

ایلان ماسک، مدیرعامل xAI، هشدار داده که این مدل‌ها ممکن است گرایش‌های ایدئولوژیک نشان دهند، در حالی که دیگر منتقدان مانند گرادی بوچ این سیستم‌ها را به دلیل تولید محتوای فریبنده و خطرناک مورد انتقاد قرار داده‌اند.

متا و اعتماد به هوش جمعی

علاوه بر هوش مصنوعی، متا از مدل نظارت غیرمتمرکز «یادداشت‌های جامعه» که توسط توییتر سابق (X) معرفی شده بود، الهام گرفته است. این مدل به کاربران اجازه می‌دهد تا به محتوای گزارش‌شده زمینه یا توضیحات بیشتری اضافه کنند و نظارت را همکاری‌محور کنند.

مدل «یادداشت‌های جامعه» که ابتدا توسط جک دورسی معرفی شد، اکنون به یکی از ویژگی‌های کلیدی پلتفرم متا تبدیل شده است و به دلیل توانایی آن در جذب دیدگاه‌های متنوع و نمایان‌تر کردن نظارت مورد ستایش قرار گرفته است.

آینده نظارت دیجیتال

با ورود صنعت به عرصه هوش مصنوعی پیشرفته، تلاش متا برای ترکیب هوش مصنوعی و هوش جمعی در نظارت بر محتوا رویکردی آینده‌نگرانه است. با این حال، پرسش اصلی این است که آیا این ابزارها می‌توانند بدون گرفتار شدن در نقص‌های خود، وعده عدالت و بی‌طرفی را محقق کنند؟ تنها زمان می‌تواند پاسخ این پرسش را مشخص کند.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]