Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 چگونه می‌توانیم از هوش مصنوعی آنلاین خارج شویم؟

چگونه می‌توانیم از هوش مصنوعی آنلاین خارج شویم؟

زمان مطالعه: 4 دقیقه

اخیراً تعدادی از کاربران در شبکه‌های اجتماعی به خصوص اینستاگرام به نشانه اعتراض به تصویر پروفایل خود متنی را اضافه کردند، تا از تأثیرات منفی هوش مصنوعی آنلاین جلوگیری کنند. این پیام با عبارت «خداحافظ Meta AI» آغاز می‌شد که به شرکت مادر فیس‌بوک اشاره داشت و سپس نوشته شده بود: «من به Meta یا هیچ کس دیگری اجازه نمی‌دهم از اطلاعات شخصی، پروفایل یا عکس‌های من استفاده کند.»

بسیاری از افراد این پیام را به اشتراک گذاشتند، از جمله هنرمندان و اقشار مختلف نیز همین کار را کردند؛ اما در حالی که همه آن‌ها در تلاش برای مقابله با نفوذ هوش مصنوعی بودند، به نظر می‌رسید فراموش کرده‌اند که صرفاً به اشتراک گذاشتن یک متن نمی‌تواند تأثیری بر حقوق قانونی‌شان در برابر Meta یا سایر پلتفرم‌های فناوری داشته باشد.

چطور داده‌هایمان را نجات دهیم؟

می‌توان از آموزش مدل‌های هوش مصنوعی متا با استفاده از داده‌های شخصی خود جلوگیری کرد. در ایالات متحده، قانونی وجود ندارد که به کاربران اجازه دهد پست‌های عمومی خود را در برابر هوش مصنوعی محافظت کنند، اما می‌توانید حساب اینستاگرام خود را به حالت خصوصی تغییر دهید تا از دسترسی مدل‌ها به اطلاعات شما جلوگیری شود. (کاربران در بریتانیا و اتحادیه اروپا که تحت قوانین حفاظت از داده‌های قوی‌تری قرار دارند، می‌توانند از طریق تنظیمات حساب متا، فرم «حق اعتراض» به هوش مصنوعی را تکمیل کنند.)

رفتن به حالت خصوصی می‌تواند چالش‌هایی را به همراه داشته باشد. آیا مایلید برای جلوگیری از مشارکت در این فناوری نوین، دسترسی به پروفایل خود را محدود کنید؟

 سایر پلتفرم‌ها نیز گزینه‌های دقیق‌تری برای تنظیمات داده‌ها ارائه می‌دهند. در پلتفرم X، می‌توانید به بخش حریم خصوصی رفته و سپس بر روی اشتراک‌گذاری داده و شخصی‌سازی کلیک کنید. در این قسمت، گزینه‌ای وجود دارد که با غیرفعال کردن آن، می‌توانید از استفاده مدل هوش مصنوعی Grok X از داده‌های حساب خود برای «آموزش و تنظیم» جلوگیری کنید. همچنین، گزینه‌ای برای حذف داده‌های شخصی قبلی که ممکن است قبل از انصراف شما مورد استفاده قرار گرفته باشد، در دسترس است.

به طور کلی، پلتفرم‌های دیجیتال از محتوایی که در طول سال‌ها در آن‌ها بارگذاری کرده‌ایم، به‌عنوان منابع اولیه برای پیشرفت سریع ابزارهای هوش مصنوعی بهره می‌برند. در واقع، این پلتفرم‌ها تمایل ندارند که اجازه دهند ما دسترسی‌مان به داده‌هایشان را قطع کنیم.

حتی اگر اطلاعات شما در فرآیند آموزش هوش مصنوعی به کار نرود، به زودی با درخواست‌های بیشتری برای بهره‌گیری از ابزارهای هوش مصنوعی روبرو خواهید شد. به عنوان نمونه، نتایج جستجوی گوگل به طور مکرر پاسخ‌های هوش مصنوعی را در بالای نتایج وب‌سایت‌ها نمایش می‌دهد. همچنین، مرورگر گوگل کروم و شبکه‌های اجتماعی مانند فیس‌بوک و اینستاگرام ما را ترغیب می‌کنند تا از هوش مصنوعی برای تولید تصاویر یا نوشتن پیام‌ها استفاده کنیم.

جدیدترین مدل‌های آیفون دارای هوش مصنوعی مولد هستند که می‌توانند محتوای گفتگوهای متنی شما را خلاصه کنند. متا اخیراً اعلام کرد که در حال آزمایش ویژگی جدیدی است که تصاویر تولید شده توسط هوش مصنوعی را مستقیماً به فید کاربران اضافه می‌کند؛ مثلاً تصویری از شما به عنوان یک شخصیت بازی ویدیویی ایجاد می‌شود. (بر اساس گفته‌های شرکت، این ویژگی نیاز به ثبت‌نام دارد.) «مارک زاکربرگ» اخیراً به «الکس هیت» از وب‌سایت ورج گفت که چنین محتوایی یک «پرش منطقی» برای رسانه‌های اجتماعی است، اما افزود: «مقدار آن بستگی به اجرای آن و کیفیت آن دارد.»

ناترازی سرمایه

تا به امروز، تمام این تجربیات در حوزه هوش مصنوعی ویژگی‌های نوینی را ارائه می‌دهند که هدفشان جلب توجه و علاقه‌مندی کاربران است. به نظر می‌رسد که سرمایه‌گذاری در این زمینه به طور چشمگیری از تقاضای طبیعی فراتر رفته است. (OpenAI پیش‌بینی می‌کند که در سال جاری ۳.۷ میلیارد دلار درآمد داشته باشد، در حالی که زیان خالص آن به ۵ میلیارد دلار خواهد رسید.)

شرکت‌های فناوری در حال طراحی سیستم‌هایی هستند که هنوز مشخص نیست آیا واقعاً به آن‌ها نیازی وجود دارد یا خیر. این عدم قطعیت ممکن است در برخی کاربران احساس پارانویا (احساس ناامنی و نگرانی درباره محیط اطراف) ایجاد کند. سؤال اصلی این است که چه کسانی واقعاً به این ابزارها نیاز دارند و هدف آن‌ها چیست؟ به نظر می‌رسد تا کنون افرادی که از راه‌اندازی این ابزارهای هوش مصنوعی بهره‌مند شده‌اند، کاربران عادی اینترنت نیستند که در پی برقراری ارتباط با یکدیگر باشند، بلکه افرادی هستند که محتوای تولید شده با هوش مصنوعی را ایجاد کرده و از این محتوا در شبکه‌های اجتماعی کسب درآمد می‌کنند.

چرت و پرت

امروزه، محتوای بی‌کیفیت یا به عبارتی «چرت و پرت» در فضای اینترنت به وفور یافت می‌شود و نمی‌توان از آن فرار کرد. هیچ گزینه‌ای برای غیرفعال کردن محتوای تولید شده توسط هوش مصنوعی در فید خود نداریم. همچنین، فیلتر خاصی برای تفکیک زباله‌های تولید شده توسط هوش مصنوعی، مشابه فیلترهای اسپم در ایمیل‌ها، وجود ندارد.

فیس‌بوک و تیک‌تاک به کاربران خود توصیه می‌کنند که هنگام انتشار پست‌های تولید شده با هوش مصنوعی، این نکته را ذکر کنند. این پلتفرم‌ها در حال ارتقاء سیستم‌هایی هستند که به طور خودکار این نوع محتوا را شناسایی کنند، اما هنوز این روش‌ها نتوانسته‌اند به طور مداوم محتوای تولید شده توسط هوش مصنوعی را تشخیص دهند.

مالیات ذهنی

ما که به این نوع محتوا علاقه‌ای نداریم، هر بار که آنلاین می‌شویم، ناچاریم کار اضافی انجام دهیم که می‌توان آن را «مالیات ذهنی چرت و پرت» نامید. باید دوباره به محتوای منتشر شده نگاهی بیندازیم تا بفهمیم: آیا یک «مزرعه» پنجره‌های غیرمعمولی دارد؟ آیا حساب کاربری ایکس پاسخ‌های مشکوکی ارسال می‌کند؟ آیا تابلو در پینترست تصاویری از افرادی با انگشتان غیر معمول را به نمایش می‌گذارد؟

یافتن محتوای واقعی در میان انبوهی از زباله‌ها همیشه آسان نبوده است، اما اکنون این زباله‌ها به طرز ماهرانه‌ای پنهان شده‌اند. «مکس رید» در تحقیقی درباره «اقتصاد چرت و پرت» برای مجله نیویورک می‌نویسد که از دیدگاه فیس‌بوک، پست‌های بی‌کیفیت نه تنها کلاهبرداری یا زباله محسوب نمی‌شوند، بلکه دقیقاً همان چیزی هستند که این شرکت به دنبالش می‌گردد: محتوای بسیار جذاب.

«مکس رید» بیان می‌کند که در نهایت، مردم به محتوای بی‌کیفیت تمایل دارند و از آنجا که این محتوا را مصرف می‌کنند، به نوعی از آن لذت می‌برند. او تأکید می‌کند که «همه ما» در اقتصاد این نوع محتوا نقش مهمی داریم، اما اینکه واقعاً چقدر به آن علاقه‌مندیم، به طور دقیق مشخص نیست، زیرا این محتوا عملاً به ما تحمیل می‌شود.

اسپم‌های مدرن

رسانه‌های اجتماعی برای سال‌ها تقریباً بدون هیچ‌گونه نظارتی فعالیت کرده‌اند و به نظر نمی‌رسد که به زودی قوانینی برای محدود کردن این حجم از محتوا به وجود آید. («گاوین نیوسام»، فرماندار کالیفرنیا، به تازگی طرحی را وتو کرد که می‌توانست نخستین قانون رسمی در حوزه هوش مصنوعی باشد؛ این طرح شامل آزمایش‌های ایمنی و مفهومی به نام «کلید خاموش» برای متوقف کردن ابزارهای قدرتمند هوش مصنوعی بود.)

اما شاید بهتر باشد به اسپم‌های ایمیل به عنوان نمونه‌ای از چگونگی اقدام شرکت‌های فناوری برای ایجاد سیستم‌هایی جهت مدیریت این نوع محتوا نگاه کنیم. در دهه‌های ۹۰ و ۲۰۰۰، حجم اسپم‌ها به حدی افزایش‌یافته بود که استفاده از ایمیل تقریباً غیرممکن شده بود؛ به طوری که در سال ۲۰۰۹، گزارشی از مایکروسافت نشان داد که ۹۷ درصد ایمیل‌ها ناخواسته بودند. اما در نهایت، فیلترهای اسپم توانستند کمی نظم را به صندوق ورودی‌ها بازگردانند. ممکن است در آینده شرکت‌های فناوری اقداماتی برای مقابله با محتوای بی‌کیفیت که خودشان به تولید آن کمک کرده‌اند، ارائه دهند. اما در حال حاضر، مسئولیت اجتناب از محتوای تولید شده توسط هوش مصنوعی بر عهده خود شماست. اگر این کار تنها به ارسال یک پست اعتراضی در اینستاگرام محدود می‌شد، بسیاری از ما تا کنون کمتر با این مشکل روبرو می‌شدیم.

منبع

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]