چگونه میتوانیم از هوش مصنوعی آنلاین خارج شویم؟
اخیراً تعدادی از کاربران در شبکههای اجتماعی به خصوص اینستاگرام به نشانه اعتراض به تصویر پروفایل خود متنی را اضافه کردند، تا از تأثیرات منفی هوش مصنوعی آنلاین جلوگیری کنند. این پیام با عبارت «خداحافظ Meta AI» آغاز میشد که به شرکت مادر فیسبوک اشاره داشت و سپس نوشته شده بود: «من به Meta یا هیچ کس دیگری اجازه نمیدهم از اطلاعات شخصی، پروفایل یا عکسهای من استفاده کند.»
بسیاری از افراد این پیام را به اشتراک گذاشتند، از جمله هنرمندان و اقشار مختلف نیز همین کار را کردند؛ اما در حالی که همه آنها در تلاش برای مقابله با نفوذ هوش مصنوعی بودند، به نظر میرسید فراموش کردهاند که صرفاً به اشتراک گذاشتن یک متن نمیتواند تأثیری بر حقوق قانونیشان در برابر Meta یا سایر پلتفرمهای فناوری داشته باشد.
چطور دادههایمان را نجات دهیم؟
میتوان از آموزش مدلهای هوش مصنوعی متا با استفاده از دادههای شخصی خود جلوگیری کرد. در ایالات متحده، قانونی وجود ندارد که به کاربران اجازه دهد پستهای عمومی خود را در برابر هوش مصنوعی محافظت کنند، اما میتوانید حساب اینستاگرام خود را به حالت خصوصی تغییر دهید تا از دسترسی مدلها به اطلاعات شما جلوگیری شود. (کاربران در بریتانیا و اتحادیه اروپا که تحت قوانین حفاظت از دادههای قویتری قرار دارند، میتوانند از طریق تنظیمات حساب متا، فرم «حق اعتراض» به هوش مصنوعی را تکمیل کنند.)
رفتن به حالت خصوصی میتواند چالشهایی را به همراه داشته باشد. آیا مایلید برای جلوگیری از مشارکت در این فناوری نوین، دسترسی به پروفایل خود را محدود کنید؟
سایر پلتفرمها نیز گزینههای دقیقتری برای تنظیمات دادهها ارائه میدهند. در پلتفرم X، میتوانید به بخش حریم خصوصی رفته و سپس بر روی اشتراکگذاری داده و شخصیسازی کلیک کنید. در این قسمت، گزینهای وجود دارد که با غیرفعال کردن آن، میتوانید از استفاده مدل هوش مصنوعی Grok X از دادههای حساب خود برای «آموزش و تنظیم» جلوگیری کنید. همچنین، گزینهای برای حذف دادههای شخصی قبلی که ممکن است قبل از انصراف شما مورد استفاده قرار گرفته باشد، در دسترس است.
به طور کلی، پلتفرمهای دیجیتال از محتوایی که در طول سالها در آنها بارگذاری کردهایم، بهعنوان منابع اولیه برای پیشرفت سریع ابزارهای هوش مصنوعی بهره میبرند. در واقع، این پلتفرمها تمایل ندارند که اجازه دهند ما دسترسیمان به دادههایشان را قطع کنیم.
حتی اگر اطلاعات شما در فرآیند آموزش هوش مصنوعی به کار نرود، به زودی با درخواستهای بیشتری برای بهرهگیری از ابزارهای هوش مصنوعی روبرو خواهید شد. به عنوان نمونه، نتایج جستجوی گوگل به طور مکرر پاسخهای هوش مصنوعی را در بالای نتایج وبسایتها نمایش میدهد. همچنین، مرورگر گوگل کروم و شبکههای اجتماعی مانند فیسبوک و اینستاگرام ما را ترغیب میکنند تا از هوش مصنوعی برای تولید تصاویر یا نوشتن پیامها استفاده کنیم.
جدیدترین مدلهای آیفون دارای هوش مصنوعی مولد هستند که میتوانند محتوای گفتگوهای متنی شما را خلاصه کنند. متا اخیراً اعلام کرد که در حال آزمایش ویژگی جدیدی است که تصاویر تولید شده توسط هوش مصنوعی را مستقیماً به فید کاربران اضافه میکند؛ مثلاً تصویری از شما به عنوان یک شخصیت بازی ویدیویی ایجاد میشود. (بر اساس گفتههای شرکت، این ویژگی نیاز به ثبتنام دارد.) «مارک زاکربرگ» اخیراً به «الکس هیت» از وبسایت ورج گفت که چنین محتوایی یک «پرش منطقی» برای رسانههای اجتماعی است، اما افزود: «مقدار آن بستگی به اجرای آن و کیفیت آن دارد.»
ناترازی سرمایه
تا به امروز، تمام این تجربیات در حوزه هوش مصنوعی ویژگیهای نوینی را ارائه میدهند که هدفشان جلب توجه و علاقهمندی کاربران است. به نظر میرسد که سرمایهگذاری در این زمینه به طور چشمگیری از تقاضای طبیعی فراتر رفته است. (OpenAI پیشبینی میکند که در سال جاری ۳.۷ میلیارد دلار درآمد داشته باشد، در حالی که زیان خالص آن به ۵ میلیارد دلار خواهد رسید.)
شرکتهای فناوری در حال طراحی سیستمهایی هستند که هنوز مشخص نیست آیا واقعاً به آنها نیازی وجود دارد یا خیر. این عدم قطعیت ممکن است در برخی کاربران احساس پارانویا (احساس ناامنی و نگرانی درباره محیط اطراف) ایجاد کند. سؤال اصلی این است که چه کسانی واقعاً به این ابزارها نیاز دارند و هدف آنها چیست؟ به نظر میرسد تا کنون افرادی که از راهاندازی این ابزارهای هوش مصنوعی بهرهمند شدهاند، کاربران عادی اینترنت نیستند که در پی برقراری ارتباط با یکدیگر باشند، بلکه افرادی هستند که محتوای تولید شده با هوش مصنوعی را ایجاد کرده و از این محتوا در شبکههای اجتماعی کسب درآمد میکنند.
چرت و پرت
امروزه، محتوای بیکیفیت یا به عبارتی «چرت و پرت» در فضای اینترنت به وفور یافت میشود و نمیتوان از آن فرار کرد. هیچ گزینهای برای غیرفعال کردن محتوای تولید شده توسط هوش مصنوعی در فید خود نداریم. همچنین، فیلتر خاصی برای تفکیک زبالههای تولید شده توسط هوش مصنوعی، مشابه فیلترهای اسپم در ایمیلها، وجود ندارد.
فیسبوک و تیکتاک به کاربران خود توصیه میکنند که هنگام انتشار پستهای تولید شده با هوش مصنوعی، این نکته را ذکر کنند. این پلتفرمها در حال ارتقاء سیستمهایی هستند که به طور خودکار این نوع محتوا را شناسایی کنند، اما هنوز این روشها نتوانستهاند به طور مداوم محتوای تولید شده توسط هوش مصنوعی را تشخیص دهند.
مالیات ذهنی
ما که به این نوع محتوا علاقهای نداریم، هر بار که آنلاین میشویم، ناچاریم کار اضافی انجام دهیم که میتوان آن را «مالیات ذهنی چرت و پرت» نامید. باید دوباره به محتوای منتشر شده نگاهی بیندازیم تا بفهمیم: آیا یک «مزرعه» پنجرههای غیرمعمولی دارد؟ آیا حساب کاربری ایکس پاسخهای مشکوکی ارسال میکند؟ آیا تابلو در پینترست تصاویری از افرادی با انگشتان غیر معمول را به نمایش میگذارد؟
یافتن محتوای واقعی در میان انبوهی از زبالهها همیشه آسان نبوده است، اما اکنون این زبالهها به طرز ماهرانهای پنهان شدهاند. «مکس رید» در تحقیقی درباره «اقتصاد چرت و پرت» برای مجله نیویورک مینویسد که از دیدگاه فیسبوک، پستهای بیکیفیت نه تنها کلاهبرداری یا زباله محسوب نمیشوند، بلکه دقیقاً همان چیزی هستند که این شرکت به دنبالش میگردد: محتوای بسیار جذاب.
«مکس رید» بیان میکند که در نهایت، مردم به محتوای بیکیفیت تمایل دارند و از آنجا که این محتوا را مصرف میکنند، به نوعی از آن لذت میبرند. او تأکید میکند که «همه ما» در اقتصاد این نوع محتوا نقش مهمی داریم، اما اینکه واقعاً چقدر به آن علاقهمندیم، به طور دقیق مشخص نیست، زیرا این محتوا عملاً به ما تحمیل میشود.
اسپمهای مدرن
رسانههای اجتماعی برای سالها تقریباً بدون هیچگونه نظارتی فعالیت کردهاند و به نظر نمیرسد که به زودی قوانینی برای محدود کردن این حجم از محتوا به وجود آید. («گاوین نیوسام»، فرماندار کالیفرنیا، به تازگی طرحی را وتو کرد که میتوانست نخستین قانون رسمی در حوزه هوش مصنوعی باشد؛ این طرح شامل آزمایشهای ایمنی و مفهومی به نام «کلید خاموش» برای متوقف کردن ابزارهای قدرتمند هوش مصنوعی بود.)
اما شاید بهتر باشد به اسپمهای ایمیل به عنوان نمونهای از چگونگی اقدام شرکتهای فناوری برای ایجاد سیستمهایی جهت مدیریت این نوع محتوا نگاه کنیم. در دهههای ۹۰ و ۲۰۰۰، حجم اسپمها به حدی افزایشیافته بود که استفاده از ایمیل تقریباً غیرممکن شده بود؛ به طوری که در سال ۲۰۰۹، گزارشی از مایکروسافت نشان داد که ۹۷ درصد ایمیلها ناخواسته بودند. اما در نهایت، فیلترهای اسپم توانستند کمی نظم را به صندوق ورودیها بازگردانند. ممکن است در آینده شرکتهای فناوری اقداماتی برای مقابله با محتوای بیکیفیت که خودشان به تولید آن کمک کردهاند، ارائه دهند. اما در حال حاضر، مسئولیت اجتناب از محتوای تولید شده توسط هوش مصنوعی بر عهده خود شماست. اگر این کار تنها به ارسال یک پست اعتراضی در اینستاگرام محدود میشد، بسیاری از ما تا کنون کمتر با این مشکل روبرو میشدیم.