متاورس؛ یک راه فرار هوشمندانه در برابر نظارت افکار عمومی
شاید بهترین تعریف برای متاورس، «دنیای واقعی مجازی باشد که در آن هر کاری میتوانید انجام دهید». البته «هر کاری»، قیدی است که مارک زاکربرگ در تعریف کلان پروژه فیسبوک تعریف کرده است. به بیان دیگر، با اعلام تغییر نام برند فیسبوک به متا، نگاهها بار دیگر به این هوش مصنوعی دوخته شد. در این فاصله کلیدواژههای مرتبط با این موضوع چند میلیون بار در موتور جستجوی گوگل سرچ شده و بسیاری میخواهند بدانند زاکربرگ این بار با چه ایدهای میخواهد دنیا را غافلگیر کند.
تحلیل واژه متاورس
ابتدا باید خود واژه Metaverse را بررسی کنیم. پیشوند Meta به معنای فراتر است، ریشه این پیشوند یونانی بوده و در کنار Verse که خلاصه شده واژه Universe بوده، به معنای فراتر از جهان است. Universe به معنای جهان واقعی است، جهانی که آن را از طریق حواس پنجگانه تجربه میکنیم؛ بنابراین بهتر است ترجمه تحتاللفظی این واژه را «فراتر از جهان واقعی» بدانیم.
متاورس بهمثابه یک کلان پروژه
متاورس یک کلان پروژه در عرصه هوش مصنوعی است. در واقع اعلامیه زاکربرگ درباره تغییر نام فیسبوک به متا، صرفاً یک تغییر برند ساده نبود. بلکه نشان از نوعی جاهطلبی علمی نیز داشت که بر طبق آن باید کل کلان پروژه متاورس را در چارچوب هوش مصنوعی فهمید.
بر طبق این چشمانداز، متاورس به معنای توسعه کارکردهای هوش مصنوعی در عرصه تعاملات کاربران است. یکی از نمونههای کوچک متاورس، بازیهای آنلاین گروهی است. شما در این دست از بازیها آواتار مخصوص خود را میسازید و میتوانید در راستای برنامههایی که برای بازی تعریف شده است، به فعالیت بپردازید. این دست از محیطهای متاورسی به شما امکان حضور در یک محیط مجازی با تعداد مشخصی از فعالیت و سناریوی از پیش تعریف شده را میدهد. بسیار خب، حال تصور کنید که بتوانید بهعنوان یک انسان آزاد، در واقعیت مجازی زندگی کنید. با این ویژگی که قدرت بینهایت اختیار و تصمیمگیری را دارید. این همان رؤیای کلان پروژه متاورس فیسبوک است که در 6 آبان 1400 از سوی زاکربرگ از آن رونمایی شد.
[irp posts=”12638″]به گفته زاکربرگ هدف از این پروژه همان است که در ابتدای پروژه فیسبوک گفته شد، یعنی «دور هم جمع کردن مردم»؛ بنابراین تغییر برند فیسبوک به متا، معنای دقیقی داشت و آن آغاز یک پروژه بزرگ علمی در زمینه هوش مصنوعی برای توسعه تعامل عمیقتر کاربران با یکدیگر در فضای مجازی است.
زاکربرگ به چه میاندیشد: از مشاهده کردن تا تجربه کردن
زاکربرگ با تغییر برند خود نشان داد برنامهریزی برای طراحی و توسعه هوش مصنوعی در زمینه پلتفرمها کهنه شده است. علاوه بر این پلتفرمهای مشهور نظیر فیسبوک، اینستاگرام و واتساَپ در آیندهای نه چندان دور همگی به بازوهای کلان پروژه متاورس تبدیل خواهند شد. فرضیههای که درباره آینده شبکههای اجتماعی نامبرده وجود دارد، حاکی از آن است که کاربران در جهان متاورس میتوانند آزادانه زندگی کنند. دقت کنید! شاید این نکته شما را به یاد بازیهای کامپیوتری بیندازد. به طور مثال بازی Second Life که در آن میتوانستید عاشق شوید، ازدواج کنید و فرزند بیاورید و به طور خلاصه در کنار زندگی واقعی خود یک زندگی مجازی نیز داشته باشید.
اما در متاورسهای کلاسیک، شما به مشاهده کردن مشغول هستید، شرکت در بازیهای آنلاین، به راحتی مغز شما را فریفته نمیکند. اما زمانی که از هدستهای پیشرفته استفاده میکنید، مغز دچار خطای تمایز فضا میشود. یعنی نمیتواند فضای واقعی را با موقعیت مجازی که در آن قرار دارید را تمیز دهد.
عوارضی که میتواند در پروژه متاورس وجود داشته باشد
در این بخش نمیخواهیم درباره کلان پروژه متاورس بداندیشی کنیم. بدون تردید این پروژه جزو مهمترین برنامههای تاریخ بشر برای توسعه هوش مصنوعی به حساب میآید، اما تذکر و بررسی عواقب احتمالی آن نیز میتواند بهرهمندی ما را از منافع آن بیشتر کند. در ادامه به بررسی مهمترین عوارض احتمالی آن خواهیم پرداخت.
- عدم تعهد کارگزاران پروژه متاورس به اخلاق انسانی: یکی از ظرفیتهای منفی موجود در متاورس که امکان آسیبرسانی به جوامع انسانی را دارد، عدم پایبندی برنامهریزان و مجریان این پروژه به اخلاق انسانی است. کاربران در متاورس میتوانند معرض انواع خشونتها، سوءقصدها، هک شدن و یا دزدیده اطلاعاتشان قرار گیرند. یا حتی گروههای خشونتطلب و تفرقهافکن تشکیل شوند و آموزشهای مخربی را برای عضوگیری بین نوجوانان راهاندازی کنند
- فریب مغز: مطالعات نشان داده است که مغز انسان میتواند نسبت به فضای مجازی واکنش نشان دهد. به این معنا مغز میتواند فریب بخورد که در یک فضای واقعی قرار دارد و عواطف متفاوتی را از خود نشان دهد. این موضوع در صورتی که بتواند ترشحات هورمونی لذتبخش را به همراه داشته باشد، به احتمال بسیار زیاد کاربران را دچار وابستگی شدید میکند. این خطر به ویژه در رابطه با کاربران نوجوان بسیار زیاد است
- انزوا و وابستگی: یکی از عوارض مستقیم مربوط به وابستگی به شبکههای مجازی، انزوا و گوشهگیری است. مطالعات انجام شده نشان میدهد وابستگی نوجوانان به شبکههای اجتماعی در ایالات متحده، مخربتر از مواد مخدر بوده و باعث شده درصد بالایی از نوجوانان احساس انزوا کنند. شخصیتهای منزوی به شدت وابسته هستند و نمیتوانند در تعهدات اجتماعی نقش ایفا کنند
- تقویت گرایشهای ضداجتماعی: متاورس به کاربران آزادی عمل وسیعی میدهد. این یعنی فرد میتواند نوعی کاربری بهدور قیود قانونی و اخلاقی را تجربه کند. در این شرایط کاربر میتواند خشونت بدون حد مرزی را تجربه کرده و به نوعی متاورس به محلی برای آموزش او تبدیل میشود. مطالعات نشان داده است نوجوانانی که به دوستان خود اقدام به شلیک کردهاند، پیش از آن در بازیهای خشن آنلاین فعالیت داشتند. حتی در این گزارش تأکید شده میزان دقت در هدفگیری نوجوانانی که بازیهای اکشن را تجربه کردهاند بسیار زیاد است. این بدان معناست که بازیهای آنلاین میتواند بهمثابه نوعی آموزش تلقی شده و نحوه خشونتورزی را به کاربران آموزش دهند. مطالعات نشان میدهد در نوجوانان، هیجانات ناشی از دوران بلوغ میتواند از طریق قرارگیری آنها در معرض این بازیها، به گرایشهای ضداجتماعی تبدیل شود.
زمانی که کلان پروژه متاورس را از نزدیک نگاه میکنیم، یک نکته بسیار برجسته است. نکته آن است که زاکربرگ به این میاندیشد تا کاربر را از مشاهده کردن واقعیت مجازی به تجربه کردن آن بکشاند. این تجربه، با توجه به بیحد و حصر بودن آن بسیار وسوسهکننده است. به خصوص برای نوجوانان که غریزه کنجکاوی در آنها بسیار زیاد است، میتواند این گروه را در برابر آسیبهایی که برای کلان پروژه متاورس برشمردیم صدمهپذیر کند.
متاورس و ساختار جبری اعصاب انسان
پیچیدهترین عضو بدن مغز است. البته پیچیدگی آن مربوط به عدم کشف الگوهای ثابت علمی در تعریف ارتباط با بدن و جایگاهشناسی برخی از انگیزشهای انسانی در آن است. اما نکته قالب توجه بین مغز و متاورس آن است که مغز با اینکه تا به امروز توانسته حجم عظیمی از علوم و معارف بشری را ایجاد کند و زیست انسانی را تعالی ببخشد، اما بر اساس ساختار طبیعیاش نمیتواند تمایز واقعیت مجازی را از واقعیت بیرونی تفکیک کند.
به طور مثال زمانی که در حال یک بازی کامپیوتری هستید، به دستور مغز هورمونهای لذت و هیجان یعنی آدرنالین و دوپامین ترشح میشود. در حالی که فعالیت فیزیکی ندارید. حتی گزارشات متعددی از وابستگی و رابطه عاشقانه افراد با آواتارهای مجازی وجود دارد که همگی نشان از عدم توانایی مغز در تمایز هویت واقعی و مجازی است. این فریب مغز ناشی از ساختار جبری آن است. احساسات و عواطف انسانی در گرو میزان ترشحات هورمونی از سوی مغز هستند.
یعنی در صورتی که مغز تحریک (ولو با هویتهای مجازی) میتواند آثار روانی و فیزیکی ایجاد کند. همچنین، این موضوع سبب شده است تا پیوند مردم در سراسر جهان با آواتارهای مجازی و شبکههای اجتماعی روزبهروز افزایش یافته و بر تعداد کاربران شبکههای اجتماعی افزوده شود.
در هر صورت، حقیقت آن است که فریب مغز با توسعه شبکه اجتماعی مبتنی بر تکنولوژی متاورس میتواند بیشتر شده و بر گسل ایجاد شده بین مغز و واقعیت جهان بیرون بیفزاید. این در حالی است که کمپانیهای بزرگ توسعه پلتفرمهای اجتماعی نظیر متا، باید به نوعی اخلاق حرفهای در کسب و کار خود نیز متعهد شوند.
بررسی فرضیه فرار هوشمندانه از طریق طرح متاورس
پس از شناسایی چالشهای کلان پروژه متاورس برای زیست انسانی، لازم است که نگاهی به اخلاق حرفهای کسب و کار شرکت متا بیندازیم. فرضیه این مقاله آن است که زاکربرگ، پروژه متاورس را برای خنثی کردن عوارض منفی شرکت فیسبوک مطرح کرده است. همچنین، میخواهد با برجستهسازی این پروژه، افکار عمومی را از فعالیتهای غیرحرفهای یا غیرانسانی مجموعههای تحت اختیارش و به طور ویژه فیسبوک دور سازد. در ادامه به بررسی شواهد مورد نظر در این زمینه میپردازیم.
شاهد اول: افشاگریهای فرانسس هاگن علیه زاکربرگ
در 15 اکتبر امسال، برابر با 13 مهر 1400 هاگن از اعضای کمیته راستکرداری مدنی فیسبوک، مدارک متعددی را به دادگاه تسلیم کرد که نشان از عدم توجه مدیران فیسبوک به محتواهای منتشر شده در این پلتفرم دارد. هاگن مدعی شده است، زاکربرگ انسانی جاهطلب است که برای رشد موقعیت خود و وایرال شدن محتواها فیسبوک به هر ابزاری متوسل میشود. او میگوید متأسفانه همین رویه سبب شده است تا محتواهای خشن، تفرقهافکنانه و مستجهن در این بستر منتشر شود.
[irp posts=”7927″]او میگوید بهکارگیری هزاران نفر برای توسعه الگوریتمهای امنیتی هوش مصنوعی فیسبوک هیچ فایدهای در برنداشته است. زیرا این الگوریتمها صرفاً برای محتواهای انگلیسی زبان حساسیت لازم را به خرج میدهند. این در حالی است که سایر محتواها در بستر فیسبوک بدون نظارت به حال خود رها شدهاند. همین موضوع باعث شد تا در سالهای 2010 تا 2015 شبکههای تروریستی از زبانهای محلی و گویشهای بعضاً ناآشنا برای تشکیل هستههای اطلاعاتی خود استفاده کنند.
شاهد دوم: انحلال کمیته راستکرداری مدنی فیسبوک
در حالی که رفتهرفته حساسیت اجتماعی بر روی فیسبوک و زاکربرگ بیشتر میشد، درست یک ماه پس از انتخابات 2020 ایالات متحده، انحلال کمیته راست کرداری مدنی اعلام گردید. جالب است بدانید که وظیفه این کمیته کنترل و نظارت بر استانداردهای اخلاقی و حقوق بشری از سوی فیسبوک بود. درست در زمانی که اسناد این کمیته علیه فیسبوک در حال انتشار بود، اعلامیه انحلال این کمیته نشان داد که زاکربرگ دارای آن ارادهای است که مصالح عمومی را فدای رشد پلتفرم فیسبوک کند.
شاهد سوم: گزارش آوریل 2020
در آوریل 2020 گزارشی منتشر شد که ثابت کرد فیسبوک کمترین نظارت را بر محتواهای غیرانگلیسی زبان دارند. بر اساس این گزارش، علیرغم صرف میلیاردها دلار هزینه و بهکارگیری نیروی انسانی برای تأمین امنیت این پلتفرم، تنها 19 درصد از محتواهای خشونتآمیز، 17 درصد محتوای مستهجن و 1 درصد محتوای قومگرایانه حذف شده است. به طور مثال تنها 0.2 از کل محتواهای نفرتپراکنی به زبان و گویشهای افغانستانی (شامل فارسی، اردو، پشتو، ازبکی و ترکمنی) از این بستر حذف شده است. از طرفی، بر روی زبان عربی که جزو پُرکاربردترین زبان تولید محتوا در این بستر به حساب میآید هیچ نظارتی وجود ندارد.
تحلیل: مکانیزم فرار به جلوی مارک زاکربرگ و سرمایهگذاری بر روی غریزه خشم
با در نظر گرفتن سه شاهد مطرح شده میتوان پیشزمینههای کلان پروژه متاورس را فهمید. اگرچه متاورس افسانهای است که از دهه 1990 در داستانهای علمی تخیلی مطرح بود. اما امروز در شرف پیوستن به واقعیت است. بدون تردید این یک گام بزرگ در تاریخچه هوش مصنوعی به حساب میآید. اما طرح این موضوع از سوی زاکربرگ، بر اساس سه شاهد گردآوری شده نوعی فرار به جلو تلقی میشود. تغییر برند و پیش کشیدن یک ایدهای نوآورانه در شرایطی که حساسیتها نسبت به پلتفرم فیسبوک در حال افزایش بود، بدون تردید میتواند موقعیت تیم زاکربرگ را نزد افکار عمومی تقویت کند.
از طرفی بر اساس گزارشات منتشر شده درباره نحوه مدیریت محتوا در فیسبوک، میتوان دریافت که مدیران این شرکت از غریزه خشونت انسان به نفع کسب و کارشان استفاده میکنند. در واقع آنها با محدود کردن دایره نظارت به زبان انگلیسی، بستری را برای تولید و انتشار محتوای خشن فراهم میکند. گزارشات نیز حاکی از تعمدی بودن این رویه در فیسبوک است. به ویژه با در نظر گرفتن گلایههایی که اعضای تیم پژوهش فیسبوک منتشر کردند و از تقدم منافع شرکت بر منفعت عمومی حکایت دارد.
باید این موضوع را قدری عمیقتر دید. کشفیات روانکاوی در یکصد سال گذشته ثابت کرده است که انسان به طور طبیعی خشونتهایی را در خود بازتولید میکند. این خشونتها اگرچه به شکل ساختاری در روان انسان سکنا دارند، اما قوای اجتماعی و ساختارهای فرهنگی اقتصادی میتوانند زمینههای برونریزی خشونتهای پنهان آدمی را فراهم کنند.
[irp posts=”10418″]دقیقاً شبیه به غذا خوردن یا تنفس و نیاز جنسی، نیاز به دفع خشونت و مجراهای فرهنگی برای پاکسازی انرژیهای ناشی از این غریزه بسیار حیاتی است. پلتفرم فیسبوک، برای وایرال شدن محتوا و افزایش تعاملات کاربران دقیقاً بر روی این غریزه سرمایهگذاری کرده است.
در واقع با کاهش یا نبود نظارت بر محتواهای تولید شده، امکان تولید و انتشار محتواهای خشن به غرایز انسانی قدرت بازتولید را میدهد به نحوی که بتواند به ساختارهای اجتماعی و خارج از پلتفرم فیسبوک نیز تعمیم پیدا کند. این رخداد را میتوان در همانندسازی کودکان و نوجوانان با محتواها و کاراکترهایی که در پلتفرم فیسبوک وجود دارند مشاهده کرد.
سخن آخر
توسعه هوش مصنوعی میتواند زمینه را برای برداشتن گامهای مطمئنتر آدمی در علم و دانش فراهم کند. زیرا دقت در محاسبات را افزایش میدهد. خطاها را کاهش داده و بهدور از اشتباهات انسانی، به جای کاربر به تحلیل و محاسبه میپردازد؛ بنابراین با تکیه بر هوش مصنوعی میتوان مدیریت امور انسانی نظیر، ترافیک، اموری شهری، رانندگی، کنترل هواپیما، جت یا فضاپیماها را بدون خطا و با دقت محاسباتی بالا انجام داد.
اما باید توجه کنید که هوش مصنوعی چالشهای خاص خود را نیز دارد. به طور مثال در پروژه متاورس امکان رشد خشونت قومی، گروهی و یا فردی، انزوا و جامعهستیزی به عنوان آسیبهای احتمالی این پروژه بحث شد. اما باید در نظر داشته باشید که برشمردن ایرادات احتمالی این پروژه، به معنای منفیبافی درباره توسعه هوش مصنوعی نیست، بلکه ما میکوشیم تا با بررسی تمامی آثار و جوانب ممکن متاورس، آگاهانه از هوش مصنوعی منتفع شویم.
به نظر شما ایده جدیدی که زاکربرگ در سر دارد چیست و چرا نام فیسبوک را به متا تغییر داده است؟
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید