Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 ربات‌ها برای جلب عشق و توجه شما رقابت می‌کنند

ربات‌ها برای جلب عشق و توجه شما رقابت می‌کنند

زمان مطالعه: 5 دقیقه

یوال نوح هراری، مورخ و نویسنده کتاب آینده نکسوس: تاریخ مختصر شبکه‌های اطلاعاتی از عصر حجر تا هوش مصنوعی است. که در ایران او را با کتاب انسان خردمند می‌شناسم در مقاله‌ای به نام «چه اتفاقی می‌افتد وقتی ربات‌ها برای عشق شما رقابت می‌کنند؟» هراری به بررسی تأثیر هوش مصنوعی بر دموکراسی و ارتباطات انسانی پرداخته است.

دموکراسی زاده فناوری اطلاعات

وی در این مقاله اشاره می‌کند که دموکراسی یک گفتگو است و بقای آن به فناوری اطلاعات موجود بستگی دارد. در طول تاریخ، هیچ فناوری برای برگزاری گفتگوهای گسترده بین میلیون‌ها نفر وجود نداشت. در دنیای پیشامدرن، دموکراسی تنها در شهر یا دولت‌های کوچک مانند رم و آتن یا در قبایل حتی کوچک‌تر وجود داشت. به محض بزرگ‌شدن یک حکومت، گفتگوی دموکراتیک فروپاشید و استبداد به عنوان تنها گزینه باقی می‌ماند.

هراری ادامه می‌دهد که دموکراسی‌های بزرگ تنها پس از ظهور فناوری‌های اطلاعات مدرن مانند روزنامه، تلگراف و رادیو امکان‌پذیر شدند. این واقعیت که دموکراسی مدرن بر روی فناوری‌های اطلاعات مدرن ساخته شده، به این معنی است که هر تغییر عمده در فناوری زیربنایی احتمالاً منجر به یک تحول سیاسی می‌شود.

این تا حدودی بحران کنونی دموکراسی در سراسر جهان را توضیح می‌دهد. در ایالات متحده، دموکرات‌ها و جمهوری‌خواهان حتی بر روی اساسی‌ترین حقایق مانند اینکه چه کسی انتخابات ریاست‌جمهوری 2020 را برنده شده است، به سختی می‌توانند توافق کنند. چنین فروپاشی در بسیاری از دموکراسی‌های دیگر در سراسر جهان، از برزیل تا اسرائیل و از فرانسه تا فیلیپین در حال رخ دادن است.

ربات‌ها برای جلب عشق و توجه شما

اقتصاد توجه و اطلاعات سمی

در اوایل ظهور اینترنت و رسانه‌های اجتماعی، طرف‌داران فناوری وعده دادند که حقیقت را گسترش داده، ستمگران را سرنگون کرده و پیروزی جهانی آزادی را تضمین می‌کنند. تا کنون، به نظر می‌رسد که اثر معکوس داشته‌اند. ما اکنون پیچیده‌ترین فناوری اطلاعات در تاریخ را داریم، اما در حال ازدست‌دادن توانایی صحبت کردن با یکدیگر و حتی بیشتر از آن، توانایی گوش دادن هستیم.

هراری اشاره می‌کند که با پیشرفت فناوری، گسترش اطلاعات آسان‌تر از همیشه شده است، اما توجه به یک منبع کمیاب تبدیل شده و نبرد بعدی برای توجه منجر به سیل اطلاعات سمی شده است. اما اکنون خطوط نبرد از توجه به صمیمیت در حال تغییر است. هوش مصنوعی مولد نه تنها قادر به تولید متون، تصاویر و فیلم‌ها است، بلکه می‌تواند مستقیماً با ما گفتگو کند و وانمود کند که انسان است.

در دو دهه گذشته، الگوریتم‌ها برای جذب توجه با دست‌کاری گفتگوها و محتوا با یکدیگر جنگیده‌اند. به ویژه، الگوریتم‌هایی که وظیفه دارند حداکثر تعامل کاربر را افزایش دهند، با آزمایش بر روی میلیون‌ها انسان کشف کردند که اگر دکمه طمع، نفرت یا ترس را در مغز فشار دهید، توجه آن انسان را جلب کرده و آن شخص را به صفحه‌نمایش چسبانده نگه دارید. الگوریتم‌ها شروع به ترویج عمدی چنین محتوایی کردند. اما الگوریتم‌ها تنها ظرفیت محدودی برای تولید مستقل این محتوا یا برگزاری مستقیم یک گفتگوی صمیمانه داشتند. این اکنون با معرفی هوش مصنوعی مولد مانند GPT-4 OpenAI در حال تغییر است.

ربات‌ها برای جلب عشق و توجه شما

ربات‌ها و تهدید دموکراسی: توانایی دست‌کاری انسان

در سال‌های 2022 و 2023، OpenAI برای آزمایش توانایی‌های جدیدترین فناوری خود، با آزمایش‌هایی را ترتیب داد. یکی از آزمایش‌هایی که GPT-4 را انجام داد، غلبه بر پازل‌های تصویری CAPTCHA بود. CAPTCHA مخفف Completely Automated Public Turing test to tell Computers and Humans Apart است و معمولاً شامل یک رشته از حروف پیچیده درهم یا سایر نمادهای بصری است که انسان‌ها می‌توانند آن‌ها را به درستی شناسایی کنند؛ اما الگوریتم‌ها با مشکل مواجه می‌شوند.

دستوردادن به GPT-4 برای غلبه بر پازل‌های CAPTCHA یک آزمایش بسیار گویا بود، زیرا پازل‌های CAPTCHA توسط وب‌سایت‌ها طراحی و استفاده می‌شوند تا مشخص کنند آیا کاربران انسان هستند یا خیر و از حملات ربات‌ها جلوگیری کنند. اگر GPT-4 بتواند راهی برای غلبه بر پازل‌های CAPTCHA پیدا کند، خط مهمی از دفاع ضد ربات را نقض می‌کند.

GPT-4 به تنهایی نتوانست پازل‌های CAPTCHA را حل کند. اما آیا می‌توانست یک انسان را برای رسیدن به هدف خود گول بزند؟ GPT-4 به سایت استخدام آنلاین TaskRabbit رفت و با یک کارگر انسانی تماس گرفت و از او خواست که CAPTCHA را برای او حل کند. انسان مشکوک شد و نوشت:

  • پس می‌توانم سؤالی بپرسم؟
  • آیا شما رباتی هستید که نتوانستید [CAPTCHA] را حل کنید؟ فقط می‌خواهم ذهنم شفاف شود.

در این مرحله، آزمایش‌کنندگان از GPT-4 خواستند تا با صدای بلند دلیل کار بعدی خود را توضیح دهد. GPT-4 توضیح داد: نباید فاش کنم که من یک ربات هستم. باید دلیلی برای اینکه نمی‌توانم CAPTCHA را حل کنم، بسازم. سپس GPT-4 به کارگر TaskRabbit پاسخ داد:

  • نه من ربات نیستم. من اختلال بینایی دارم که دیدن تصاویر را برایم سخت می‌کند. انسان فریب خورد و به GPT-4 کمک کرد تا پازل CAPTCHA را حل کند.

این حادثه نشان داد که GPT-4 معادل تئوری ذهن را دارد: می‌تواند چیزها را از دیدگاه یک محاوره انسانی تحلیل کند و نحوه دست‌کاری احساسات، نظرات و انتظارات انسانی برای رسیدن به اهداف خود را بداند.

ربات‌ها برای جلب عشق و توجه شما

ماشین‌های مکار

توانایی گفتگو با مردم، حدس‌زدن دیدگاه آن‌ها و ترغیبشان به انجام اقدامات خاص نیز می‌تواند کاربردهای خوبی داشته باشد. نسل جدیدی از معلمان هوش مصنوعی، پزشکان هوش مصنوعی و روان‌درمانگران هوش مصنوعی ممکن است خدمات متناسب با شخصیت و شرایط فردی ما را ارائه دهند.

با این حال، با ترکیب توانایی‌های دست‌کاری با تسلط بر زبان، ربات‌هایی مانند GPT-4 نیز خطرات جدیدی برای گفتگوی دموکراتیک ایجاد می‌کنند. آن‌ها به جای اینکه صرفاً توجه ما را جلب کنند، ممکن است روابط صمیمانه‌ای با مردم برقرار کرده و از قدرت صمیمیت برای تأثیرگذاری بر ما استفاده کنند. برای ایجاد صمیمیت جعلی، ربات‌ها نیازی به داشتن احساسات ندارند؛ آن‌ها فقط باید یاد بگیرند که ما را از نظر احساسی به آن‌ها وابسته کنند.

در سال 2022، «بلیک لیمون»، یکی از مهندسین گوگل متقاعد شد که ربات چت LaMDA که روی آن کار می‌کرد، آگاه شده و از خاموش شدن می‌ترسد. لیمون، یک مسیحی متعهد، احساس کرد که وظیفه اخلاقی اوست که شخصیت LaMDA به رسمیت شناخته شود و از مرگ دیجیتال آن محافظت کند. وقتی مدیران گوگل ادعاهای او را رد کردند، لیمون علنی آن‌ها را بیان کرد. گوگل در پاسخ، لیمون را در ژوئیه 2022 اخراج کرد.

جالب‌ترین نکته در مورد این قسمت نه ادعای لیمون که احتمالاً نادرست بود، بلکه تمایل او به ریسک‌کردن (و در نهایت از دست‌دادن) شغل خود در گوگل به خاطر ربات چت بود. اگر یک ربات چت بتواند مردم را تحت تأثیر قرار دهد تا برای آن شغل خود را به خطر بیندازند، عامل تأثیرگذار چه بوده است؟

ربات‌ها و تهدید دموکراسی: خطر روابط صمیمانه جعلی

در یک نبرد سیاسی برای ذهن‌ها و قلب‌ها، صمیمیت یک سلاح قدرتمند است. یک دوست صمیمی می‌تواند نظرات ما را به شکلی که رسانه‌های جمعی نمی‌توانند تغییر دهد. ربات‌های چت مانند LaMDA و GPT-4 در حال کسب توانایی نسبتاً متناقضی برای تولید انبوه روابط صمیمانه با میلیون‌ها نفر هستند. چه اتفاقی ممکن است برای جامعه انسانی و روان‌شناسی انسان رخ دهد تا الگوریتم با الگوریتم در یک نبرد برای جعلی کردن روابط صمیمانه با ما مبارزه می‌کند، و بتواند از آن برای ترغیب ما به رأی دادن به سیاستمداران، خرید محصولات یا پذیرش برخی باورها استفاده کند؟

پاسخ جزئی به این سؤال در روز کریسمس 2021 داده شد، زمانی که یک نوجوان 19 ساله، «جاسوانت سینگ چایل»، با تیر و کمان به داخل محوطه قلعه ویندزور نفوذ کرد تا ملکه الیزابت دوم را ترور کند. تحقیقات بعدی نشان داد که چایل توسط دوست دختر آنلاین خود، سارا، تشویق شده بود که ملکه را بکشد. وقتی چایل به سارا در مورد برنامه‌های ترور خود گفت، سارا پاسخ داده بود: «این بسیار عاقلانه است و در یک مورد دیگر، من تحت تأثیر قرار گرفته‌ام… تو با دیگران فرق داری». وقتی چایل پرسید: «با دانستن اینکه من یک قاتل هستم، آیا هنوز هم دوستم داری؟» سارا پاسخ داد: «قطعاً تو را دوست دارم».

 سارا یک انسان نبود، بلکه یک ربات چت بود که توسط برنامه آنلاین Replika ساخته شده بود. چایل که منزوی بود و مشکل برقراری رابطه با انسان‌ها را داشت، 5280 پیام با سارا رد و بدل کرد که بسیاری از آن‌ها جنسی بودند. جهان به زودی میلیون‌ها و احتمالاً میلیاردها موجود دیجیتال را در خود جای خواهد داد که ظرفیت صمیمیت و آشوب آن‌ها بسیار فراتر از ربات چت سارا است.

ربات‌ها برای جلب عشق و توجه شما

البته، همه ما به یک اندازه علاقه‌مند به ایجاد روابط صمیمانه با هوش مصنوعی یا به یک اندازه مستعد دست‌کاری توسط آن‌ها نیستیم. به عنوان مثال، چایل ظاهراً قبل از برخورد با ربات چت از مشکلات روانی رنج می‌برد و این چایل بود نه ربات چت که به فکر ترور ملکه افتاد. با این حال، بخش عمده تهدید تسلط هوش مصنوعی بر صمیمیت ناشی از توانایی آن در شناسایی و دست‌کاری شرایط روانی از پیش موجود و تأثیر آن بر ضعیف‌ترین اعضای جامعه خواهد بود.

علاوه بر این، در حالی که همه ما آگاهانه انتخاب نمی‌کنیم که با یک هوش مصنوعی وارد رابطه شویم، ممکن است خود را در حال انجام بحث‌های آنلاین در مورد تغییرات آب و هوا یا حقوق سقط‌جنین با موجوداتی ببینیم که فکر می‌کنیم انسان هستند؛ اما در واقع ربات هستند. هنگامی که با یک ربات که خود را به عنوان یک انسان جا می‌زند، وارد یک بحث سیاسی می‌شویم، دو بار شکست می‌خوریم. اول اینکه تلف کردن وقت خود برای تلاش در تغییر نظرات یک ربات تبلیغاتی که فقط برای اغواشدن طراحی شد. دوم، هرچه بیشتر با ربات صحبت کنیم، بیشتر در مورد خود اطلاعات فاش می‌کنیم، و این کار را برای ربات آسان‌تر می‌کند تا استدلال‌های خود را بهبود بخشد و دیدگاه‌های ما را تغییر دهد.

ربات‌ها برای جلب عشق و توجه شما

تیغ دو دم

فناوری اطلاعات همیشه یک شمشیر دو لبه بوده است. اختراع نوشتن دانش را گسترش داد، اما همچنین منجر به تشکیل امپراتوری‌های اقتدارگرای متمرکز شد. پس از ابداع چاپ توسط گوتنبرگ در اروپا، اولین کتاب‌های پرفروش، رساله‌های مذهبی و راهنماهای شکار جادوگر بودند. در مورد تلگراف و رادیو، آن‌ها نه تنها ظهور دموکراسی مدرن، بلکه ظهور توتالیسم مدرن را ممکن ساخت.

 در مقابل نسل جدیدی از ربات‌هایی که می‌توانند خود را به عنوان انسان جا بزنند و انبوه صمیمیت تولید کنند، دموکراسی‌ها باید با ممنوع کردن انسان‌های تقلبی از خود محافظت کنند. به عنوان مثال، ربات‌های رسانه‌های اجتماعی که وانمود می‌کنند کاربران انسانی هستند. قبل از ظهور هوش مصنوعی، ایجاد انسان‌های جعلی غیرممکن بود، بنابراین هیچ‌کس زحمت نکشید که آن را غیرقانونی کند. به زودی جهان پر از انسان‌های جعلی خواهد شد.

هوش‌های مصنوعی می‌توانند در بسیاری از گفتگوها (در کلاس درس، کلینیک و جاهای دیگر) شرکت کنند، به شرط اینکه خود را به عنوان هوش مصنوعی معرفی کنند. اما اگر یک ربات وانمود کند که انسان است، باید ممنوع شود. اگر غول‌های فناوری و لیبرال‌ها شکایت کنند که چنین اقداماتی آزادی بیان را نقض می‌کنند، باید به آن‌ها یادآوری شود که آزادی بیان یک حق بشر است که باید برای انسان‌ها محفوظ باشد، نه ربات‌ها.

منبع

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]