Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 هوش مصنوعی؛ دو لبه‌ کنشگری و کنترل

هوش مصنوعی؛ دو لبه‌ کنشگری و کنترل

زمان مطالعه: 2 دقیقه

در حالی که هوش مصنوعی (AI) به عنوان یک دستاورد بزرگ فناورانه در مسیر ارتقای بهره‌وری، اتوماسیون و تحلیل داده‌ها شناخته می‌شود، بسیاری از کنشگران اجتماعی نسبت به ابعاد تاریک و خطرناک آن در عرصه‌های آزادی بیان، اعتماد اجتماعی، و امنیت فردی هشدار می‌دهند. «دکتر امیرحسین ناطقی»، هم‌بنیان‌گذار پلتفرم کارزار، در همایش «هوش مصنوعی: ارتباطات انسان–ماشین و آینده آن» به بررسی چالش‌ها و مضرات AI از منظر کنشگری اجتماعی پرداخت و تصویری واقعی از این میدان نبرد فناورانه ارائه داد.

کنشگر در برابر ماشین

دکتر ناطقی با ادای احترام به حضار گفت: «خوشحالم که در جمع شما هستم. به عنوان کسی که هم در بخش دولتی و هم در بخش خصوصی فعالیت کرده‌ام، همیشه معتقدم باید فراتر از جذابیت‌های اولیه، به چالش‌ها هم دقیق نگاه کرد.»

او افزود که رویکردش معمولاً «وکیل مدافع شیطان» است؛ کسی که همیشه از نقطه‌ ضعف‌ها شروع می‌کند و نمی‌گذارد شیفتگی ما را از نقد محروم کند—خصوصاً در موضوع پیچیده‌ای مانند هوش مصنوعی که خالق آن نیستیم، بلکه صرفاً مصرف‌کننده‌ایم.

نظارت هوشمند و وحشت‌آفرینی

نخستین چالش بنیادینی که ناطقی مطرح کرد، کاربرد هوش مصنوعی در کشورهای اقتدارگرا مانند چین و روسیه بود. از تحلیل کلان‌داده‌ها و نظارت تصویری تا تشخیص چهره و رفتار، ابزارهایی که می‌توانند علیه کنشگران استفاده شوند.

«این یک واقعیت انکارناپذیر است. تکنولوژی‌ای که به بهانه امنیت، آزادی را گروگان می‌گیرد. بسیاری از کنشگران دیگر جرأت حضور ندارند؛ چون می‌دانند شناسایی‌شان ساده شده است.»

جعل حقیقت؛ وقتی اعتماد می‌میرد

موضوع مهم بعدی که دکتر ناطقی به آن پرداخت، دیپ‌فیک‌ها و تولید اطلاعات جعلی بود. او گفت: «تصویر، صدا، نقل‌قول‌ها؛ همه چیز به‌راحتی جعل می‌شود. شما یک ویدئو می‌بینید با چهره و صدای من، اما هرگز نگفته‌ام. همین می‌شود ابزاری برای تخریب سرمایه‌ اجتماعی افراد.»

او با اشاره به قدرت شایعات افزود: «هرچه دروغ بزرگ‌تر و رسواتر، لایک‌خورش بیشتر!»

یکی دیگر از جنبه‌های تاریک AI، سانسور خودکار توسط الگوریتم‌ها بود. ناطقی از نمونه‌هایی چون حذف ویدئوهای خشونت پلیس در آمریکا، یا تصاویر مربوط به غزه صحبت کرد. «الگوریتم‌ها تصمیم می‌گیرند چه ببینید و چه نه. این یعنی روایت غالب، نه لزوماً روایت واقعی.»

ناامیدی سیستماتیک؛ قدرتی که کنش را می‌بلعد

در ادامه ناطقی هشدار داد که هوش مصنوعی می‌تواند موجب ایجاد حس ناتوانی و از بین رفتن امید در میان کنشگران شود: «وقتی شما می‌دانید که هر حرکتی رصد می‌شود، و اعتماد عمومی هم نابود شده، چه انگیزه‌ای برای اقدام باقی می‌ماند؟»

او ادامه داد: «اگر سیستم‌های توتالیتر بتوانند «امید» و «اعتماد» را از بین ببرند، دیگر چیزی از کنشگری نمی‌ماند.»

راه نجات: سواد دیجیتال و ابزارهای مقاوم

در بخش امیدوارکننده‌تر سخنانش، دکتر ناطقی افزایش سواد دیجیتال را راهی مؤثر برای مقابله با اثرات مخرب AI دانست. او گفت: «ما همیشه تکنولوژی‌ها را وارد کردیم بدون اینکه سواد استفاده‌اش را داشته باشیم. وایبر، تلگرام، حالا هم AI…»

همچنین به ابزارهای اوپن‌سورس هوش مصنوعی اشاره کرد که می‌توانند انحصار اطلاعات را بشکنند. ابزارهایی مثل LLaVA، Stable Diffusion، Whisper که به کاربر اجازه می‌دهند مدل را روی سرور شخصی خود اجرا کند.

او تأکید کرد که باید از نهادهای قانون‌گذار مطالبه کرد: «ما باید بلند حرف بزنیم. باید بگوییم این ابزار نباید در اختیار سیستم‌های سرکوب‌گر قرار گیرد. نباید به راحتی از ما برای مهندسی افکار استفاده کنند.»

فرصت از دست‌رفته، امیدی باقی‌مانده؟

در پایان، دکتر ناطقی، ابراز تأسف کرد از اینکه ایران همچنان درگیر فناوری‌های متعلق به چند دهه گذشته است: «در حالی که جهان با سرعت به سمت هوش مصنوعی پیش می‌رود، ما هنوز روی غنی‌سازی اورانیوم تمرکز داریم و اسمش را گذاشتیم فناوری. نتیجه؟ حذف از جهان فناوری!»

با این حال، او تأکید کرد که هنوز دیر نشده و باید از تجربه‌ گذشته برای مواجهه‌ای هوشمندانه‌تر با AI استفاده کرد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]