هوش مصنوعی؛ دو لبه کنشگری و کنترل
در حالی که هوش مصنوعی (AI) به عنوان یک دستاورد بزرگ فناورانه در مسیر ارتقای بهرهوری، اتوماسیون و تحلیل دادهها شناخته میشود، بسیاری از کنشگران اجتماعی نسبت به ابعاد تاریک و خطرناک آن در عرصههای آزادی بیان، اعتماد اجتماعی، و امنیت فردی هشدار میدهند. «دکتر امیرحسین ناطقی»، همبنیانگذار پلتفرم کارزار، در همایش «هوش مصنوعی: ارتباطات انسان–ماشین و آینده آن» به بررسی چالشها و مضرات AI از منظر کنشگری اجتماعی پرداخت و تصویری واقعی از این میدان نبرد فناورانه ارائه داد.
کنشگر در برابر ماشین
دکتر ناطقی با ادای احترام به حضار گفت: «خوشحالم که در جمع شما هستم. به عنوان کسی که هم در بخش دولتی و هم در بخش خصوصی فعالیت کردهام، همیشه معتقدم باید فراتر از جذابیتهای اولیه، به چالشها هم دقیق نگاه کرد.»
او افزود که رویکردش معمولاً «وکیل مدافع شیطان» است؛ کسی که همیشه از نقطه ضعفها شروع میکند و نمیگذارد شیفتگی ما را از نقد محروم کند—خصوصاً در موضوع پیچیدهای مانند هوش مصنوعی که خالق آن نیستیم، بلکه صرفاً مصرفکنندهایم.
نظارت هوشمند و وحشتآفرینی
نخستین چالش بنیادینی که ناطقی مطرح کرد، کاربرد هوش مصنوعی در کشورهای اقتدارگرا مانند چین و روسیه بود. از تحلیل کلاندادهها و نظارت تصویری تا تشخیص چهره و رفتار، ابزارهایی که میتوانند علیه کنشگران استفاده شوند.
«این یک واقعیت انکارناپذیر است. تکنولوژیای که به بهانه امنیت، آزادی را گروگان میگیرد. بسیاری از کنشگران دیگر جرأت حضور ندارند؛ چون میدانند شناساییشان ساده شده است.»
جعل حقیقت؛ وقتی اعتماد میمیرد
موضوع مهم بعدی که دکتر ناطقی به آن پرداخت، دیپفیکها و تولید اطلاعات جعلی بود. او گفت: «تصویر، صدا، نقلقولها؛ همه چیز بهراحتی جعل میشود. شما یک ویدئو میبینید با چهره و صدای من، اما هرگز نگفتهام. همین میشود ابزاری برای تخریب سرمایه اجتماعی افراد.»
او با اشاره به قدرت شایعات افزود: «هرچه دروغ بزرگتر و رسواتر، لایکخورش بیشتر!»
یکی دیگر از جنبههای تاریک AI، سانسور خودکار توسط الگوریتمها بود. ناطقی از نمونههایی چون حذف ویدئوهای خشونت پلیس در آمریکا، یا تصاویر مربوط به غزه صحبت کرد. «الگوریتمها تصمیم میگیرند چه ببینید و چه نه. این یعنی روایت غالب، نه لزوماً روایت واقعی.»
ناامیدی سیستماتیک؛ قدرتی که کنش را میبلعد
در ادامه ناطقی هشدار داد که هوش مصنوعی میتواند موجب ایجاد حس ناتوانی و از بین رفتن امید در میان کنشگران شود: «وقتی شما میدانید که هر حرکتی رصد میشود، و اعتماد عمومی هم نابود شده، چه انگیزهای برای اقدام باقی میماند؟»
او ادامه داد: «اگر سیستمهای توتالیتر بتوانند «امید» و «اعتماد» را از بین ببرند، دیگر چیزی از کنشگری نمیماند.»
راه نجات: سواد دیجیتال و ابزارهای مقاوم
در بخش امیدوارکنندهتر سخنانش، دکتر ناطقی افزایش سواد دیجیتال را راهی مؤثر برای مقابله با اثرات مخرب AI دانست. او گفت: «ما همیشه تکنولوژیها را وارد کردیم بدون اینکه سواد استفادهاش را داشته باشیم. وایبر، تلگرام، حالا هم AI…»
همچنین به ابزارهای اوپنسورس هوش مصنوعی اشاره کرد که میتوانند انحصار اطلاعات را بشکنند. ابزارهایی مثل LLaVA، Stable Diffusion، Whisper که به کاربر اجازه میدهند مدل را روی سرور شخصی خود اجرا کند.
او تأکید کرد که باید از نهادهای قانونگذار مطالبه کرد: «ما باید بلند حرف بزنیم. باید بگوییم این ابزار نباید در اختیار سیستمهای سرکوبگر قرار گیرد. نباید به راحتی از ما برای مهندسی افکار استفاده کنند.»
فرصت از دسترفته، امیدی باقیمانده؟
در پایان، دکتر ناطقی، ابراز تأسف کرد از اینکه ایران همچنان درگیر فناوریهای متعلق به چند دهه گذشته است: «در حالی که جهان با سرعت به سمت هوش مصنوعی پیش میرود، ما هنوز روی غنیسازی اورانیوم تمرکز داریم و اسمش را گذاشتیم فناوری. نتیجه؟ حذف از جهان فناوری!»
با این حال، او تأکید کرد که هنوز دیر نشده و باید از تجربه گذشته برای مواجههای هوشمندانهتر با AI استفاده کرد.