Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 آیا می‌‌‌توان فناوری دیپ فیک را از جریان بازنویسی تاریخ حذف کرد؟

آیا می‌‌‌توان فناوری دیپ فیک را از جریان بازنویسی تاریخ حذف کرد؟

زمان مطالعه: 4 دقیقه

انواع فناوری‌های دیپ فیک یا جعل عمیق که به تازگی ابداع شده‌اند، از چند سال پیش به سهولت در دسترس کاربران قرار گرفته‌اند. این تغییرات دیجیتالی باعث نگرانی در زمینه آسیب‌‌های احتمالی و تبعات فاجعه باری شده است که این فناوری‌‌‌ها می‌‌‌توانند در جامعه داشته باشند. سازندگان تصاویر دیپ فیک با استفاده از الگوریتم‌‌های هوش مصنوعی، قادر به ساخت مدل‌‌های فیک و تقلبی‌اند که به شدت واقعی به نظر می‌‌‌رسند. استفاده از این فناوری در تولید ویدئو، تولید تصویر و تولید صدا به کار می‌‌‌رود؛ به طوری که این رسانه ترکیبی به زودی می‌‌‌تواند انقدر پیش‌رونده شود که حتی صحت برخی وقایع تاریخی را زیرسوال برد.

چیزی که همه ما می‌‌‌دانیم این است که استفاده از فناوری دیپ فیک یا جعل عمیق فقط در حوزه سیاست نیست. تا زمانی که اقدامی در جهت استانداردسازی یا وضع قانون در این زمینه نکنیم، صداقت در ثبت تاریخ با شواهد و مدارک واقعی در معرض خطر خواهد بود.

آیا آینده‌‌‌ای پر از دروغ پیش روی ماست؟

تصور کنید که سال 2030 است. صبح شده و شما فیسبوک خود را در گوشی تان مرور می‌‌‌کنید. به محض باز شدن برنامه، یک فیلم ناخوشایند از شما ظاهر می‌‌‌شود. این ویدئو یک نسخه جعلی و به‌هم‌ریخته، اما بسیار واقعی از چهره خودتان را نشان می‌‌‌دهد که درباره عزیزان و دوستانتان سخنان نامناسبی را بیان می‌‌‌کند. با پایان یافتن ویدئو، این پیام جلوی چشمان شما نمایش داده می‌‌‌شود که: «این برنامه برای کل شبکه اجتماعی شما منتشر خواهد شد، مگر این‌که 10 بیت کوین را به این آدرس دیجیتالی ارسال کنید!» سپس به ویدئو فکر می‌‌‌کنید و با خود می‌‌‌گویید: «این کلک‌‌های جعلی و فیک دیگر قدیمی شده است!»

فناوری دیپ فیک

بعد دوباره صفحه خبرخوان فیسبوک تان را مرور می‌‌‌کنید. این بار ویدئویی را می‌‌‌بینید از یک مصاحبه در دهه 1970 که نیل آرمسترانگ و باز آلدرین را به تصویر می‌‌‌کشد. آن‌‌‌ها در این ویدئو می‌‌‌گویند که هرگز واقعاً به ماه نرفته‌‌‌اند و در واقع به مریخ رفته‌‌اند! بعد پایین پست را نگاه می‌‌‌کنید و می‌‌‌بینید حدود 150000 لایک دارد!

در مرحله بعدی، با فیلم دیگری روبه‌‌رو می‌‌‌شوید که دکتر آنتونی فاوسی ادعا می‌‌‌کند ویروس کرونا هرگز واقعی نبوده است؛ بلکه این داستان فقط یک نقشه دولتی برای کاشت تراشه‌ای در بدن شهروندان بوده است. او همچنین می‌‌‌گوید ماسک و شستن دست شما را از هیچ بیماری محافظت نمی‌‌کند. خب این خبر هم 10000000 لایک خورده است!

سرانجام، شما در همان صفحه خبرخوان به ویدئویی از نیل دگراس تایسون می‌‌‌رسید. او یک لباس پارچه‌‌‌ای شبیه یک مرغ پوشیده و توضیح می‌‌‌دهد که سیاره زمین در واقع صاف است! می‌‌‌بینید که این خبر هم 50000000 لایک خورده است! با بستن برنامه فیسبوک، با خود می‌‌‌گویید: «خوب، برای امروز کافی است!»

سپس از پنجره آپارتمان خود به بیرون نگاه می‌‌‌کنید و می‌‌‌بینید که آشوب‌‌‌ها و اعتراضات همچنان خیابان‌‌‌ها را فرا گرفته است. این آشوب‌‌‌ها از پنج سال گذشته تا آن روز یک امر عادی شده است. همان‌طور که دارید تعجب می‌‌‌کنید از این‌‌که چطور همه چیز در خیابان تا این حد خراب شده است، تلفن همراهتان با صدای دو نوتیفیکیشن توجه‌تان را جلب می‌‌‌کند. یکی از آن‌ها یک پیام است که به شما می‌‌‌گوید تصاویر دوربین‌‌های کمری افسران پلیس برای پاک کردن هرگونه شواهد تخلف افسران خطاکار، با فناوری دیپ فیک دستکاری شده است. پیام دیگر، یک هشدار است که به شما درباره یک فیلم فیک و جعلی توضیح می‌‌‌دهد که در شبکه‌‌های اجتماعی در حال گسترش است و دست‌به‌دست می‌‌‌شود. این فیلم جعلی برای وحشیانه نشان دادن اقدامات پلیس نسبت معترضان و با تحریف واقعیت به صورت دیپ فیک ویرایش شده است.

فناوری دیپ فیک

در سال 2030، تقریباً همه افرادی که به سیستم‌‌های رایانه‌‌‌ای دسترسی دارند، می‌‌‌توانند به ابزارهای ساده هوش مصنوعی یا برنامه‌‌های یادگیری ماشین دسترسی داشته باشند. این فناوری به آن‌ها امکان می‌‌‌دهد ترفندهایی را در تصاویر و ویدئوها با جعل عمیق ایجاد کنند. در آینده بسیاری از مردم از این ترفندها برای پیشبرد برنامه‌‌های خود در شبکه‌‌های اجتماعی استفاده خواهند کرد. هر روز هزاران داستان ساختگی و غیرواقعی برای جذب مخاطبان رسانه‌‌‌ها به صورت آنلاین تولید می‌‌‌شود و انتظار می‌‌‌رود این مقدار در سال‌‌های آینده نیز بیشتر شود.

خب! بیایید دوباره به سال 2020 برگردیم! ما در حال حاضر جهانی را تجربه می‌‌‌کنیم که گسترش اطلاعات در آن سریع‌‌‌تر از آن است که جستجوگران واقعیت بتوانند آن را پردازش کنند. رسانه‌‌های دستکاری شده و اطلاعات نادرست در حال حاضر در بین ما و همه افرادی که توانایی درک هوش مصنوعی را ندارند یا از آن آگاهی کافی و لازم را ندارند، در حال گسترش است و همین حالا هم بین تشخیص حقیقت از دروغ تردید ایجاد می‌‌‌کند. ما در حال ورود به دوره جدیدی هستیم. دوره‌‌‌ای که تاریخ را تهدید به جعل عمیق می‌‌‌کند و حقیقت را می‌‌‌توان با انبوهی از دروغ به خاک سپرد.

چگونه هوش مصنوعی دیپ فیک می‌‌‌تواند به تاریخ آسیب برساند؟

به همان اندازه که قراردادن صورت سیلوستر استالونه روی بدن مکالی کالکین خنده‌دار است، فناوری‌‌های جعل عمیق معنایی بیشتر از سرگرمی برای جامعه ندارد. به زودی، افراد بیشتر از هر زمان دیگری قادر به استفاده از شبکه‌‌های عصبی برای ساخت تصاویر و فیلم واقعی جدید خواهند بود و همان‌طور که از مثال‌‌های بالا دیدیم، نتایج این کاربردها می‌‌‌تواند واقعاً ترسناک باشد.

از آن‌جایی که این فناوری هنوز در مراحل اولیه خود است، تشخیص آن آسان است، زیرا بسیاری از جعل‌‌های عمیق احساس غیرواقعی و فیک‌بودن را به مخاطب خود منتقل می‌‌‌کنند. اما با پیشرفت بیشتر این دانش، آماتورها قادر به تولید محتوای تقویت‌شده هوش مصنوعی خواهند بود. محتوای قوی‌‌تری که از کار حرفه‌‌‌ای قابل تشخیص نخواهد بود. دیری نمی‌‌پاید که هر کسی با یک رایانه و نرم‌‌افزار مناسب قادر به انجام همان کار خواهد بود.

مورخان برای مشاهده عینی آن چه در گذشته اتفاق افتاده است، به اسناد منابع اصلی اعتماد می‌‌‌کنند. البته جعل اسناد کاغذی و سایر مصنوعات رسانه‌‌‌ای از مدت‌‌‌ها قبل مشکل‌‌ساز بوده است. از زمان ظهور عکاسی، مورخان همیشه شواهد را با بدبینی پذیرفته‌‌‌اند و همواره در قضاوت‌‌‌ها ابتدا اطمینان حاصل کرده‌‌‌اند که این اسناد با سایر روایات همسو است و منشأ شفافی دارد یا خیر. این حساسیت، منطقی و درست است چرا که دلایل زیادی برای جعل اسناد و جعل تاریخ وجود دارد.

اما امروزه، بیشتر مصنوعات رسانه‌‌‌ای در حوزه دیجیتال اتفاق می‌‌‌افتند. آن‌‌‌ها فقط به صورت بیت‌‌های دیجیتال در سیستم‌‌های رایانه‌‌‌ای وجود دارند و جهان هر روز مقادیر عظیمی از این مصنوعات را تولید می‌‌‌کند. با استفاده از ابزارهای جدید هوش مصنوعی، سد متقاعد کردن ذهن افراد با استفاده از جعل عمیق به شدت کاهش می‌‌‌یابد. برای بدتر کردن شرایط، مورخان به زودی نمی‌‌توانند به آرشیو آنلاین ما اعتماد کنند و آثار دیجیتالی دوران فعلی ما را تأیید کنند.

فناوری دیپ فیک

با پیشروی این اوضاع، غیرمعمول نیست اگر در آینده وب سایت‌‌های مهم فرهنگی از بین بروند، وبلاگ‌‌های معروف خوانندگان خود را از دست بدهند، سایت‌‌های رسانه‌‌های اجتماعی ریست شوند و سرویس‌‌های آنلاین ناپدید گردند. امروزه، اکثریت قریب به اتفاق تاریخ دیجیتال ما در بایگانی‌‌های اینترنتی مستقر در سانفرانسیسکو محفوظ مانده است و معلوم نیست چه آینده‌ای در انتظار این بایگانی‌هاست.

مسئله بغرنجی که در زمینه ثبت اسناد تاریخی وجود دارد

سال 2020 اولین سالی نیست که نمونه‌‌هایی از ویدئوهای دیپ فیک و تصاویر جعل عمیق در شبکه‌‌های مجازی منتشر می‌‌‌شود و پیش از این هم نمونه‌‌هایی از این نوع محتواها را داشته‌ایم. اما این‌‌که چه زمانی جعل‌کنندگان ویدئوها به آرشیوهای تاریخی دستبرد بزنند و برای پرکردن خلا‌‌های موجود در بایگانی‌‌های دیجیتالی تاریخ ما شروع به تولید متن جدید و غیرواقعی کنند، مسئله اساسی است. اگر این اتفاق بیفتد، پیامدهای گسترده‌‌‌ای برای آینده ما دارد. ما قبلاً نمونه‌‌‌ای از این اتفاقات را در جریان انتخابات اخیر ریاست جمهوری آمریکا دیده‌ایم. اما این فقط یکی از هزاران واقعه‌ای بود که سروصدا کرد.

تصور کنید اگر میلیون‌‌‌ها حمله جعلی حاوی محتواهای تولید شده توسط هوش مصنوعی برای هر رویداد مهم روزهای تاریخی رخ دهد، چه اتفاقی می‌‌‌افتد. اگر ساخت ویدئوهای جعلی به همین صورت ادامه داشته باشد، نتیجه ترسناکی در انتظار تاریخ ما خواهد بود. به همین دلیل است که باید قبل از عملی شدن این اتفاق، به آن رسیدگی شود و برای آن قوانینی وضع گردد.

انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]