آیا میتوان فناوری دیپ فیک را از جریان بازنویسی تاریخ حذف کرد؟
انواع فناوریهای دیپ فیک یا جعل عمیق که به تازگی ابداع شدهاند، از چند سال پیش به سهولت در دسترس کاربران قرار گرفتهاند. این تغییرات دیجیتالی باعث نگرانی در زمینه آسیبهای احتمالی و تبعات فاجعه باری شده است که این فناوریها میتوانند در جامعه داشته باشند. سازندگان تصاویر دیپ فیک با استفاده از الگوریتمهای هوش مصنوعی، قادر به ساخت مدلهای فیک و تقلبیاند که به شدت واقعی به نظر میرسند. استفاده از این فناوری در تولید ویدئو، تولید تصویر و تولید صدا به کار میرود؛ به طوری که این رسانه ترکیبی به زودی میتواند انقدر پیشرونده شود که حتی صحت برخی وقایع تاریخی را زیرسوال برد.
چیزی که همه ما میدانیم این است که استفاده از فناوری دیپ فیک یا جعل عمیق فقط در حوزه سیاست نیست. تا زمانی که اقدامی در جهت استانداردسازی یا وضع قانون در این زمینه نکنیم، صداقت در ثبت تاریخ با شواهد و مدارک واقعی در معرض خطر خواهد بود.
آیا آیندهای پر از دروغ پیش روی ماست؟
تصور کنید که سال 2030 است. صبح شده و شما فیسبوک خود را در گوشی تان مرور میکنید. به محض باز شدن برنامه، یک فیلم ناخوشایند از شما ظاهر میشود. این ویدئو یک نسخه جعلی و بههمریخته، اما بسیار واقعی از چهره خودتان را نشان میدهد که درباره عزیزان و دوستانتان سخنان نامناسبی را بیان میکند. با پایان یافتن ویدئو، این پیام جلوی چشمان شما نمایش داده میشود که: «این برنامه برای کل شبکه اجتماعی شما منتشر خواهد شد، مگر اینکه 10 بیت کوین را به این آدرس دیجیتالی ارسال کنید!» سپس به ویدئو فکر میکنید و با خود میگویید: «این کلکهای جعلی و فیک دیگر قدیمی شده است!»
بعد دوباره صفحه خبرخوان فیسبوک تان را مرور میکنید. این بار ویدئویی را میبینید از یک مصاحبه در دهه 1970 که نیل آرمسترانگ و باز آلدرین را به تصویر میکشد. آنها در این ویدئو میگویند که هرگز واقعاً به ماه نرفتهاند و در واقع به مریخ رفتهاند! بعد پایین پست را نگاه میکنید و میبینید حدود 150000 لایک دارد!
در مرحله بعدی، با فیلم دیگری روبهرو میشوید که دکتر آنتونی فاوسی ادعا میکند ویروس کرونا هرگز واقعی نبوده است؛ بلکه این داستان فقط یک نقشه دولتی برای کاشت تراشهای در بدن شهروندان بوده است. او همچنین میگوید ماسک و شستن دست شما را از هیچ بیماری محافظت نمیکند. خب این خبر هم 10000000 لایک خورده است!
سرانجام، شما در همان صفحه خبرخوان به ویدئویی از نیل دگراس تایسون میرسید. او یک لباس پارچهای شبیه یک مرغ پوشیده و توضیح میدهد که سیاره زمین در واقع صاف است! میبینید که این خبر هم 50000000 لایک خورده است! با بستن برنامه فیسبوک، با خود میگویید: «خوب، برای امروز کافی است!»
سپس از پنجره آپارتمان خود به بیرون نگاه میکنید و میبینید که آشوبها و اعتراضات همچنان خیابانها را فرا گرفته است. این آشوبها از پنج سال گذشته تا آن روز یک امر عادی شده است. همانطور که دارید تعجب میکنید از اینکه چطور همه چیز در خیابان تا این حد خراب شده است، تلفن همراهتان با صدای دو نوتیفیکیشن توجهتان را جلب میکند. یکی از آنها یک پیام است که به شما میگوید تصاویر دوربینهای کمری افسران پلیس برای پاک کردن هرگونه شواهد تخلف افسران خطاکار، با فناوری دیپ فیک دستکاری شده است. پیام دیگر، یک هشدار است که به شما درباره یک فیلم فیک و جعلی توضیح میدهد که در شبکههای اجتماعی در حال گسترش است و دستبهدست میشود. این فیلم جعلی برای وحشیانه نشان دادن اقدامات پلیس نسبت معترضان و با تحریف واقعیت به صورت دیپ فیک ویرایش شده است.
در سال 2030، تقریباً همه افرادی که به سیستمهای رایانهای دسترسی دارند، میتوانند به ابزارهای ساده هوش مصنوعی یا برنامههای یادگیری ماشین دسترسی داشته باشند. این فناوری به آنها امکان میدهد ترفندهایی را در تصاویر و ویدئوها با جعل عمیق ایجاد کنند. در آینده بسیاری از مردم از این ترفندها برای پیشبرد برنامههای خود در شبکههای اجتماعی استفاده خواهند کرد. هر روز هزاران داستان ساختگی و غیرواقعی برای جذب مخاطبان رسانهها به صورت آنلاین تولید میشود و انتظار میرود این مقدار در سالهای آینده نیز بیشتر شود.
خب! بیایید دوباره به سال 2020 برگردیم! ما در حال حاضر جهانی را تجربه میکنیم که گسترش اطلاعات در آن سریعتر از آن است که جستجوگران واقعیت بتوانند آن را پردازش کنند. رسانههای دستکاری شده و اطلاعات نادرست در حال حاضر در بین ما و همه افرادی که توانایی درک هوش مصنوعی را ندارند یا از آن آگاهی کافی و لازم را ندارند، در حال گسترش است و همین حالا هم بین تشخیص حقیقت از دروغ تردید ایجاد میکند. ما در حال ورود به دوره جدیدی هستیم. دورهای که تاریخ را تهدید به جعل عمیق میکند و حقیقت را میتوان با انبوهی از دروغ به خاک سپرد.
چگونه هوش مصنوعی دیپ فیک میتواند به تاریخ آسیب برساند؟
به همان اندازه که قراردادن صورت سیلوستر استالونه روی بدن مکالی کالکین خندهدار است، فناوریهای جعل عمیق معنایی بیشتر از سرگرمی برای جامعه ندارد. به زودی، افراد بیشتر از هر زمان دیگری قادر به استفاده از شبکههای عصبی برای ساخت تصاویر و فیلم واقعی جدید خواهند بود و همانطور که از مثالهای بالا دیدیم، نتایج این کاربردها میتواند واقعاً ترسناک باشد.
از آنجایی که این فناوری هنوز در مراحل اولیه خود است، تشخیص آن آسان است، زیرا بسیاری از جعلهای عمیق احساس غیرواقعی و فیکبودن را به مخاطب خود منتقل میکنند. اما با پیشرفت بیشتر این دانش، آماتورها قادر به تولید محتوای تقویتشده هوش مصنوعی خواهند بود. محتوای قویتری که از کار حرفهای قابل تشخیص نخواهد بود. دیری نمیپاید که هر کسی با یک رایانه و نرمافزار مناسب قادر به انجام همان کار خواهد بود.
مورخان برای مشاهده عینی آن چه در گذشته اتفاق افتاده است، به اسناد منابع اصلی اعتماد میکنند. البته جعل اسناد کاغذی و سایر مصنوعات رسانهای از مدتها قبل مشکلساز بوده است. از زمان ظهور عکاسی، مورخان همیشه شواهد را با بدبینی پذیرفتهاند و همواره در قضاوتها ابتدا اطمینان حاصل کردهاند که این اسناد با سایر روایات همسو است و منشأ شفافی دارد یا خیر. این حساسیت، منطقی و درست است چرا که دلایل زیادی برای جعل اسناد و جعل تاریخ وجود دارد.
اما امروزه، بیشتر مصنوعات رسانهای در حوزه دیجیتال اتفاق میافتند. آنها فقط به صورت بیتهای دیجیتال در سیستمهای رایانهای وجود دارند و جهان هر روز مقادیر عظیمی از این مصنوعات را تولید میکند. با استفاده از ابزارهای جدید هوش مصنوعی، سد متقاعد کردن ذهن افراد با استفاده از جعل عمیق به شدت کاهش مییابد. برای بدتر کردن شرایط، مورخان به زودی نمیتوانند به آرشیو آنلاین ما اعتماد کنند و آثار دیجیتالی دوران فعلی ما را تأیید کنند.
با پیشروی این اوضاع، غیرمعمول نیست اگر در آینده وب سایتهای مهم فرهنگی از بین بروند، وبلاگهای معروف خوانندگان خود را از دست بدهند، سایتهای رسانههای اجتماعی ریست شوند و سرویسهای آنلاین ناپدید گردند. امروزه، اکثریت قریب به اتفاق تاریخ دیجیتال ما در بایگانیهای اینترنتی مستقر در سانفرانسیسکو محفوظ مانده است و معلوم نیست چه آیندهای در انتظار این بایگانیهاست.
مسئله بغرنجی که در زمینه ثبت اسناد تاریخی وجود دارد
سال 2020 اولین سالی نیست که نمونههایی از ویدئوهای دیپ فیک و تصاویر جعل عمیق در شبکههای مجازی منتشر میشود و پیش از این هم نمونههایی از این نوع محتواها را داشتهایم. اما اینکه چه زمانی جعلکنندگان ویدئوها به آرشیوهای تاریخی دستبرد بزنند و برای پرکردن خلاهای موجود در بایگانیهای دیجیتالی تاریخ ما شروع به تولید متن جدید و غیرواقعی کنند، مسئله اساسی است. اگر این اتفاق بیفتد، پیامدهای گستردهای برای آینده ما دارد. ما قبلاً نمونهای از این اتفاقات را در جریان انتخابات اخیر ریاست جمهوری آمریکا دیدهایم. اما این فقط یکی از هزاران واقعهای بود که سروصدا کرد.
تصور کنید اگر میلیونها حمله جعلی حاوی محتواهای تولید شده توسط هوش مصنوعی برای هر رویداد مهم روزهای تاریخی رخ دهد، چه اتفاقی میافتد. اگر ساخت ویدئوهای جعلی به همین صورت ادامه داشته باشد، نتیجه ترسناکی در انتظار تاریخ ما خواهد بود. به همین دلیل است که باید قبل از عملی شدن این اتفاق، به آن رسیدگی شود و برای آن قوانینی وضع گردد.
انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید