بازسازی صدای آنتونی بوردن به کمک هوش مصنوعی
آنتونی بوردن که در سال 2018 اقدام به خودکشی کرد، سوژه مستند جدیدِ مورگان نویل است. مورگان نویل برای بازسای صدای آنتونی بوردن از هوش مصنوعی و الگوریتمهای نرمافزاری کمک گرفته است. نویل دهها ساعت از صدای ضبطشده بوردن را در اختیار شرکتی گذاشت و آنها یک مدل هوش مصنوعی از صدای بوردن ساختند. نویل میگوید در مستند «فیلمی درباره آنتونی بوردن Roadrunner: A Film About Anthony Bourdain» سه بار از صدای دیپ فیک استفاده شده است.
مورگان نویل مستند جدیدی دربارهی آنتونی بوردن ساخته است. وی اقرار کرد که در این مستند برای بازسازی صدایِ این سرآشپز سرشناس از هوش مصنوعی و الگوریتمهای کامپیوتری استفاده کرده است. این کارگردان برای بازسازی آن دسته از جملاتی که به آنتونی بوردن نسبت داده شدهاند ولی هیچ کجا (با صدای اصلی او) ضبط نشدهاند، به سراغ این فنآوری رفته است.
جسد آنتونی بوردن در سال 2018 در هتلی در پاریس پیدا شد. اکنون، پس از گذشت چندین سال، مستند جدیدی به نام «فیلمی دربارهی آنتونی بوردن» درباره این نویسنده پرکار، سرآشپز و مجری سرشناس ساخته شده است.
در ساخت این مستند از کلمات و جملاتی که این شخصیت محبوب در برنامههای تلویزیونی، رادیویی، پادکستها و کتابهای الکترونیکی به زبان آورده استفاده شده است.
البته، مورگان نویل میگوید در طول ساخت این مستند، برای اینکه جملاتی را از زبان آنتونی بوردن و با صدای اصلی وی بیان کند از ترفندهای فنآورانه کمک گرفته است.
و ناگهان صدای آنتونی بوردن
به گزارش هلن رُزنر، خبرنگار The New Yorker، در نیمه دوم این مستند، که در لسآنجلس فیلمبردای شده است، دیوید چو (بازیگر) از روی ایمیلی که بوردن برای او فرستاده میخواند: «رفیق، شاید به نظرت احمقانهای باشه، اما میخواستم بگم …»
و ناگهان صدای چو تغییر میکند و صدای آنتونی شنیده میشود که ادامه ایمیل را میخواند :« زندگیم به گند کشیده شده، تو آدم موفقی هستی، منم آدم موفقی هستم، ولی حرف من اینه که آیا تو واقعا احساس خوشبختی میکنی؟» به دقیقه 1:30 این فیلم توجه کنید:
رُزنر از نویل که در سال 2018 نیز مستندی به نام « شما همسایه ما هستید؟ Won’t you Be My Neighbor» درباره فرد راجر را کارگردانی کرده است، میپرسد، چگونه توانستید صدای آنتونی بوردن را در حال خواندن ایمیلی که به فرد دیگری فرستاده است، پیدا کنید؟
نویل در جواب به این خبرنگار میگوید:« سه جمله منتسب به آنتونی داشتم که در هیچ کجا با صدای اصلی او ضبط نشده بودند»
به همین دلیل او دهها ساعت از صدای ضبطشده آنتونی بوردن را در اختیار یک شرکت نرمافزاری میگذارد و آنها به گفته نویل «یک مدل هوش مصنوعی از صدای آنتونی» میسازند.
ایان گودفلو، مدیر یادگیری ماشین در Special Projects Group (شرکت اُپل) برای اولین بار در سال 2014، عبارت «دیپفیک» را به جهانیان معرفی کرد. این عبارت مرکب از دو واژه “Deep learning” و “fake” است.
دیپفیک یا جعل عمیق به ویدئوها، فایلهای صوتی یا تصاویری گفته میشود که کاملاً طبیعی به نظر میرسند اما ساخته هوش مصنوعی و جعلی هستند.
برای ساخت دیپفیک، سیستمی ورودیهایی که مربوط به فرد خاصی هستند را بررسی میکند و الگوریتمی میسازد که رفتار، حرکات و الگوهای گفتاری آن فرد را تقلید میکند. جالب است بدانید رُزنر فقط توانست یکی از صحنههایی که در آن از دیپفیک استفاده شده بود را تشخیص دهد.
دیپفیکهای غیرقابل تشخیص
نویل در مصاحبه با رُزنر گفت: « اگر این مستند را تماشا کنید، احتمالا به غیر از همان دیالوگی که به آن اشاره کردید، نمیتوانید باقی دیالوگهای دیپفیک را تشخیص دهد؛ نه الان و نه هیچ زمان دیگری نمیتوانید آنها را از صداهای اصلی تشخیص دهید. شاید در زمان دیگری، مجموعهای از اصول اخلاقی را برای استفاده از این فنآوریها در مستندسازی تدوین کنیم.»
با این حال، استفاده از دیپفیک، حتی در مواردی که کاملاً بیضرر به نظر میرسند، به مباحثی پیرامون مسائل اخلاقی دامن زده است.
اوایل امسال، ویدئویی از تام کروز در حالی که یک تیشرت هاوایی به تن داشت و شعبدهبازی میکرد در تیکتاک منتشر شد و کاربران بیش از 11 میلیون بار آن را تماشا کردند.
هرچند این ویدئو کاملا بیضرر به نظر میرسد اما برخی کاربران آن را با ویدئوی واقعی اشتباه گرفتند و باور اینکه این ویدئو ساخت هوش مصنوعی است برایشان دشوار بود.
علاوه بر این، ویدئوی دیپفیکی از نانسی پلوسی، سخنگوی مجلس نمایندگان ایالات متحده، منتشر شد که در آن پلوسی جملاتی مبهم به زبان میآورد. در نتیجه انتشار این ویدئو، شرکت فیسبوک در ماه ژانویه سال 2020، یعنی پیش از برگزاری انتخابات ریاست جمهوری، انتشار ویدئوهای ساختگی و جعلی را در پلتفرم خود ممنوع اعلام کرد.
شرکت فیسبوک با انتشار بیانهای اعلام کرد این ویدئوهای دستکاری شده و گمراهکننده را از پلتفرم خود حذف خواهد کرد، زیرا این ویدئوها به نحوی ویرایش شدهاند که افراد معمولی نمیتوانند جعلی و واقعی بودن آنها را تشخیص دهند و به همین دلیل هر چه که در این ویدئوها گفته میشود را باور میکنند.
البته هنوز مشخص نشده که آیا شرکت فیسبوک انتشار این دیالوگهای بوردن را که خود او نوشته اما با صدای اصلی وی ضبط نشدهاند را نیز در پلتفرم خود ممنوع میکند یا خیر.
دیپفیک تام کروز
پس از همرسانی گسترده ویدئوی دیپفیک تام کروز، ریچل توباک، مدیرعامل شرکت SocialProof، که در زمینه امنیت سایبری فعالیت دارد، در توئیتی اعلام کرد، در برههای از زمان به سر میبریم که دیگر امکان تشخیص دیپفیکها وجود ندارد.
به گفته وی، دیپفیکها بر اعتماد عمومی تأثیر میگذارند و مجرمان و متجاوزانی که در هنگام وقوع جرم ویدئو و یا صدای آنها ضبط شده به آسانی میتوانند آن را انکار کنند و قسر در بروند. علاوه بر این، ممکن است از دیپفیکها برای آسیب رساندن، تحقیر کردن و فریب دادن دیگران استفاده شود.
وی در ادامه نوشت:« اگر در حال ساخت فنآوریهایی هستید که به تشخیص رسانههای جعلی و دستکاری شده کمک میکنند، بهتر است به کار خود ادامه دهید.»
انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید