Filter by دسته‌ها
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
دوره
کارگاه
وبینار
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
وبینارها، کارگاره‌ها و دوره‌ها
 بازسازی صدای آنتونی بوردن به کمک هوش مصنوعی

بازسازی صدای آنتونی بوردن به کمک هوش مصنوعی

آنتونی بوردن که در سال 2018 اقدام به خودکشی کرد، سوژه مستند جدیدِ مورگان نویل است. مورگان نویل برای بازسای صدای آنتونی بوردن از هوش مصنوعی و الگوریتم‌های نرم‌افزاری کمک گرفته است. نویل ده‌ها ساعت از صدای ضبط‌شده بوردن را در اختیار شرکتی گذاشت و آن‌ها یک مدل هوش مصنوعی از صدای بوردن ساختند. نویل می‌گوید در مستند «فیلمی درباره‌ آنتونی بوردن Roadrunner: A Film About Anthony Bourdain» سه بار از صدای دیپ فیک استفاده شده است.

مورگان نویل مستند جدیدی درباره‌ی آنتونی بوردن ساخته است. وی اقرار کرد که در این مستند برای بازسازی صدایِ این سرآشپز سرشناس از هوش مصنوعی و الگوریتم‌های کامپیوتری استفاده کرده است. این کارگردان برای بازسازی آن دسته از جملاتی که به آنتونی بوردن نسبت داده شده‌اند ولی هیچ کجا (با صدای اصلی او) ضبط نشده‌اند، به سراغ این فن‌آوری رفته است.

جسد آنتونی بوردن در سال 2018 در هتلی در پاریس پیدا شد. اکنون، پس از گذشت چندین سال، مستند جدیدی به نام «فیلمی درباره‌ی آنتونی بوردن» درباره این نویسنده پرکار، سرآشپز و مجری سرشناس ساخته شده است.

در ساخت این مستند از کلمات و جملاتی که این شخصیت محبوب در برنامه‌های تلویزیونی، رادیویی، پادکست‌ها و کتاب‌های الکترونیکی به زبان آورده استفاده شده است.

البته، مورگان نویل می‌گوید در طول ساخت این مستند، برای اینکه جملاتی را از زبان آنتونی بوردن و با صدای اصلی وی بیان کند از ترفندهای فن‌آورانه کمک گرفته است.

و ناگهان صدای آنتونی بوردن

به گزارش هلن رُزنر، خبرنگار The New Yorker، در نیمه دوم این مستند، که در لس‌آنجلس فیلم‌بردای شده است، دیوید چو (بازیگر) از روی ایمیلی که بوردن برای او فرستاده می‌خواند: «رفیق، شاید به نظرت احمقانه‌ای باشه، اما می‎خواستم بگم …»

و ناگهان صدای چو تغییر می‌کند و صدای آنتونی شنیده می‌شود که ادامه ایمیل را می‌خواند :« زندگیم به گند کشیده شده، تو آدم موفقی هستی، منم آدم موفقی هستم، ولی حرف من اینه که آیا تو واقعا احساس خوشبختی ‌می‌کنی؟» به دقیقه 1:30 این فیلم توجه کنید:

رُزنر از نویل که در سال 2018 نیز مستندی به نام « شما همسایه ما هستید؟ Won’t you Be My Neighbor» درباره فرد راجر را کارگردانی کرده است، می‌پرسد، چگونه توانستید صدای آنتونی بوردن را در حال خواندن ایمیلی که به فرد دیگری فرستاده است، پیدا کنید؟

نویل در جواب به این خبرنگار می‌گوید:« سه جمله منتسب به آنتونی داشتم که در هیچ کجا با صدای اصلی او ضبط نشده بودند»

به همین دلیل او ده‌ها ساعت از صدای ضبط‌شده آنتونی بوردن را در اختیار یک شرکت نرم‌افزاری می‌گذارد و آن‌ها به گفته نویل «یک مدل هوش مصنوعی از صدای آنتونی» می‌سازند.

آنتونی بوردن

ایان گودفلو، مدیر یادگیری ماشین در Special Projects Group (شرکت اُپل) برای اولین بار در سال 2014، عبارت «دیپ‌فیک» را به جهانیان معرفی کرد. این عبارت مرکب از دو واژه “Deep learning” و “fake” است.

دیپ‌فیک یا جعل عمیق به ویدئوها، فایل‌های صوتی یا تصاویری گفته می‌شود که کاملاً طبیعی به نظر می‌رسند اما ساخته هوش مصنوعی و جعلی هستند.

برای ساخت دیپ‌فیک، سیستمی ورودی‌هایی که مربوط به فرد خاصی هستند را بررسی می‌کند و الگوریتمی می‌سازد که رفتار، حرکات و الگوهای گفتاری آن فرد را تقلید می‌کند. جالب است بدانید رُزنر فقط توانست یکی از صحنه‌هایی که در آن‌ از دیپ‌فیک استفاده شده بود را تشخیص دهد.

دیپ‌فیک‌های غیرقابل تشخیص

نویل در مصاحبه با رُزنر گفت: « اگر این مستند را تماشا کنید، احتمالا به غیر از همان دیالوگی که به آن اشاره کردید، نمی‌توانید باقی دیالوگ‌های دیپ‌فیک را تشخیص دهد؛ نه الان و نه هیچ زمان دیگری نمی‌توانید آن‌ها را از صداهای اصلی تشخیص دهید. شاید در زمان دیگری، مجموعه‌ای از اصول اخلاقی را برای استفاده از این فن‌آوری‌ها در مستندسازی تدوین کنیم.»

با این حال، استفاده از دیپ‌فیک، حتی در مواردی که کاملاً بی‌ضرر به نظر می‌رسند، به مباحثی پیرامون مسائل اخلاقی دامن زده است.

آنتونی بوردن

اوایل امسال، ویدئویی از تام کروز در حالی که یک تی‌شرت هاوایی به تن داشت و شعبده‌بازی می‌کرد در تیک‌تاک منتشر شد و کاربران  بیش از 11 میلیون بار آن را تماشا کردند.

هرچند این ویدئو کاملا بی‌ضرر به نظر می‌رسد اما برخی کاربران آن را با ویدئوی واقعی اشتباه گرفتند و باور اینکه این ویدئو ساخت هوش مصنوعی است برای‌شان دشوار بود.

علاوه بر این، ویدئوی دیپ‌فیکی از نانسی پلوسی، سخنگوی مجلس نمایندگان ایالات متحده،  منتشر شد که در آن پلوسی جملاتی مبهم به زبان می‌آورد. در نتیجه انتشار این ویدئو، شرکت فیسبوک در ماه ژانویه سال 2020، یعنی پیش از برگزاری انتخابات ریاست جمهوری، انتشار ویدئوهای ساختگی و جعلی را در پلتفرم خود ممنوع اعلام کرد.

شرکت فیسبوک با انتشار بیانه‌ای اعلام کرد این ویدئوهای دستکاری شده و گمراه‌کننده را از پلتفرم خود حذف خواهد کرد، زیرا این ویدئوها به نحوی ویرایش شده‌اند که افراد معمولی نمی‌توانند جعلی و واقعی بودن آن‌ها را تشخیص دهند و به همین دلیل هر چه که در این ویدئوها گفته می‌شود را باور می‌کنند.

البته هنوز مشخص نشده که آیا شرکت فیسبوک انتشار این دیالوگ‌های بوردن را که خود او نوشته اما با صدای اصلی وی ضبط نشده‌اند را نیز در پلتفرم خود ممنوع می‌کند یا خیر.

دیپ‌فیک تام کروز

پس از همرسانی گسترده ویدئوی دیپ‌فیک تام کروز، ریچل توباک، مدیرعامل شرکت SocialProof، که در زمینه امنیت سایبری فعالیت دارد، در توئیتی اعلام کرد، در برهه‌ای از زمان به سر می‌بریم که دیگر امکان تشخیص دیپ‌فیک‌ها وجود ندارد.

به گفته وی، دیپ‌فیک‌ها بر اعتماد عمومی تأثیر می‌گذارند و مجرمان و متجاوزانی که در هنگام وقوع جرم ویدئو و یا صدای آن‌ها ضبط شده به آسانی می‌توانند آن را انکار کنند و قسر در بروند. علاوه بر این، ممکن است از دیپ‌فیک‌ها برای آسیب رساندن، تحقیر کردن و فریب دادن دیگران استفاده شود.

وی در ادامه نوشت:« اگر در حال ساخت فن‌آوری‌هایی هستید که به تشخیص رسانه‌های جعلی و دستکاری شده کمک می‌کنند، بهتر است به کار خود ادامه دهید.»

انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
لطفاً برای تکمیل این فرم، جاوا اسکریپت را در مرورگر خود فعال کنید.