Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 هوش مصنوعی و خلق شخصیت‌های مثبت

هوش مصنوعی و خلق شخصیت‌های مثبت

زمان مطالعه: 3 دقیقه

هرچه ایجاد شخصیت‌های دیجیتالی شبه‌واقعی با استفاده از هوش مصنوعی آسان‌تر شود، نگرانی‌های بیشتری در خصوص خطرات احتمالی دیپ‌فیک شکل می‌گیرد؛ اما نباید فراموش کرد که این فناوری را می‌توان برای مقاصد مثبت هم به کار برد؛ برای مثال، آلبرت انیشتین را به زندگی برگردانید، تا فیزیک تدریس کند؛ با آینده‌ خودتان در خصوص تغییر مسیر شغلی صحبت کنید؛ حتی می‌توانید بدون نشان دادن هویت واقعی اعضا، از ارتباط تصویری در جلسات‌تان بهره‌مند شوید.

محققان آزمایشگاه رسانه‌ MIT با همکاری متخصصانی از دانشگاه کالیفرنیا، سانتا باربارا و اوزاکا، به‌منظور معرفی و تشویق کاربردهای مثبت فناوری، پایپ‌‌لاین متن‌باز و ساده‌‌ای برای تولید شخصیت‌ کامپایل کرده‌اند. در این روال پردازشی، مدل‌های هوش مصنوعی ادغام می‌شوند، تا حالات و حرکات گوناگون چهره و صدا ایجاد کنند. این خروجی‌های صوتی و تصویری را می‌توان در بافت‌های مختلف به کار برد.

واترمارکی که روی خروجی سیستم مذکور قرار دارد، به افراد می‌گوید محتوای ویدئو واقعی نیست. این قابلیت راهی برای پیشگیری از سوءاستفاده‌های احتمالی است.

محققان امیدوارند دسترسی آسان به این فناوری، معلمان، دانش‌آموزان و کارکنان بخش بهداشت و درمان را تشویق کند، تا به دنبال کاربردهای نوآورانه و مثبت در عرصه‌ فعالیت خود باشند. به گفته‌ محققان، هرچه افراد بیشتری فرصت ساخت و استفاده از این شخصیت‌های ساختگی را داشته باشند، احتمال دستیابی به نتایج امیدوارکننده، همچون ارتقای وضعیت سلامت و شخصی‌سازی آموزش، بیشتر خواهد بود.

جرمی بیلنسون، رئیس و بنیان‌گذار آزمایشگاه تعاملات انسان مجازی استنفورد، در خصوص این مطالعات می‌گوید: «دنیا جای عجیب‌تری خواهد بود اگر هوش مصنوعی و انسان‌ها هویت‌های مشابه داشته باشند. این مقاله حرف‌های جدیدی برای گفتن دارد و به‌خوبی توانسته است آنچه را با شخصیت‌های تولیدشده به دست هوش مصنوعی امکان‌پذیر می‌شود، نشان دهد. این دستاوردها طیف بسیار گسترده‌ای دارند که از آموزش تا بهداشت و درمان و حتی روابط بین‌فردی را پوشش می‌دهد. علاوه بر این، محققان توانسته‌اند نقشه ‌راه واضحی برای اجتناب از چالش‌های اخلاقی حول موضوعات حریم خصوصی و محتوای جعلی، ارائه دهند.»

پت پاتارانوتاپرن، نویسنده‌ اول مقاله و عضو گروه پژوهشی دکتر پتی میز، می‌گوید: «تقریباً تمام دنیا با فناوری جعل عمیق آشنایی دارند؛ اما گروه ما قابلیت‌های خلاقانه‌ این فناوری را دیده است.»

نویسندگان دیگر مقاله عبارت‌اند از: والدمر دنری، دانشجوی فوق ‌لیسانس و جوان لینگ، دانشجوی دکتری از گروه پژوهشی دکتر میز؛ دن نوی، پژوهشگر آزمایشگاه رسانه؛ پرینیا پانپونیاسانون، استادیار دانشگاه اوساکا؛ و میشا سرا، استادیار دانشگاه کالیفرنیا.

حقایق عمیق‌تر با یادگیری عمیق‌تر

شبکه‌های مولد تخاصمی یا GANها ترکیبی از دو شبکه‌ عصبی هستند که با یکدیگر رقابت می‌کنند. GANها مسائلی همچون ایجاد تصاویر فتورئال، کلون کردن صدا و به حرکت درآوردن چهره‌ها را آسان‌تر کرده‌اند. پاتارانوتاپرن، به همراه دنری، اولین بار کاربردهای احتمالی این فناوری را در پروژه‌ای به نام Machinoia بررسی کردند؛ در این پروژه، پاتارانوتاپرن چندین بازنمایی متفاوت (به‌عنوان کودک، سالمند و خانم) از خودش تولید کرد، تا با نسخه‌های گوناگون خودش درباره تصمیاتش به گفت‌وگو بنشیند. این تجربه‌ غیرمعمول از جعل عمیق توانست او را از «سفری که در زندگی پیش رو دارد» آگاه سازد. به گفته‌ خودش: «حقیقتی عمیق را دریافتم؛ با استفاده از داده‌های خودم و با آزمایش روی خودم توانستم واقعیتی درباره خودم کشف کنم که هیچ‌گاه قبل از آن بهش فکر نکرده بودم.»

محققان می‌گویند خود-مکاشفه‌ای تنها یکی از کاربردهای شخصیت‌های تولیدشده به دست هوش مصنوعی است. آزمایشات نشان داده‌اند که این شخصیت‌ها می‌توانند اشتیاق دانش‌آموزان برای درس خواندن را بیشتر کنند و عملکردشان در حل مسائل شناختی را بالا ببرند. پاتارانوتاپرن معتقد است که این فناوری به‌نوعی، تکمیل‌کننده‌ روش‌های آموزشی سنتی است و این امکان را فراهم می‌آورد که برنامه‌ آموزشی مطابق با علائق، الگوها و پیش‌زمینه‌ فرد شخصی‌سازی شود و در طول زمان تغییر کند.

برای نمونه، محققان MIT از روال آموزشی خود برای ساخت نسخه‌ای ساختگی از یوهان سباستین باخ استفاده کردند. باخ با نوازنده معروف ویولون‌سل، یو یو ما، در کلاس تبادلات موسیقیایی پروفسور تاد ماچور مشغول مکالمه شد و شور و شوق همه‌ حضار را برانگیخت.

از جمله‌ کاربردهای دیگر این فناوری می‌توان به ساخت شخصیت‌هایی مثبت برای کمک به ارائه‌ خدمات درمانی اشاره کرد. بدین ترتیب می‌توان کمبود متخصصین حوزه‌ بهداشت روان را جبران کرد و تقریباً به 44 درصد آمریکایی‌هایی که به‌نوعی با مشکلات سلامت روان دست و پنجه نرم می‌کنند و هیچگاه مشاوره دریافت نکرده‌اند، دسترسی پیدا کرد. علاوه بر این، به کمک این فناوری جدید می‌توان افراد حاضر در کنفرانس‌های ویدئویی را هویت‌زدایی کرد و در عین حال، حالات چهره و عواطفشان را به نمایش گذاشت؛ این کاربرد به‌ویژه برای جلساتی مفید است که در آن‌ها، مردم می‌خواهند اطلاعاتی حساس و شخصی، برای مثال تجربه‌شان از یک بیماری یا حادثه را به اشتراک بگذارند. در بافت حقوقی نیز شاهدها می‌توانند از این کاربرد بهره‌مند شوند.

به هر حال این فناوری کاربردهای هیجان‌انگیز‌تر و هنری‌تری هم دارد. در کلاس «آزمایشات جعل عمیق» که پاییز سال گذشته به سرپرستی میز و روی شیلکروت برگزار شد، دانشجویان از این فناوری استفاده کردند، تا شخصیت‌های یک نقاشی تاریخی چینی را به حرکت درآورند.

چالش‌های اخلاقی و قانونی

همان‌طور که محققان در مقاله‌ خود بیان کرده‌اند، بسیاری از کاربردهایی که می‌توان برای شخصیت‌های مثبت تولیدشده به دست هوش مصنوعی در نظر گرفت، چالش‌های اخلاقی و قانونی به همراه دارند که با تکامل روزافزون این فناوری، باید مورد بحث قرار گیرند. برای مثال، چطور می‌توان تعیین کرد چه کسی حق این را دارد که به‌صورت دیجیتالی، شخصیتی تاریخی را بازآفرینی کند؟ اگر کلون هوش مصنوعی یک فرد مشهور مخاطبینش در فضای آنلاین را به رفتارهای آسیب‌زا تشویق کند، چه کسی پاسخگوست؟ آیا خطر این وجود دارد که این فناوری ما را تا جایی پیش ببرد که تعامل با شخصیت‌های ساختگی را به انسان‌های واقعی ترجیح دهیم؟

میز می‌گوید: «یکی از اهداف پژوهش ما این بود که آگاهی مردم را در خصوص تمام احتمالات افزایش دهیم، پرسش‌هایی اساسی مطرح کنیم و درباره کاربردهای اخلاق‌مدارانه‌ این فناوری در راستای مزایای اجتماعی، بحث و گفت‌وگو آغاز کنیم. برای مثال، باید به این فکر کنیم که چه اقدامات آموزشی، سیاسی، قانونی و فنی می‌توان برای ارتقای کاربردهای مثبت این فناوری انجام داد و در عین حال، احتمال آسیب‌زایی آن را کاهش داد؟»

پاتارانوتاپرن می‌گوید: «با به اشتراک‌گذاری این فناوری در سطح گسترده، البته با مشخص کردن ساختگی بودن آن، امیدواریم بتوانیم کاربردهای خلاقانه‌تر و مثبت‌تری را کلید بزنیم و آگاهی مردم در مورد مزایا و معایب بالقوه‌ این فناوری را بالا ببریم.»

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]