هوش مصنوعی و خلق شخصیتهای مثبت
هرچه ایجاد شخصیتهای دیجیتالی شبهواقعی با استفاده از هوش مصنوعی آسانتر شود، نگرانیهای بیشتری در خصوص خطرات احتمالی دیپفیک شکل میگیرد؛ اما نباید فراموش کرد که این فناوری را میتوان برای مقاصد مثبت هم به کار برد؛ برای مثال، آلبرت انیشتین را به زندگی برگردانید، تا فیزیک تدریس کند؛ با آینده خودتان در خصوص تغییر مسیر شغلی صحبت کنید؛ حتی میتوانید بدون نشان دادن هویت واقعی اعضا، از ارتباط تصویری در جلساتتان بهرهمند شوید.
محققان آزمایشگاه رسانه MIT با همکاری متخصصانی از دانشگاه کالیفرنیا، سانتا باربارا و اوزاکا، بهمنظور معرفی و تشویق کاربردهای مثبت فناوری، پایپلاین متنباز و سادهای برای تولید شخصیت کامپایل کردهاند. در این روال پردازشی، مدلهای هوش مصنوعی ادغام میشوند، تا حالات و حرکات گوناگون چهره و صدا ایجاد کنند. این خروجیهای صوتی و تصویری را میتوان در بافتهای مختلف به کار برد.
واترمارکی که روی خروجی سیستم مذکور قرار دارد، به افراد میگوید محتوای ویدئو واقعی نیست. این قابلیت راهی برای پیشگیری از سوءاستفادههای احتمالی است.
محققان امیدوارند دسترسی آسان به این فناوری، معلمان، دانشآموزان و کارکنان بخش بهداشت و درمان را تشویق کند، تا به دنبال کاربردهای نوآورانه و مثبت در عرصه فعالیت خود باشند. به گفته محققان، هرچه افراد بیشتری فرصت ساخت و استفاده از این شخصیتهای ساختگی را داشته باشند، احتمال دستیابی به نتایج امیدوارکننده، همچون ارتقای وضعیت سلامت و شخصیسازی آموزش، بیشتر خواهد بود.
جرمی بیلنسون، رئیس و بنیانگذار آزمایشگاه تعاملات انسان مجازی استنفورد، در خصوص این مطالعات میگوید: «دنیا جای عجیبتری خواهد بود اگر هوش مصنوعی و انسانها هویتهای مشابه داشته باشند. این مقاله حرفهای جدیدی برای گفتن دارد و بهخوبی توانسته است آنچه را با شخصیتهای تولیدشده به دست هوش مصنوعی امکانپذیر میشود، نشان دهد. این دستاوردها طیف بسیار گستردهای دارند که از آموزش تا بهداشت و درمان و حتی روابط بینفردی را پوشش میدهد. علاوه بر این، محققان توانستهاند نقشه راه واضحی برای اجتناب از چالشهای اخلاقی حول موضوعات حریم خصوصی و محتوای جعلی، ارائه دهند.»
پت پاتارانوتاپرن، نویسنده اول مقاله و عضو گروه پژوهشی دکتر پتی میز، میگوید: «تقریباً تمام دنیا با فناوری جعل عمیق آشنایی دارند؛ اما گروه ما قابلیتهای خلاقانه این فناوری را دیده است.»
نویسندگان دیگر مقاله عبارتاند از: والدمر دنری، دانشجوی فوق لیسانس و جوان لینگ، دانشجوی دکتری از گروه پژوهشی دکتر میز؛ دن نوی، پژوهشگر آزمایشگاه رسانه؛ پرینیا پانپونیاسانون، استادیار دانشگاه اوساکا؛ و میشا سرا، استادیار دانشگاه کالیفرنیا.
حقایق عمیقتر با یادگیری عمیقتر
شبکههای مولد تخاصمی یا GANها ترکیبی از دو شبکه عصبی هستند که با یکدیگر رقابت میکنند. GANها مسائلی همچون ایجاد تصاویر فتورئال، کلون کردن صدا و به حرکت درآوردن چهرهها را آسانتر کردهاند. پاتارانوتاپرن، به همراه دنری، اولین بار کاربردهای احتمالی این فناوری را در پروژهای به نام Machinoia بررسی کردند؛ در این پروژه، پاتارانوتاپرن چندین بازنمایی متفاوت (بهعنوان کودک، سالمند و خانم) از خودش تولید کرد، تا با نسخههای گوناگون خودش درباره تصمیاتش به گفتوگو بنشیند. این تجربه غیرمعمول از جعل عمیق توانست او را از «سفری که در زندگی پیش رو دارد» آگاه سازد. به گفته خودش: «حقیقتی عمیق را دریافتم؛ با استفاده از دادههای خودم و با آزمایش روی خودم توانستم واقعیتی درباره خودم کشف کنم که هیچگاه قبل از آن بهش فکر نکرده بودم.»
محققان میگویند خود-مکاشفهای تنها یکی از کاربردهای شخصیتهای تولیدشده به دست هوش مصنوعی است. آزمایشات نشان دادهاند که این شخصیتها میتوانند اشتیاق دانشآموزان برای درس خواندن را بیشتر کنند و عملکردشان در حل مسائل شناختی را بالا ببرند. پاتارانوتاپرن معتقد است که این فناوری بهنوعی، تکمیلکننده روشهای آموزشی سنتی است و این امکان را فراهم میآورد که برنامه آموزشی مطابق با علائق، الگوها و پیشزمینه فرد شخصیسازی شود و در طول زمان تغییر کند.
برای نمونه، محققان MIT از روال آموزشی خود برای ساخت نسخهای ساختگی از یوهان سباستین باخ استفاده کردند. باخ با نوازنده معروف ویولونسل، یو یو ما، در کلاس تبادلات موسیقیایی پروفسور تاد ماچور مشغول مکالمه شد و شور و شوق همه حضار را برانگیخت.
از جمله کاربردهای دیگر این فناوری میتوان به ساخت شخصیتهایی مثبت برای کمک به ارائه خدمات درمانی اشاره کرد. بدین ترتیب میتوان کمبود متخصصین حوزه بهداشت روان را جبران کرد و تقریباً به 44 درصد آمریکاییهایی که بهنوعی با مشکلات سلامت روان دست و پنجه نرم میکنند و هیچگاه مشاوره دریافت نکردهاند، دسترسی پیدا کرد. علاوه بر این، به کمک این فناوری جدید میتوان افراد حاضر در کنفرانسهای ویدئویی را هویتزدایی کرد و در عین حال، حالات چهره و عواطفشان را به نمایش گذاشت؛ این کاربرد بهویژه برای جلساتی مفید است که در آنها، مردم میخواهند اطلاعاتی حساس و شخصی، برای مثال تجربهشان از یک بیماری یا حادثه را به اشتراک بگذارند. در بافت حقوقی نیز شاهدها میتوانند از این کاربرد بهرهمند شوند.
به هر حال این فناوری کاربردهای هیجانانگیزتر و هنریتری هم دارد. در کلاس «آزمایشات جعل عمیق» که پاییز سال گذشته به سرپرستی میز و روی شیلکروت برگزار شد، دانشجویان از این فناوری استفاده کردند، تا شخصیتهای یک نقاشی تاریخی چینی را به حرکت درآورند.
چالشهای اخلاقی و قانونی
همانطور که محققان در مقاله خود بیان کردهاند، بسیاری از کاربردهایی که میتوان برای شخصیتهای مثبت تولیدشده به دست هوش مصنوعی در نظر گرفت، چالشهای اخلاقی و قانونی به همراه دارند که با تکامل روزافزون این فناوری، باید مورد بحث قرار گیرند. برای مثال، چطور میتوان تعیین کرد چه کسی حق این را دارد که بهصورت دیجیتالی، شخصیتی تاریخی را بازآفرینی کند؟ اگر کلون هوش مصنوعی یک فرد مشهور مخاطبینش در فضای آنلاین را به رفتارهای آسیبزا تشویق کند، چه کسی پاسخگوست؟ آیا خطر این وجود دارد که این فناوری ما را تا جایی پیش ببرد که تعامل با شخصیتهای ساختگی را به انسانهای واقعی ترجیح دهیم؟
میز میگوید: «یکی از اهداف پژوهش ما این بود که آگاهی مردم را در خصوص تمام احتمالات افزایش دهیم، پرسشهایی اساسی مطرح کنیم و درباره کاربردهای اخلاقمدارانه این فناوری در راستای مزایای اجتماعی، بحث و گفتوگو آغاز کنیم. برای مثال، باید به این فکر کنیم که چه اقدامات آموزشی، سیاسی، قانونی و فنی میتوان برای ارتقای کاربردهای مثبت این فناوری انجام داد و در عین حال، احتمال آسیبزایی آن را کاهش داد؟»
پاتارانوتاپرن میگوید: «با به اشتراکگذاری این فناوری در سطح گسترده، البته با مشخص کردن ساختگی بودن آن، امیدواریم بتوانیم کاربردهای خلاقانهتر و مثبتتری را کلید بزنیم و آگاهی مردم در مورد مزایا و معایب بالقوه این فناوری را بالا ببریم.»
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید