Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 ورود هوش مصنوعی به جریان اصلی

راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی

ورود هوش مصنوعی به جریان اصلی

زمان مطالعه: 9 دقیقه

تحقیقات مربوط به هوش مصنوعی معمولاً با هیاهویی درباره ظرفیت‌ها و خطرات این فناوری همراه است. اما چه آن‌هایی که مرزهای توانایی‌های ممکن را جابه‌جا می‌کنند و چه آن‌هایی که خواستار احتیاط هستند، ظاهراً بر سر یک موضوع توافق دارند. نسل جدید هوش مصنوعی مولد، بیش از هر ابزار هوش مصنوعی پیش از خود، جامعه را تحت‌تأثیر قرار داده است.

این لحظه برای هوش مصنوعی بی‌سابقه است. مدل‌های زبانی قدرتمند به طور ناگهانی جهشی بزرگ در توانایی‌های خود داشته‌اند و اکنون می‌توانند حجم زیادی از نوشته‌های معقول تولید کنند؛ متن‌هایی که اغلب از نوشته انسان قابل‌تشخیص نیستند. آن‌ها می‌توانند به پرسش‌های فنی پیچیده نیز پاسخ دهند، از جمله پرسش‌هایی که معمولاً از وکلا و برنامه‌نویسان پرسیده می‌شود. حتی می‌توانند به آموزش بهتر سایر مدل‌های هوش مصنوعی نیز کمک کنند.

گزارش حاضر در «راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

در مرکز این تحولات، مدل‌های زبانی بزرگ و انواع دیگر هوش مصنوعی مولد قرار دارند که می‌توانند در پاسخ به فرمان‌های انسانی، متن و تصویر تولید کنند. از سال ۲۰۲۲ استارتاپ‌هایی که با پشتیبانی غول‌های فناوری فعالیت می‌کنند، روند عرضه این مدل‌های مولد را شتاب بخشیده‌اند و دسترسی میلیون‌ها نفر به چت‌بات‌هایی قانع‌کننده اما اغلب نادقیق را امکان‌پذیر کرده‌اند؛ درحالی‌که اینترنت را با نوشته‌ها و تصاویر تولیدشده توسط هوش مصنوعی پر کرده‌اند، به شکلی که می‌تواند جامعه را دگرگون کند.

داستان هوش مصنوعی چرخه‌ای تکرارشونده از موج‌های علاقه و سرمایه‌گذاری است که پس از برآورده‌نشدن انتظارات بزرگ، وارد رکود می‌شود. در دهه ۱۹۵۰، شوروشوق زیادی برای ساخت ماشین‌هایی وجود داشت که بتوانند هوشی در سطح انسان نشان دهند. خود اصطلاح «هوش مصنوعی» در کارگاهی تابستانی در کالج Dartmouth در New Hampshire در سال ۱۹۵۶ ابداع شد. اما آن هدف بلندپروازانه محقق نشد؛ زیرا سخت‌افزار و نرم‌افزار رایانه‌ای به‌سرعت با محدودیت‌های فنی روبه‌رو شدند. نتیجه آن، به‌وجودآمدن زمستان‌های هوش مصنوعی در دهه ۱۹۷۰ و اواخر دهه ۱۹۸۰ بود؛ دورانی که سرمایه‌گذاری و علاقه شرکت‌ها به‌شدت کاهش یافت.

دهه گذشته میلادی را می‌توان به‌نوعی تابستان هوش مصنوعی دانست؛ هم برای پژوهشگرانی که به دنبال بهبود توانایی یادگیری هوش مصنوعی بودند و هم برای شرکت‌هایی که قصد داشتند این فناوری را به کار گیرند. به لطف ترکیبی از پیشرفت‌های عظیم در قدرت پردازش رایانه و دردسترس‌بودن داده‌ها، رویکردی که از ساختار مغز الهام گرفته بود توانست به موفقیت‌های زیادی برسد. قابلیت‌های تشخیص صدا و چهره در گوشی‌های هوشمند معمولی با چنین مدل‌های شبکه عصبی کار می‌کنند. همچنین مدل‌های هوش مصنوعی قدرتمندی که بهترین بازیکنان جهان را در بازی باستانیGo  شکست داده‌اند و چالش‌های علمی بسیار دشوار را حل کرده‌اند؛ مانند پیش‌بینی ساختار تقریباً همه پروتئین‌های شناخته‌شده، از همین روش بهره می‌برند.

تحولات پژوهشی در این حوزه معمولاً طی سال‌ها شکل‌گرفته‌اند و ابزارهای جدید هوش مصنوعی برای انجام کارهای تخصصی یا در قالب‌هایی نامرئی در محصولات و خدمات تجاری موجود مانند موتورهای جست‌وجوی اینترنتی، به کار رفته‌اند.

اما طی دو سال گذشته مدل‌های هوش مصنوعی مولد که آن‌ها نیز از شبکه‌های عصبی استفاده می‌کنند، به مرکز توجه صنعت فناوری تبدیل شده‌اند؛ صنعتی که می‌خواهد این مدل‌ها را با سرعت از آزمایشگاه‌های شرکت‌ها بیرون آورده و در اختیار عموم قرار دهد. نتیجه این روند آشفته، گاه چشمگیر و اغلب غیرقابل‌پیش‌بینی بوده است؛ زیرا افراد و سازمان‌ها به آزمایش این مدل‌ها می‌پردازند.

«تیمنیت گبرو» (Timnit Gebru)، بنیان‌گذار Distributed AI Research Institute در کالیفرنیا، می‌گوید: «واقعاً انتظار چنین انفجاری از مدل‌های مولد را نداشتم. هرگز چنین افزایش سریع و گسترده‌ای در تعداد محصولات ندیده‌ام.»

جرقه این انفجار را OpenAI زد؛ زمانی که در ۳۰ نوامبر ۲۰۲۲ نسخه اولیه ChatGPT را منتشر کرد و تنها طی پنج روز یک میلیون کاربر جذب کرد. مایکروسافت، سرمایه‌گذار چندمیلیارددلاری OpenAI، در فوریه ۲۰۲۳ با ارائه یک چت‌بات مجهز به همان فناوری ChatGPT در موتور جست‌وجوی Bing، این روند را ادامه داد که به‌عنوان حرکتی آشکار برای به چالش کشیدن سلطه طولانی‌مدت گوگل در بازار موتورهای جست‌وجو شناخته می‌شود.

این اقدام باعث شد گوگل نیز در مارس ۲۰۲۳ چت‌بات خود به نام Bard (که بعدها به Gemini تغییر کرد) را معرفی کند. گوگل همچنین ۳۰۰ میلیون دلار در Anthropic، استارتاپی که توسط کارکنان سابق OpenAI تأسیس شد، سرمایه‌گذاری کرده است. شرکتی که چت‌بات خود به نام Claude را از مارس ۲۰۲۳ در اختیار گروه محدودی از افراد و شرکای تجاری قرار داد و سپس به صورت عمومی عرضه کرد. شرکت‌های بزرگ فناوری چین، مانند Baidu و Alibaba  نیز وارد رقابت شده‌اند و چت‌بات‌های هوش مصنوعی را در موتورهای جست‌وجو و سایر خدمات خود ادغام کرده‌اند.

این مدل‌های مولد اکنون بر حوزه‌هایی مانند آموزش تأثیر گذاشته‌اند؛ به‌طوری که برخی مدارس ChatGPT را ممنوع کرده‌اند، چون می‌تواند مقاله‌های کامل و غیرقابل‌تشخیص نسبت به نوشته دانش‌آموز تولید کند. توسعه‌دهندگان نرم‌افزار نشان داده‌اند که ChatGPT می‌تواند خطاهای کدنویسی را پیدا و اصلاح کند و حتی برنامه‌ها را از صفر بنویسد. مشاوران املاک از ChatGPT برای تولید آگهی‌های فروش و پست‌های شبکه‌های اجتماعی استفاده کرده‌اند و شرکت‌های حقوقی چت‌بات‌های هوش مصنوعی را برای تهیه پیش‌نویس قراردادهای حقوقی به کار گرفته‌اند. حتی آزمایشگاه‌های پژوهشی دولت آمریکا در حال بررسی این هستند که فناوریOpenAI  چگونه می‌تواند با سرعت مقالات منتشرشده را غربال کند تا به طراحی آزمایش‌های علمی جدید کمک کند.

طبق گزارش تحلیلگران Goldman Sachs، حدود ۳۰۰ میلیون شغل تمام‌وقت ممکن است حداقل تا حدی تحت‌تأثیر خودکارسازی ناشی از هوش مصنوعی مولد قرار گیرند؛ اما همان‌طور که آن‌ها نوشته‌اند، این موضوع به این بستگی دارد که «هوش مصنوعی مولد تا چه حد به توانایی‌های وعده‌داده‌شده خود عمل کند.» گزاره‌ای آشنا که پیش‌تر نیز در چرخه‌های رونق و رکود هوش مصنوعی شنیده شده است.

آنچه روشن است، این است که خطرات واقعی هوش مصنوعی مولد نیز با سرعتی سرسام‌آور رخ می‌دهند. ChatGPT و دیگر چت‌بات‌ها اغلب اشتباهات را واقعی ارائه می‌دهند و رویدادها یا مقالات کاملاً ساختگی را ذکر می‌کنند. استفاده از ChatGPT همچنین منجر به رسوایی‌های نقض حریم خصوصی شده است؛ از جمله افشای داده‌های محرمانه شرکت‌ها و حتی دسترسی کاربران ChatGPT به تاریخچه چت و اطلاعات پرداخت دیگران.

هنرمندان و عکاسان نیز نگرانی‌های بیشتری مطرح کرده‌اند؛ از جمله اینکه آثار تولیدشده توسط هوش مصنوعی ممکن است معیشت آنان را تهدید کند، درحالی‌که برخی شرکت‌ها مدل‌های مولد را با استفاده از آثار همان هنرمندان آموزش می‌دهند؛ بدون اینکه قوانین حق نشر را رعایت کنند. تصاویر تولیدشده توسط هوش مصنوعی می‌تواند به انتشار گسترده اطلاعات نادرست منجر شود؛ همان‌طور که تصاویر جعلی از بازداشت دونالد ترامپ و تصویری از پاپ فرانسیس با کت سفید براق، در اینترنت وایرال شد. شمار زیادی از مردم فریب خوردند و باور کردند واقعی است.

گبرو بسیاری از این خطرات احتمالی را پیش‌بینی کرده بود؛ زمانی که او و همکارانش در سال ۲۰۲۰ مقاله‌ای بنیادین درباره خطرات مدل‌های زبانی بزرگ نوشتند و او یکی از رهبران تیم اخلاق هوش مصنوعی گوگل بود. گبرو می‌گوید که پس از آنکه مدیران گوگل از او خواستند مقاله را پس بگیرد، مجبور به ترک شرکت شد؛ هرچند گوگل استعفای او را «خروج داوطلبانه» توصیف کرده است. گبرو می‌گوید: «این وضعیت شبیه یک چرخه هیجان‌زده دیگر است، اما تفاوت این است که اکنون محصولات واقعی وجود دارند که آسیب‌زا هستند.»

فناوری هوش مصنوعی مولد بر پایه یک دهه پژوهش بنا شده است؛ پژوهش‌هایی که توانایی‌های هوش مصنوعی را در تشخیص تصویر، دسته‌بندی مقالات بر اساس موضوع و تبدیل گفتار به متن به طور چشمگیری بهبود داده‌اند. «آرویند نارایانان» (Arvind Narayanan) از دانشگاه پرینستون می‌گوید: «با معکوس کردن این روند، اکنون می‌توان تصاویر مصنوعی بر اساس یک توضیح، مقاله‌هایی درباره یک موضوع مشخص یا نسخه صوتی متن‌های نوشتاری تولید کرد.» او می‌گوید: «هوش مصنوعی مولد واقعاً امکان انجام کارهای جدید زیادی را فراهم کرده است.» بااین‌حال، ارزیابی این فناوری دشوار است.

مدل‌های زبانی بزرگ شاهکارهای مهندسی هستند که از حجم عظیمی از توان پردازشی در مرکز داده‌های شرکت‌هایی مانند مایکروسافت و گوگل استفاده می‌کنند. آن‌ها به مقدار عظیمی از داده‌های آموزشی نیاز دارند؛ داده‌هایی که شرکت‌ها اغلب آن‌ها را از مخازن اطلاعات عمومی در اینترنت، مانند ویکی‌پدیا، جمع‌آوری می‌کنند. این فناوری همچنین به تعداد زیادی نیروی انسانی متکی است تا در طول فرایند آموزش، بازخورد ارائه دهند و هوش مصنوعی را در مسیر درست هدایت کنند.

«هیجان و هیاهوی انتقادی، هر دو می‌تواند از وظیفه مدیریت خطرات واقعی ناشی از هوش مصنوعی مولد منحرف شوند.»

اما مدل‌های هوش مصنوعی قدرتمندی که توسط شرکت‌های بزرگ فناوری منتشر می‌شوند، معمولاً سیستم‌های بسته‌ای هستند که دسترسی عمومی یا دسترسی توسعه‌دهندگان بیرونی را محدود می‌کنند. سیستم‌های بسته می‌توانند در کنترل ریسک‌ها و آسیب‌های احتمالی ناشی از اینکه هر کسی بتواند این هوش‌های مصنوعی را دانلود و استفاده کند مؤثر باشند، اما درعین‌حال قدرت را در دست سازمان‌هایی متمرکز می‌کنند که آن‌ها را توسعه داده‌اند؛ بدون اینکه به مردمی که زندگی‌شان تحت‌تأثیر این مدل‌های هوش مصنوعی قرار می‌گیرد، اجازه مشارکت بدهند.

«ایرین سولایمان» (Irene Solaiman)، مدیر سیاست‌گذاری Hugging Face، شرکتی که ابزارهایی برای اشتراک‌گذاری کد و داده‌های هوش مصنوعی توسعه می‌دهد می‌گوید: «نگران‌کننده‌ترین مسئله در روند بسته‌سازی این است که تعداد بسیار کمی از مدل‌ها خارج از چند سازمان توسعه‌دهنده در دسترس خواهند بود.»

این روند در تغییر رویکرد OpenAI نیز آشکار است؛ سازمانی که باوجود آغاز به کار به‌عنوان یک نهاد غیرانتفاعی برای توسعه متن‌باز هوش مصنوعی، اکنون به سمت رویکردی مالکیتی و بسته حرکت کرده است. زمانی که OpenAI فناوری زیربنایی ChatGPT را به GPT-4 ارتقا داد، دلیل عدم افشای نحوه کار این مدل را «چشم‌انداز رقابتی و پیامدهای ایمنی مدل‌های بزرگ‌مقیاس مانند GPT-4 اعلام کرد.»

این رویکرد، ارزیابی توانایی‌ها و محدودیت‌های هوش‌های مصنوعی مولد را برای افراد بیرون از سازمان دشوار می‌کند و ممکن است به دامن‌زدن به هیجان و بزرگ‌نمایی منجر شود. «لی وینسل» (Lee Vinsel)، تاریخ‌دان فناوری از Virginia Tech می‌گوید: «حباب‌های فناوری انرژی احساسی زیادی ایجاد می‌کنند، هم هیجان و هم ترس؛ اما محیط‌های اطلاعاتی بدی هستند.»

بسیاری از حباب‌های فناوری شامل هر دو عامل هیجان (Hype) و چیزی هستند که وینسل آن را «هیاهوی انتقادی» (Criti-Hype) می‌نامد؛ یعنی انتقاداتی که با قبول ادعاهای اغراق‌آمیز شرکت‌ها و تبدیل آن به سناریوهای پرخطر، خود به بزرگ‌نمایی فناوری کمک می‌کند. این موضوع را می‌توان در واکنش‌ها به ChatGPT به‌خوبی دید.

بیانیه مأموریت OpenAI عنوان می‌کند که این شرکت متعهد است مزایای «هوش جامع مصنوعی»، (Artificial General Intelligence) به‌عنوان مدل‌هایی که می‌توانند در هر وظیفه فکری از انسان بهتر عمل کنند را گسترش. ولی ChatGPT از آن هدف فاصله بسیاری دارد. بااین‌حال، در مارس ۲۰۲۳، پژوهشگران هوش مصنوعی مانند «یوشوا بنجیو» (Yoshua Bengio) و چهره‌های فناوری مانند «ایلان ماسک» نامه‌ای سرگشاده را امضا کردند که در آن از آزمایشگاه‌های تحقیقاتی خواسته شده بود آزمایش‌های هوش مصنوعی غول‌پیکر را متوقف کنند، درحالی‌که هوش مصنوعی را «ذهن‌های غیرانسانی که ممکن است در نهایت از ما بیشتر شوند، ما را شکست دهند، ما را منسوخ کنند یا جایگزینمان شوند» خطاب کرده بودند.

متخصصانی که با New Scientist مصاحبه کرده‌اند هشدار می‌دهند که هم هیجان و هم هیاهوی انتقادی می‌توانند توجه را از کار ضروری مدیریت ریسک‌های واقعی هوش مصنوعی مولد منحرف کنند. به گفته «دارون عجم‌اوغلو» (Daron Acemoglu)، اقتصاددان MIT: «GPT-4 می‌تواند بسیاری از کارها را خودکار کند، در مقیاس وسیع اطلاعات نادرست تولید کند، سلطه چند شرکت بزرگ فناوری را تثبیت کند و حتی به دموکراسی‌ها آسیب بزند. این کارها را می‌تواند انجام دهد بدون اینکه حتی به هوش جامع مصنوعی نزدیک شده باشد.»

عجم‌اوغلو می‌گوید اکنون «نقطه عطفی» برای نهادهای قانون‌گذاری است تا اطمینان حاصل کنند این فناوری‌ها به کارمندان کمک می‌کنند، به شهروندان قدرت می‌دهند و همچنین «قدرت‌گیری اربابان تکنولوژی که این فناوری را کنترل می‌کنند»، محدود شود.

اوایل سال ۲۰۲۴، قانون‌گذاران اتحادیه اروپا «قانون هوش مصنوعی» را تصویب کردند که نخستین استانداردهای گسترده جهانی برای تنظیم‌گری این فناوری را ایجاد کرد. این قانون مدل‌های هوش مصنوعی پرریسک را تنظیم‌گری می‌کند و بحث‌هایی نیز درباره گنجاندنChatGPT  و مدل‌های مولد مشابه با کاربردهای عمومی در دسته «پرخطر» در جریان است.

مؤسسه AI Now در نیویورک و سایر متخصصان اخلاق هوش مصنوعی، از جمله گبرو، پیشنهاد می‌کنند بار مسئولیت بر دوش شرکت‌های بزرگ فناوری قرار گیرد و آن‌ها مجبور شوند ثابت کنند که مدل هوش مصنوعی‌شان آسیب‌رسان نیست؛ به‌جای اینکه از نهادهای نظارتی انتظار برود پس از وقوع آسیب‌ها به آن رسیدگی کنند.

«سارا مایرز وست» (Sarah Myers West)، مدیر AI Now، می‌گوید: «برخی از بازیگران صنعت از اولین کسانی بودند که گفتند ما به قانون‌گذاری نیاز داریم. اما ای‌کاش سؤال این بود که چطور مطمئن هستید کاری که انجام می‌دهید از ابتدا قانونی است؟»

آنچه اتفاق می‌افتد تا حد زیادی به این بستگی دارد که این فناوری‌ها چگونه استفاده و تنظیم شوند. عجم‌اوغلو می‌گوید:

«مهم‌ترین درس تاریخ این است که ما به‌عنوان جامعه، انتخاب‌های بسیار بیشتری درباره نحوه توسعه و عرضه فناوری‌ها نسبت به آنچه آینده‌پژوهان فناوری به ما می‌گویند، داریم.»

«سم آلتمن»، مدیرعامل OpenAI سناریوهای بسیار افراطی‌تری را درباره آینده‌ای با مدل‌های هوش مصنوعی قدرتمند که در مجموع از انسان‌ها بهتر عمل می‌کنند مطرح کرده است. او از «بهترین حالت» گفته که در آن مدل‌های هوش مصنوعی می‌توانند «همه جنبه‌های واقعیت را بهبود دهند و به ما اجازه دهند زندگی بهتری داشته باشیم» و همچنین هشدار داده که «حالت بد» می‌تواند «به معنای پایان همه چیز باشد». اما او تأکید کرده که توسعه کنونی هوش مصنوعی هنوز فاصله بسیار زیادی از هوش جامع مصنوعی دارد.

گبرو و همکارانش بیانیه‌ای منتشر کردند که هشدار می‌دهد: «خطرناک است که خودمان را با رؤیای آرمان‌شهری یا آخرالزمانی مبتنی بر هوش مصنوعی مشغول کنیم؛ رؤیایی که آینده‌ای شکوفا یا احتمالاً فاجعه‌آمیز را وعده می‌دهد. رقابت کنونی برای انجام آزمایش‌های هوش مصنوعی هرچه بزرگ‌تر، یک مسیر اجتناب‌ناپذیر نیست که تنها انتخاب ما سرعت حرکت باشد؛ بلکه مجموعه‌ای از تصمیم‌هاست که با انگیزه مالی هدایت می‌شود. اقدامات و انتخاب‌های شرکت‌ها باید توسط مقرراتی شکل گیرد که از حقوق و منافع مردم محافظت کند.»

به گفته «ساشا لوچونی» (Sasha Luccioni)، پژوهشگر هوش مصنوعی در Hugging Face: «اگر حباب انتظارات تجاری پیرامون هوش مصنوعی مولد به سطحی ناپایدار برسد و در نهایت بترکد، این موضوع می‌تواند توسعه آینده هوش مصنوعی را نیز تضعیف کند» بااین‌حال، رونق فعلی لزوماً به زمستان دیگری برای هوش مصنوعی منجر نمی‌شود. یکی از دلایل این است که برخلاف چرخه‌های گذشته، بسیاری از سازمان‌ها همچنان مسیرهای دیگری از پژوهش هوش مصنوعی را دنبال می‌کنند و همه چیز را روی مدل‌های مولد سرمایه‌گذاری نکرده‌اند.

سازمان‌هایی مانند Hugging Face خواستار فرهنگ باز در پژوهش و توسعه هوش مصنوعی هستند؛ فرهنگی که بتواند از تشدید غیرقابل‌کنترل هیجان و آثار واقعی اجتماعی جلوگیری کند. لوچونی با برگزارکنندگان NeurIPS، یکی از بزرگ‌ترین رویدادهای پژوهشی هوش مصنوعی همکاری می‌کند تا یک کد اخلاق کنفرانسی را ایجاد کند؛ کدی که پژوهشگران را ملزم می‌کند داده‌های آموزشی خود را افشا کنند، دسترسی به مدل‌هایشان را فراهم کنند و کار خود را شفاف نشان دهند، به‌جای اینکه آن را به‌عنوان فناوری مالکیتی پنهان کنند.

«نیما باسکارینو» (Nima Boscarino)، مهندس اخلاق در Hugging Face، می‌گوید پژوهشگران هوش مصنوعی باید واضحاً توضیح دهند که مدل‌ها چه کارهایی می‌توانند و چه کارهایی نمی‌توانند انجام دهند، بین توسعه محصول و پژوهش علمی تمایز قائل شوند و با جوامعی که بیشترین تأثیر را می‌پذیرند همکاری نزدیک داشته باشند تا ویژگی‌ها و ملاحظات ایمنی مرتبط با آن‌ها را بیاموزند. باسکارینو همچنین بر نیاز به ارزیابی عملکرد هوش مصنوعی در قبال افراد با هویت‌های گوناگون تأکید می‌کند.

پژوهش بر روی هوش مصنوعی مولد، اگر به این شیوه انجام شود، می‌تواند شکلی پایدارتر و پایا از توسعه فناوری‌های مفید را برای آینده تضمین کند. باسکارینو می‌افزاید: «این‌ها دوران هیجان‌انگیزی در حوزه اخلاق هوش مصنوعی هستند و امیدوارم بخش گسترده‌تر یادگیری ماشین، مسیر کاملاً مخالف آنچهOpenAI  انجام داده را در پیش بگیرد.»

گزارش حاضر در «راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]