Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 هوش مصنوعی گوگل، درک و آگاهی ندارد

هوش مصنوعی گوگل، درک و آگاهی ندارد

زمان مطالعه: 3 دقیقه

شرکت‌های فناوری، مدام در تلاش‌اند اخبار جدیدی در مورد قابلیت‌های هوش مصنوعی جدید خود منتشر کنند، اما گوگل خیلی سریع شایعات مبنی بر ساخت رباتی خودآگاه و بااحساس را پایان بخشید. هفته‌ گذشته، واشینگتون پست مطلب بحث‌برانگیزی از یکی از مهندسین هوش مصنوعی گوگل منتشر کرد که بعد از صدها مکالمه و تعامل با یک سیستم هوش مصنوعی، اکنون باور دارد این نرم‌افزار به سطحی از خودآگاهی رسیده است.

بسیاری از متخصصان هوش مصنوعی، طی مصاحبه‌ها و بیانیه‌های عمومی، دعاوی این مهندس را رد کردند. عده‌ای هم به این نکته اشاره کرده‌اند که فناوری گاهی باعث می‌شود مردم ویژگی‌های انسانی برایش قائل گردند. در هر صورت، باور به اینکه هوش مصنوعی گوگل می‌تواند احساسات و آگاهی داشته باشد، نگرانی‌ها و البته انتظاراتی در مورد آینده بر می‌انگیزاند.

LaMDA، مخفف مدل زبانی برای نرم‌افزارهای مکالمه‌ای، یکی از سیستم‌های هوش مصنوعی بزرگ‌مقیاسی است که دیتاست‌های عظیم آموزش دیده و به دستورهای متنی (نوشتاری) پاسخ می‌دهد. این مدل‌ها در واقع الگوها را پیدا و کلمات بعدی را پیش‌بینی می‌کنند. سیستم‌هایی از این دست به‌خوبی می‌توانند به سؤالات پاسخ دهند و متونی شبه‌انسانی بنویسند. در ماه مه، گوگل LaMDA را معرفی کرد و آن را سیستمی خواند که می‌تواند به صورت آزادانه، در مورد موضوعات بی‌شماری گفت‌وگو کند؛ اما نتایج این مکالمات می‌توانند عجیب، آزاردهنده و گاهی بی‌ربط هم باشند.

مصنوعی گوگل

مخالفت‌ها در مورد درک هوش مصنوعی

بلیک لیموان همان مهندسی است که ادعا می‌کند شواهدی دال بر خودآگاهی LaMDA پیدا کرده و به گوگل ارائه داده است. اما مخالفت‌ها در مورد درک هوش مصنوعی مطرح شده و در ابتدا گوگل طی بیانیه‌ای اعلام کرده‌ است که گروهی از متخصصان امور اخلاقی و فناوری، دغدغه‌های بلیک در مورد اصول هوش مصنوعی گوگل را مورد بازبینی قرار داده و به او گفته‌اند که شواهد از ادعای او پشتیبانی نمی‌کنند.

در تاریخ 6 ژوئن، لیموان اعلام کرد که گوگل او را به خاطر مسائلی که در رابطه با اخلاقیات هوش مصنوعی مطرح کرده است، به مرخصی باحقوق (استحقاقی) فرستاده و شاید به‌زودی اخراجش کند. وی به ماجرای اخراج مارگرت میچل، رئیس تیم هوش مصنوعی اخلاقی گوگل، در اوایل سال 2021 اشاره کرد که پیرو حمایت و صحبت‌هایش در مورد خروج تیمنیت گبرو از گوگل اتفاق افتاد. گبرو بعد از مشاجرات داخلی از کار برکنار شد؛ یکی از این مشاجرات مربوط به مقاله‌ای پژوهشی بود که رهبر هوش مصنوعی گوگل، گبرو را از ارائه‌اش در کنفرانس منع کرده بود.

یکی از سخنگوهای گوگل مرخصی لیموان را تأیید کرده و به واشینگتون پست گفته است که او را به خاطر زیرپا گذاشتن سیاست‌های محرمانگی هوش مصنوعی گوگل به مرخصی فرستاده‌اند.

ظهور پیوسته و روزافزون نرم‌افزارهای محاسباتی قدرتمند که روی حجم زیادی داده آموزش دیده‌اند، دغدغه‌هایی در رابطه با اخلاقیات حاکم بر توسعه و کاربرد این فناوری‌ها مطرح می‌کند. در واقع، گاهی اوقات، پیشرفت‌های عرصه فناوری را باید به چشم آن‌ چیزی نگریست که «ممکن است» در آینده به ارمغان بیاورند، نه آنچه صرفاً در حال حاضر منعکس می‌کنند.

طی چند روز گذشته، مخالفت‌ها در مورد درک هوش مصنوعی به یک نتیجه رسیده است و جامعه هوش مصنوعی به تجربه و ادعای لیموان پاسخ داده‌اند و بیشترشان بر سر این موضوع توافق نظر دارند که هوش مصنوعی گوگل به هیچ‌وجه به آگاهی نرسیده است. ابیبا بیرهین، از دستیاران ارشد هوش مصنوعی شرکت موزیلا، روز یکشنبه در توییتر نوشت: «وارد دورانی شده‌ایم که زیاد می‌شنویم این شبکه‌ عصبی آگاهی دارد؛ اما این بار، برای رد این فرضیات اشتباه، انرژی خیلی زیادی باید هدر دهیم.»

گری مارکس، بنیان‌گذار و مدیرعامل Geometric Intelligence، هرگونه ادعایی مبنی بر وجود آگاهی و احساسات در LaMDA را «مزخرفات محض» خواند و طی مقاله‌ای توضیح داد که سیستم‌های هوش مصنوعی صرفاً الگوهای موجود را از دیتابیس‌های عظیم زبانی استخراج می‌کنند. مارکس نویسنده چندین کتاب از جمله Rebooting AI: Building Artificial Intelligence We Can Trust (تنظیم دوباره هوش مصنوعی: ساخت هوش مصنوعی‌های قابل‌اعتماد) نیز هست.

بلیک لیموان در پارک گلدن‌ گیت سان‌فرانسیسکو، 9 ژوئن 2022
بلیک لیموان در پارک گلدن‌ گیت سان‌فرانسیسکو، 9 ژوئن 2022

سایر نظرات در مورد درک هوش مصنوعی

پس از اعلام نظرات مخالف در خصوص درک هوش مصنوعی گوگل، سایر نظرات در مورد درک هوش مصنوعی نیز اعلام شد. مارکس طی مصاحبه‌ای با CNN Business، گفته است: «سیستم‌هایی همچون LaMDA را می‌توان نسخه‌ای پرزرق‌وبرق از نرم‌افزارهای تکمیل خودکار متن در گوشی‌های همراه دانست که کلمه بعدی جملات را پیش‌بینی می‌کنند. برای مثال، اگر بنویسیم «خیلی گرسنه‌ام و می‌خواهم بروم به …»، نرم‌افزار کلمه «رستوران» را پیشنهاد می‌دهد. این پیش‌بینی بر اساس اصول آماری انجام می‌گیرد و بدیهی است، هیچ‌ کسی به این فکر نمی‌کند که این نرم‌افزارها خودآگاهی دارند!» پس نتیجه می‌گیریم که در خصوص درک هوش مصنوعی گوگل باید بیشتر بررسی کرد.

گبرو، بنیان‌گذار و رئیس اجرایی مؤسسه پژوهشی Distributed AI یا DAIR، معتقد است که لیموان بازیچه و قربانی شرکت‌هایی شده است که ادعا می‌کنند، تا خلق هوش مصنوعی خودآگاه، یعنی سیستم‌هایی که بتوانند مسائل شبه‌انسانی انجام دهند و به شیوه‌ای معنادار با ما انسان‌ها تعامل برقرار کنند، راه زیادی فاصله نداریم.

وی، به عنوان مثال، به ایلیا ساتسکور، یکی از بنیان‌گذاران و رئیس دانشمندان OpenAI، اشاره می‌کند که این توییت را در ماه فوریه منتشر کرده بود: «احتمالاً می‌توان گفت که شبکه‌های عصبی بزرگ امروزی، مقداری آگاهی دارند.» هفته گذشته، بلیس آگورا ای‌ارکاس، معاون رئیس پژوهش گوگل، برای Economist نوشت: «از سال گذشته، زمانی که شروع به استفاده از LaMDA کردم، روز به روز بیشتر حس می‌کنم با موجودی هوشمند صحبت می‌کنم.»

گبرو می‌گوید: «واقعیت این‌ است که در این عرصه، مسابقه‌ای بر سر استفاده از داده‌های بیشتر و محاسبات بیشتر شکل گرفته است، تا هر کسی بتواند بگوید سیستمی همه‌چیزدان اختراع کرده است که پاسخ همه سؤالات را می‌داند. پس چرا وقتی کسی مثل لیموان در ادعای هوش مصنوعی گوگل افراط می‌کند، تعجب می‌کنیم؟»

از جمله سایر نظرات در مورد درک هوش مصنوعی، نظر خود شرکت گوگل است که در بیانیه‌ای اعلام کرده است: «LaMDA یازده بار از نظر هماهنگی با اصول هوش مصنوعی تحت بازبینی و آزمایشات دقیق و سخت‌گیرانه قرار گرفته است و نتایج به دست آمده، مبتنی بر حقایق هستند. درست است که در جامعه هوش مصنوعی، عده‌ای به دنبال ایجاد هوش مصنوعی عمومی یا خودآگاه هستند، اما این باعث نمی‌شود به مدل‌های مکالمه‌ای امروزی ویژگی‌های انسانی نسبت دهیم. صدها پژوهشگر و مهندس با LaMDA گفت‌وگو کرده‌اند و در این میان، هیچ‌کس دیگری به جز بلیک را ندیده‌ایم که چنین ادعایی بکند.»

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]