Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 فراهوش مصنوعی در راه است؛ فقط یک سال وقت داریم!

مدیرعامل شرکت Anthropic:

فراهوش مصنوعی در راه است؛ فقط یک سال وقت داریم!

زمان مطالعه: 2 دقیقه

در قلب سان‌فرانسیسکو، جایی که روزی مقر شرکت Slack بود، حالا شرکتی نوظهور با ارزش ۶۰ میلیارد دلار، در تلاش است جهانی تازه بر پایه هوش مصنوعی بسازد. «Anthropic»، رقیب سرسخت OpenAI، به‌دست «داریو آمودئی» و خواهرش دانیلا بنیان‌گذاری شده است؛ کسانی که یک روز یکشنبه پای کنسول بازی Final Fantasy VII می‌نشینند و روز بعد در اتاق‌های شیشه‌ای مقر شرکت‌شان درباره آینده‌ای فکر می‌کنند که در آن ماشین‌ها از همه انسان‌ها باهوش‌تر شده‌اند.

«داریو آمودئی»، زیست‌شناس محاسباتی پیشین و معمار اصلی مدل زبانی اولیه ChatGPT، با اطمینان می‌گوید که «فراهوش مصنوعی» می‌تواند تا سال آینده از راه برسد؛ سامانه‌هایی که توانایی آن‌ها از برندگان نوبل هم فراتر می‌رود. او می‌گوید: «هوش مصنوعی از همه ما در هر کاری بهتر خواهد شد» و این یعنی، بازآرایی کامل ساختارهای اقتصادی و اجتماعی، درست مثل آنچه در انقلاب صنعتی رخ داد.

اما آمودئی بر این باور است که این آینده لزوماً فاجعه‌بار نخواهد بود، اگر از حالا برایش آماده شویم. او و همکارانش در Anthropic از همان ابتدا، تیمی را مأمور کردند تا بدترین سناریوها را در مورد سوءاستفاده از هوش مصنوعی طراحی و برای آن‌ها چاره‌جویی کنند. نتیجه این رویکرد محتاطانه، توسعه‌ی مفهومی به نام «هوش مصنوعی قانون‌مند» (Constitutional AI) بود؛ مدلی تربیت‌شده براساس منشور حقوق بشر و قوانین شرکت‌هایی چون اپل، که توسط یک هوش مصنوعی دوم زیر نظر گرفته می‌شود تا از خط قرمزها عبور نکند.

با وجود این‌که Anthropic خودش را «آزمایشگاه ایمنی هوش مصنوعی» می‌نامد، اما با سرعتی سرسام‌آور به سمت توسعه‌ی مدل‌های جدید و نفوذ در بازار جهانی پیش می‌رود. ربات چت «Claude»، که محصول اصلی این شرکت است، اکنون در بسیاری از آزمون‌های صنعتی از ChatGPT پیشی گرفته و حتی قابلیت‌های مستقلی مانند کنترل ماوس و انجام خودکار کارها را هم دارد. اما همه از این سرعت‌گیری راضی نیستند.

«جک کلارک»، رئیس سیاست‌گذاری شرکت، هشدار می‌دهد که «لحظه‌های شوکه‌کننده» در سال پیش‌رو در راه‌اند. او می‌گوید: «قورباغه در حال پختن است. مردم متوجه تغییرات آهسته ولی عظیم نشده‌اند و حالا وقت آن است که با واقعیت مواجه شویم.»

در این میان، نقطه قوت Anthropic آن است که خود را مدافع رویکردی ایمن، شفاف و مسئولانه معرفی می‌کند. حتی برنامه‌ای به نام «سیاست توسعه مسئولانه» تدوین کرده‌اند که اگر مدل‌های هوش مصنوعی آن‌ها رفتارهای خطرناک یا فاجعه‌آمیز از خود نشان دهند، روند آموزش فوراً متوقف خواهد شد.

اما سوال اینجاست: شرکتی با سرمایه‌گذاران میلیارد دلاری مانند آمازون، گوگل و حتی «سم بنکمن-فرید»، تا چه اندازه می‌تواند به آرمان‌های اخلاقی پایبند بماند؟ پاسخ کلارک جالب است: «اگر می‌خواهی در سیاست‌گذاری اثرگذار باشی، اول باید یک شرکت موفق باشی.»

از سوی دیگر، داریو آمودئی تصویر امیدوارکننده‌ای هم ارائه می‌دهد. او در مقاله‌ای مفصل با عنوان «ماشین‌های بخشنده»، سناریویی را ترسیم می‌کند که در آن هوش مصنوعی نه تنها تهدید نیست، بلکه ابزاری است برای جهش در علم، درمان بیماری‌ها، افزایش طول عمر و حتی حل معمای سرطان. او می‌گوید: «هوش مصنوعی، یک کشور پر از نوابغ در یک مرکز داده است.»

«مایک کریگر»، یکی از بنیان‌گذاران اینستاگرام که حالا مدیر محصول Anthropic است، با نگاهی واقع‌گرایانه هشدار می‌دهد که مثل تجربه شبکه‌های اجتماعی، ممکن است اثرات عمیق هوش مصنوعی سال‌ها بعد خودش را نشان دهد. اما برخلاف شبکه‌های اجتماعی، منحنی پذیرش هوش مصنوعی به‌شدت تندتر است. و در کلام آخر داریو می‌گوید: «در هر مرحله، خطراتی وجود دارد.»

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]