
«Diffbot» مدلی را معرفی کرد که به جای حدس، واقعیتها را میداند
پایان توهم در هوش مصنوعی؟
شرکت «Diffbot»، که با ساخت یکی از بزرگترین گرافهای دانش وب در جهان در سیلیکونولی شهرت دارد، از مدل جدید هوش مصنوعی خود رونمایی کرد؛ مدلی که نویدبخش حل یکی از بزرگترین چالشهای این حوزه، یعنی «توهم» یا عدم دقت در اطلاعات است.
این مدل که نسخهای بهینهسازیشده از Llama 3.3 «متا» است، به عنوان اولین پیادهسازی متنباز سیستم نوآورانهای موسوم به GraphRAG (تولید متن افزودهشده با بازیابی از گراف) معرفی شده است.
برخلاف مدلهای متداول که تنها به دادههای آموزشی ثابت و از پیش بارگذاریشده متکی هستند، مدل زبان بزرگ (LLM) جدید «Diffbot» به گراف دانش پویای این شرکت متصل است؛ یک پایگاه داده عظیم که بهطور مداوم با اطلاعات جدید بهروزرسانی میشود و بیش از یک تریلیون واقعیت به هم پیوسته را در خود جای داده است.
«مایک تانگ»، بنیانگذار و مدیرعامل «Diffbot»، در مصاحبهای با «VentureBeat» گفت: «فرضیه ما این است که در نهایت، استدلال عمومی به حدود یک میلیارد پارامتر کاهش خواهد یافت. در واقع، شما نمیخواهید دانش در خودِ مدل محبوس باشد؛ بلکه میخواهید مدل در استفاده از ابزارها مهارت پیدا کند تا بتواند دانش را از منابع خارجی جستجو نماید.»
معماری نوین: اتصال به گراف دانش به جای دانش ایستا
گراف دانش «Diffbot» یک پایگاه داده خودکار و وسیع است که از سال ۲۰۱۶ به طور مداوم در حال پیمایش وب عمومی است. این گراف، صفحات وب را به موجودیتهایی مانند افراد، شرکتها، محصولات و مقالات دستهبندی کرده و با ترکیب بینایی کامپیوتری و پردازش زبان طبیعی، اطلاعات ساختاریافته را استخراج میکند.
هر چهار تا پنج روز، این گراف دانش با میلیونها واقعیت جدید بهروزرسانی میشود تا اطلاعات آن همواره تازه و دقیق باقی بماند. مدل هوش مصنوعی «Diffbot» به جای تکیه بر دانش ثابت و منجمد در دادههای آموزشی خود، با ارسال پرسوجوهای سریع به این گراف، اطلاعات مورد نیاز را بازیابی میکند.
برای مثال، در پاسخ به سوالی درباره یک رویداد خبری اخیر، این مدل میتواند وب را برای آخرین بهروزرسانیها جستجو کند، واقعیتهای مرتبط را استخراج کرده و منابع اصلی را نیز ذکر نماید. این فرآیند به گونهای طراحی شده که سیستم را بسیار دقیقتر و شفافتر از مدلهای زبان بزرگ (LLM) سنتی میسازد.
«مایک تانگ» توضیح میدهد: «تصور کنید از یک هوش مصنوعی درباره وضعیت آبوهوا بپرسید. مدل ما به جای تولید پاسخی بر اساس دادههای آموزشی قدیمی، مستقیماً از یک سرویس آبوهوای زنده پرسوجو کرده و پاسخی بر اساس اطلاعات لحظهای و واقعی ارائه میدهد.»
فراتر از رقبا: نتایج درخشان در آزمونهای ارزیابی واقعیت
آزمونهای معیار نشان میدهند که رویکرد «Diffbot» نتایج درخشانی به همراه داشته است. این شرکت گزارش میدهد که مدل آن در یک آزمون معیار (FreshQA) که توسط «گوگل» برای ارزیابی دانش واقعی و بلادرنگ طراحی شده، به امتیاز ۸۱ درصد دست یافته است. این عملکرد، آن را بالاتر از رقبایی مانند «ChatGPT» و «Gemini» قرار میدهد. همچنین، مدل «Diffbot» در MMLU-Pro، نسخه پیچیدهتر آزمون استاندارد دانش آکادمیک، به امتیاز قابل توجه ۷۰.۳۶ درصد رسیده است.
قدرت در دستان شما: چرا متنباز بودن این مدل یک نقطه عطف است؟
شاید مهمترین نکته این باشد که «Diffbot» مدل خود را کاملاً متنباز کرده است. این ویژگی به شرکتها اجازه میدهد آن را روی سختافزار خودشان اجرا کرده و برای نیازهای خاص خود سفارشیسازی کنند. چنین رویکردی به نگرانیهای فزاینده در مورد حریم خصوصی دادهها و وابستگی به ارائهدهندگان بزرگ هوش مصنوعی پاسخی مستقیم میدهد.
«مایک تانگ» خاطرنشان میکند: «شما میتوانید این مدل را بهصورت محلی روی دستگاه خود اجرا کنید، اما هیچ راهی وجود ندارد که بتوانید «Google Gemini» را بدون ارسال دادههایتان به سرورهای «گوگل» و خارج کردن آنها از محدوده کنترل خودتان اجرا کنید.»
این انتشار در لحظهای کلیدی از توسعه هوش مصنوعی صورت گرفته است. در ماههای اخیر، انتقادات فزایندهای درباره تمایل مدلهای زبان بزرگ به «توهم زدن» یا تولید اطلاعات نادرست مطرح شده است. رویکرد «Diffbot» مسیری جایگزین را پیشنهاد میدهد که به جای تلاش برای کدگذاری تمام دانش بشری در شبکههای عصبی، بر پایهگذاری سیستمهای هوش مصنوعی بر اساس واقعیتهای قابل تأیید بنا شده است.
«مایک تانگ» میگوید: «همه به دنبال مدلهای بزرگتر نیستند. شما میتوانید با رویکردی غیرشهودی مانند رویکرد ما، مدلی داشته باشید که قابلیتهایش از یک مدل بسیار بزرگتر هم فراتر برود.»
متخصصان صنعت معتقدند که رویکرد مبتنی بر گراف دانش «Diffbot» میتواند برای کاربردهای سازمانی که در آنها دقت و قابلیت حسابرسی اهمیت بالایی دارند، بسیار ارزشمند باشد. این شرکت در حال حاضر خدمات دادهای خود را به شرکتهای بزرگی مانند «Cisco» ،«DuckDuckGo» و «Snapchat» ارائه میدهد.
چشمانداز آینده: دانش ساختاریافته به جای شبکههای عصبی غولپیکر
این مدل هماکنون از طریق یک انتشار متنباز در «GitHub» در دسترس است و میتوان آن را از طریق یک دموی عمومی در diffy.chat آزمایش کرد. برای سازمانهایی که میخواهند این مدل را بهطور داخلی اجرا کنند، «Diffbot» اعلام کرده است که نسخه کوچکتر با ۸ میلیارد پارامتر میتواند بر روی یک GPU Nvidia A100 اجرا شود، در حالی که نسخه کامل با ۷۰ میلیارد پارامتر به دو GPU H100 نیاز دارد.
«تونگ» معتقد است که آینده هوش مصنوعی در مدلهای بزرگتر نیست، بلکه در روشهای بهتری برای سازماندهی و دسترسی به دانش بشری نهفته است. او میگوید: «واقعیتها کهنه میشوند. بسیاری از این واقعیتها به مکانهای مشخصی منتقل خواهند شد که در آنها بتوانید دانش را اصلاح کنید و قابلیت ردیابی کامل دادهها را داشته باشید.»
در حالی که صنعت هوش مصنوعی با چالشهای مربوط به دقت و شفافیت دستوپنجه نرم میکند، اقدام «Diffbot» یک جایگزین جذاب برای پارادایم غالب «بزرگتر بهتر است» ارائه میدهد. اینکه آیا این شرکت موفق میشود مسیر این حوزه را تغییر دهد یا نه، هنوز مشخص نیست، اما قطعاً نشان داده است که در دنیای هوش مصنوعی، اندازه همهچیز نیست.