تأثیر هوش مصنوعی برانتشارات علمی چگونه است؟
سیل «زبالههای اطلاعاتی»
تصویری از یک موش با اعضای غیرطبیعی و بزرگ و تصویری از پاهای انسانی با تعداد استخوانهای بیش از حد، نمونههایی بارز از استفادههای هوش مصنوعی هستند که به تازگی به مجلات علمی راه یافتهاند. کشف این موارد، نوری بر روی موج متن و تصاویری که توسط هوش مصنوعی تولید میشوند، میتابانند و تأثیر آن بر صنعت انتشارات علمی را نشان میدهند.
مقالات تقلبی
چند تن از محققین که به بررسی مشکلات موجود در مطالعات میپردازند، به خبرگزاری فرانسه اعلام کردند که ظهور هوش مصنوعی، چالشهای موجود در این حوزه چند میلیارد دلاری را تشدید کرده است. تمامی کارشناسان بر این نکته تأکید کردند که ابزارهای هوش مصنوعی نظیر ChatGPT میتوانند به عنوان ابزاری کارآمد برای نوشتن یا ترجمه مقالات مورد استفاده قرار گیرند، مشروط بر اینکه به طور کامل مورد بررسی و ارزیابی قرار گیرند. اما این موضوع در مورد چندین مورد اخیر که به نوعی از ارزیابی همتا فراتر رفتهاند، صدق نمیکند.
در اوایل سال جاری، یک تصویر واضح که توسط هوش مصنوعی از یک موش با اندام تناسلی به طور غیرمعمول بزرگ تولید شده بود، به طور گسترده در شبکههای اجتماعی منتشر شد. این تصویر در مجله معتبر دانشگاهی فرانتیرز (Frontiers) به چاپ رسید، اما بعداً این مطالعه پس گرفته شد.
مدتی قبل، یک مطالعه دیگر به دلیل تصویری از هوش مصنوعی که پاهایی با استخوانهای چند مفصلی غیرعادی شبیه به دست را نمایش میداد، رد شد.
در حالی که این نمونهها به صورت تصاویر ارائه شدهاند، به نظر میرسد که ChatGPT، چتباتی که در نوامبر ۲۰۲۲ معرفی شد، بیشترین تأثیر را بر نحوه ارائه نتایج پژوهشگران در سطح جهانی داشته است.
مطالعهای که در ماه مارس توسط الزویر (Elsevier) منتشر شد، به دلیل مقدمهای که به وضوح برای نوشتنش از ChatGPT گرفته شده بود و جملهای مانند «مطمئناً، این یک مقدمه احتمالی برای موضوع شماست» را شامل میشد، به سرعت در فضای مجازی مورد نقد قرار گرفت.
چندین کارشناس به خبرگزاری فرانسه اعلام کردند که اینگونه موارد شرمآور نادر هستند و احتمال اینکه از فرآیند بررسی همتا در معتبرترین نشریات عبور کنند، بسیار کم است.
مبارزه با کارخانههای مقاله
شناسایی استفاده از هوش مصنوعی همیشه کار سادهای نیست. با این حال، یکی از نشانهها این است که ChatGPT معمولاً به استفاده از کلمات خاصی تمایل دارد.
«اندرو گری»، کتابدار دانشگاه کالج لندن، به تحلیل میلیونها مقاله پرداخت تا مواردی را که در آنها از کلماتی مانند دقیق، پیچیده یا ستودنی به طور مکرر استفاده شده است، شناسایی کند.
او مشخص کرد که در سال ۲۰۲۳ حداقل ۶۰ هزار مقاله شامل استفاده از هوش مصنوعی بوده است که بیش از یک درصد از مجموع مقالات سالانه را تشکیل میدهد. گری به خبرگزاری فرانسه اعلام کرد: «در سال ۲۰۲۴، افزایش قابلتوجهی در تعداد مقالات خواهیم داشت.»
در همین راستا، بر اساس اطلاعات ارائه شده توسط گروه راهاندازی بازخوانی مستقر در ایالات متحده، در سال گذشته بیش از ۱۳ هزار مقاله پس گرفته شد که این تعداد، بالاترین رقم ثبت شده در تاریخ محسوب میشود.
«ایوان اورانسکی»، یکی از بنیانگذاران پلتفرم Retraction Watch، به خبرگزاری فرانسه اعلام کرد که هوش مصنوعی به افراد نادرست در حوزه انتشارات علمی و دانشگاهی این امکان را داده است که مقالات بیکیفیت را به صورت صنعتی تولید کنند.
این افراد کسانی هستند که به عنوان کارخانههای تولید مقاله شناخته میشوند.
«الیزابت بیک»، پژوهشگر هلندی که به شناسایی دستکاریهای علمی در تصاویر میپردازد، اظهار میکند: «این «کلاهبرداران» نویسندگی را به پژوهشگران میفروشند و به تولید انبوهی از مقالات بیکیفیت، سرقت ادبی یا جعلی اقدام میکنند.»
به نظر میرسد که تنها دو درصد از مجموع مقالات علمی توسط ناشران صنعتی منتشر میشوند، اما بیک به خبرگزاری فرانسه اعلام کرد که با ورود هوش مصنوعی، این نرخ به طور چشمگیری در حال «انفجار» است.
این مسئله زمانی به وضوح نمایان شد که غول انتشارات علمی «انتشارات وایلی» در سال ۲۰۲۱، ناشر پرچالش هنداوی را خرید.
یک نماینده از شرکت وایلی به خبرگزاری فرانسه اعلام کرد که این شرکت آمریکایی از آن زمان بیش از ۱۱ هزار و ۳۰۰ مقاله مرتبط با شمارههای ویژه هنداوی را پس گرفته است.
وایلی اکنون یک «سرویس شناسایی مقالات تولید شده توسط هوش مصنوعی» را معرفی کرده است که به طور کامل با پشتیبانی هوش مصنوعی عمل میکند.
چرخه معیوب
اورانسکی بر این نکته تأکید کرد که مشکل تنها به کارخانههای مقاله محدود نمیشود، بلکه به یک فرهنگ آکادمیک وسیعتر مربوط میشود که محققان را به انتخاب بین «انتشار یا نابودی» وادار میکند.
او بیان کرد: «ناشران با راهاندازی این سیستمها که نیاز به حجم بالا دارند، توانستهاند ۳۰ تا ۴۰ درصد حاشیه سود و میلیاردها دلار درآمد کسب کنند.»
او بیان کرد که تقاضای بیپایان برای مقالات، فشار زیادی بر دانشگاهیان وارد میآورد که بر اساس تولیدات خود ارزیابی میشوند و این امر منجر به شکلگیری یک «چرخه معیوب» میشود.
بسیاری از افراد به منظور صرفهجویی در زمان، به استفاده از ChatGPT روی آوردهاند که این موضوع لزوماً منفی نیست.
بیک اظهار داشت که با توجه به این که تقریباً تمامی مقالات به زبان انگلیسی منتشر میشوند، ابزارهای ترجمه مبتنی بر هوش مصنوعی میتوانند برای محققانی که زبان انگلیسی زبان اولشان نیست، از جمله خودش، بسیار مفید و ارزشمند باشند.
با این حال، نگرانیهایی وجود دارد که خطاها، اختراعات و سرقت ادبی غیرعمدی ناشی از هوش مصنوعی ممکن است به تدریج اعتماد جامعه به علم را کاهش دهد.
یک نمونه دیگر از سوءاستفاده از هوش مصنوعی در هفته گذشته اتفاق افتاد، زمانی که یک محقق متوجه شد که نسخه بازنویسی شدهای از یکی از تحقیقات خود توسط ChatGPT در یک نشریه علمی منتشر شده است.
«ساموئل پین»، استاد بیوانفورماتیک در دانشگاه بریگام یانگ واقع در ایالات متحده، به خبرگزاری فرانسه اعلام کرد که در ماه مارس از او درخواست شده بود تا این تحقیق را مورد بررسی قرار دهد.
پس از اینکه متوجه شد این تحقیق به طور کامل از مطالعه خودش کپیبرداری شده است، هرچند که متن به نظر میرسد توسط یک برنامه هوش مصنوعی بازنویسی شده باشد، او مقاله را رد کرد.
پین اظهار داشت که از این که متوجه شد کار سرقت شدهاش به راحتی در یک مجله جدید به نام Proteomics که متعلق به وایلی است، منتشر شده، «شگفتزده» شده است. این مقاله هنوز پس گرفته نشده است.