بررسی هوش مصنوعی در حوزه پزشکی در وبینار نقد و تحلیل هوش مصنوعی از منظر فلسفه پزشکی
وبینار کشوری «نقد و تحلیل هوش مصنوعی از منظر فلسفه پزشکی» با همت معاونت آموزشی وزارت بهداشت، پژوهشکده مطالعات فلسفی و تاریخ علم پژوهشگاه انسانی و موزه ملی تاریخ علوم پزشکی با حضور متخصصان حوزه فلسفه پزشکی احمدرضا همتی مقدم، حمیدرضا نمازی و علیرضا منجمی برگزار شد و سخنرانان به نقد و بررسی هوش مصنوعی در حوزه پزشکی پرداختند.
به گزارش هوشیو به نقل از خبرگزاری مهر، علیرضا منجمی، دبیر علمی وبینار، هوش مصنوعی در حوزه پزشکی را به سه محور تقسیم کرد: «محور اول تأملات فلسفی هستند که از چارچوب فلسفه ذهن بهره میبرند و بیشتر در اردوگاه فلسفه تحلیلی جای دارند و در این وبینار آرا کاظم صادقزاده، یکی از فیلسوفپزشکهای مطرح دنیا، تقریر و نقد میشود. محور دوم رهیافتهای فلسفه تکنولوژی و تأمل در پیامدهای فناوری هوش مصنوعی در حوزه پزشکی است که البته بیشتر متأثر از فلسفه قارهای است و در این بخش آرا هایدگر، برگمان و دریفوس در هوش مصنوعی در حوزه پزشکی صورتبندی خواهد شد. محور سوم هم جنبههای حقوقی-اخلاقی هوش مصنوعی در حوزه پزشکی است که از منظر فلسفه حقوق و فلسفه اخلاق موردبررسی قرار گرفت.»
احمدرضا همتیمقدم
احمدرضا همتی مقدم دیگر فرد حاضر در این مراسم بود که درباره آرا کاظم صادقزاده با عنوان «هوش مصنوعی در پزشکی؟» صحبت کرد: «سؤال اصلی صادقزاده این است که وضعیت هوش مصنوعی در آینده پزشکی چطور خواهد بود و آیا آثار مثبت و منفی به همراه دارد یا نه؟ او در ابتدا میان هوش مصنوعی و هوش انسانی تمایز قائل میشود و خصوصیات هریک را توضیح میدهد و بعد هدف و حیطه هوش مصنوعی را واکاوی میکند. درنهایت هم نشان میدهد که تحقق هوش مصنوعی در حوزه پزشکی ممکن است، تابهحال هم ابعادی از آن محقق شده است.»
علیرضا منجمی
سپس علیرضا منجمی به نقد و تحلیل هوش مصنوعی در حوزه پزشکی از منظر فلسفه تکنولوژی پرداخت و از منظر هایدگر به هوش مصنوعی در حوزه پزشکی اشاره کرد: «در نگاه هایدگر هوش مصنوعی پزشکی ابزاری در دست ما نیست، بلکه این فناوری نسبتی باوجود آدمی و جهان برقرار میکند که هایدگر به آن گشتل (داربست یا استخوانبندی) میگوید و در آن طبیعت انسانی بهعنوان منبع لایزال انرژی قابل استخراج ذخیره به نظم درمیآید. من با برگمان همدل هستم که نگاه هایدگر ستایش تکنولوژی پیشامدرن است و بهنوعی نوستالژی، نفرت از تکنولوژی مدرن و بیعملی میانجامد. از طرفی رویکرد هایدگر به تکنولوژی، فردی و بیتوجه به عوامل اجتماعی است. به همین دلیل برگمان با پیشنهاد دو مفهوم اشیا کانونی و فعالیتهای کانونی در تلاش است تا این نقیصه را مرتفع کند. اشیا کانونی حضوری گردآورنده دارند: هم ذهن و بدن ما را به هم پیوند میدهند و هم ما را در قالب انجام یک عمل با دیگران گرد هم میآورد. خطر ورود هوش مصنوعی به حوزه پزشکی مضمحل کردن طبابت بهمثابه یک فعالیت کانونی است که در آن پزشک و بیمار در ارتباطی پیوسته و دوسویه درپی حل مشکلات بیمار و کاهش درد و رنج او هستند. به همین دلیل هوش مصنوعی در حوزه پزشکی قابلیت دارد بحران انسانزدایی پزشکی مدرن را عمیقتر کند.»
[irp posts=”23633″]او در پایان گفت: «دریفوس با خوانش هایدگری نشان میدهد که علیالاصول هوش مصنوعی نمیتواند جایگزین پزشک شود، چون نه دانش مورد نیاز طبابت، از جنس چگونه انجام دادن چیزی است و نه از جنس دانش گزارهای و جهانشمول و هم هوش مصنوعی پزشکی فاقد بدن، تاریخ و فرآیند اجتماعپذیری است.»
حمیدرضا نمازی
در ادامه وبینار حمیدرضا نمازی، عضو هیئت علمی دانشگاه علوم پزشکی تهران، به ارائه پرسشهایی از منظر فلسفه اخلاق و فلسفه حقوق به چالش در جبرانگاری هوش مصنوعی پرداخت: «اینکه بیماران آیا طبق اصل احترام به اتونومی، محقاند که طرح درمانی و تشخیص برآمده از هوش مصنوعی را بهکلی رد کنند امری پرمناقشه در اخلاق پزشکی است. ضرر رساندن به سایر بیماران، تأخیر در درمان و مخدوش کردن اتونومی پزشک و بار کردن هزینههای اضافی بر سیستم بهداشتی درمانی، دلایل آیندهنگرانهای هستند که امکان رد هوش مصنوعی توسط بیمار را به چالش میکشد. همچنین مباحثی مانند ترجیحات غیرپزشکی بیمار و نقش بیبدیل طبیب در شناسایی آنها دلیلی است که علیه ذوقزدگی و پذیرش تام هوش مصنوعی لحاظ ترجیحات غیرپزشکی در سیستم هوش مصنوعی، محرمانگی و حریم خصوصی را هدف خواهد گرفت و از سویی به جز شرحهشرحه کردن حریم خصوصی امکان تصمیمسازی بالینی وجود نخواهد داشت. هوش مصنوعی به همان اندازه که از پیچیدگیهای ریاضی سربلند بیرون میآید، در مواجهه با امور ساده مانند درک و فهم و معنایابی ناتوانی نشان داده است. بسیاری از مؤلفههای طبابت در دسته دوم قرار میگیرند. در پایان با بررسی گایدلاینها و راهنماییهای اخلاقی و حقوقی، بحث شد که هنوز اتحادیه اروپا، هوش مصنوعی را بهمثابه شخصیت حقوقی و مسئول به رسمیت نمیشناسد. از این رو نوعی ابهام اخلاقی به چشم تعارضات و دوراهههای اخلاقی ناتواناند. شاید راهنماهای اخلاقی را بتوان صرفاً در نقش مشاورینی دید که کلی سخن میگویند و از حل مسئله ناتواناند.»
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید