
هوش مصنوعی، آینده گوگل را تعریف میکند، اگر مشکلات مدیریتی بگذارند!
سوندار پیچای، مدیرعامل هولدینگ آلفابت، قمار بزرگی بر روی هوش مصنوعی انجام داده است، این فناوری قرار است نقش پررنگی در آینده شرکت ایفا کند. آلفابت قرار است میلیاردها دلار سرمایهگذاری کند تا این فناوری را در بخشهای مختلف این هولدینگ بزرگ به کار بگیرد. اکنون، این موضوع به یکی از پیچیدهترین چالشهای مدیریتی آنها تبدیل شده است. در طی ۱۸ ماه گذشته، هلدینگ آلفابت قدم در مسیری گذاشته که باعث شده تا جنجالها و مباحث زیادی را با محققان و مدیران ارشد خود در زمینه هوش مصنوعی و آینده گوگل داشته باشد.
در یکی از مهمترین این وقایع، ماه گذشته گوگل و یکی از محققان برجسته هوش مصنوعی، یعنی تیمیت گبرو راهشان از یکدیگر جدا شد. این مساله بعد از انتقادهای گبرو درباره رویکرد این شرکت به هوش مصنوعی رخ داد. یافتههای تحقیق او نشان داد که هوش مصنوعی آینده گوگل در به کارگیری چنین فناوری قدرتمندی به اندازه کافی محتاط نبوده و در مورد تأثیرات منفی زیست محیطی ِ ابررایانهها بیتفاوت بوده است.
بعد از اینکه این جدایی سروصدای زیادی به پا کرد، سوندار پیچای متعهد شد که در مورد دلایل جدایی این محقق از گوگل تحقیق میکند و ادامه داد که وی در پی جلب اعتماد است. جف دین، رئیس خانم گبرو به کارمندان گفت که او معتقد است تحقیق گبرو به اندازه کافی دقیق نبوده است.
بعد از این ماجرا تقریباً ۲۷۰۰ کارمند گوگل در نامهای سرگشاده به اخراج گبرو اعتراض کردند و گفتند که این رفتار، زنگ خطری برای افرادی است که بر روی مباحث مربوط به انصاف و اخلاق هوش مصنوعی به ویژه افراد سیاه پوست و افراد رنگین پوست کار میکنند.
هفته پیش نیز گوگل اعلام کرد که در حال تحقیق درباره رئیس بخش هوش اخلاقی شرکت، مارگارت میچل است. میچل متهم است اسناد داخلی شرکت را با افراد خارج از مجموعه به اشتراک گذاشته است. خانم میچل که از آقای پیچای در توییتر به دلیل برخورد وی با موضوعات مربوط به تنوع نژادی انتقاد کرده است تاکنون به درخواستها، برای اظهار نظر در این مورد پاسخ نداده است.
رویکرد مجموعه آلفابت نسبت به هوش مصنوعی همیشه زیر ذرهبین بوده است زیرا این هلدینگ همواره به عنوان یکی از مجموعههای پیشرو در حمایت از تحقیقات داخلی و خارجی و توسعه برنامههای جدید برای این فناوری، از بلندگوهای هوشمند گرفته تا دستیاران مجازی، شناخته میشود.
این حوزه نوپا باعث به وجود آمدن سوالات پیچیدهای در مورد تأثیر فزاینده الگوریتمها در طیف گستردهای از زندگی عمومی و خصوصی شده است. گوگل در پی آن است تا خود را به عنوان یک مرجع معتبر در مورد هوش مصنوعی اخلاقی بشناساند.
آقای پیچای سال گذشته در یک همایش در بروکسل گفت: تاریخ پر از نمونههایی است که نشان میدهد تکنولوژی همواره اصول اخلاقی را رعایت نکرده است. در حالی که هوش مصنوعی نوید مزایای بسیار زیادی را برای اروپا و جهان میدهد، اما نگرانیهای واقعی در مورد پیامدهای منفی بالقوه وجود دارد. فشار گوگل برای پیشرفت در هوش مصنوعی از طریق تصاحب شرکتهای دیگر نیز بر چالشهای مدیریتی آن افزوده است.
در اقدامی که به تازگی فاش شده است، مصطفی سلیمان از بنیانگذاران دیپمایند که اکنون به عنوان بازوی هوش مصنوعی و آینده گوگل شناخته میشود، اواخر سال ۲۰۱۹ از بیشتر مسئولیتهای خود کنار گذاشته شد. این اتفاق پس از آن رخ داد که شکایتهای زیادی در مورد رفتار آزادهندهی وی با کارکنان انجام شد.
پس از این سروصداها، دیپ مایند یک شرکت حقوقی را استخدام کرد تا در مورد شکایات مطرح شده یک تحقیق مستقل انجام دهد. در پایان سال ۲۰۱۹، آقای سلیمان به یک نقش اجرایی متفاوت در تیم متخصص هوش مصنوعی گوگل منتقل شد.
دیپ مایند و گوگل در بیانیهای مشترک، انجام تحقیق در مورد رفتار آقای سلیمان را تأیید کردند اما از بیان نتایج این تحقیق امتناع کردند. در این بیانیه آمده بود که در نتیجه این تحقیق آقای سلیمان در حال کسب آموزشهای حرفهای است تا بار دیگر شاهد چنین رفتارهایی نباشیم. این آموزشها کماکان ادامه دارند و اکنون آقای سلیمان هیچ تیم بزرگی را هدایت نمیکند.
شرکتها معتقدند که نقش فعلی آقای سلیمان در گوگل، به عنوان معاون رئیس سیاست هوش مصنوعی باعث میشود وی کمکهای ارزندهای در سیاست و مقررات هوش مصنوعی انجام دهد.
آقای سلیمان در مصاحبهای با وال استریت ژورنال گفت: من میپذیرم که به عنوان یکی از بنیانگذاران دیپمایند افراد را بیش از حد آزرده خاطر کردهام و بعضی اوقات سبک مدیریتی من سازنده نبوده است. او افزود: من بدون هیچ اما و اگری از کسانی که تحت تأثیر رفتار من قرار گرفتهاند عذرخواهی میکنم.
با این حال انتصاب آقای سلیمان در یک نقش برجسته در آینده گوگل برخی از کارمندان دیپمایند را ناراحت کرده است. آقای دین در توییتی به سلیمان برای ورودش به گوگل خوشامد گفته است. در این توییت آمده: من مشتاقانه منتظر همکاری بیشتر با شما هستم.
بر خلاف جستجوی گوگل، که در آن هوش مصنوعی برای سازماندهی مجدد و نمایش اطلاعات به کار گرفته میشود، تمرکز عمده دیپمایند بر روی مسائل مربوط به سلامت از جمله جمعآوری دادههای بیماران و کشف روشهای جدیدی برای درمان بیماریها است. دیپمایند تلاش میکند تا انتظارات مالی را برآورده کند. بر اساس گزارش ماه گذشته، در سال ۲۰۱۹ دیپمایند ضرری به ارزش ۶۴۹ میلیون دلار را تجربه کرده است. همچنین در همین مدت، گوگل بیش از ۱ میلیارد دلار به این مجموعه کمک مالی کرده است.
گوگل همواره در تلاش بوده تا نظارت گستردهتری بر پروژههای هوش مصنوعی خود انجام دهد.
دیپمایند یک هیئت بررسی مستقل داشت که کار آن بررسی دقیق مجموعه و تهیه گزارش سالانه عمومی بود. این هیئت در اواخر سال ۲۰۱۸ و پس از آنکه اعضای آن از دسترسی کامل به تحقیقات و برنامههای استراتژیک دیپ مایند منع شدند، منحل شد. یک ماه بعد، یک شورای اخلاقی هوش مصنوعی که توسط گوگل ایجاد شده بود به دنبال درخواست کارمندان و سایر اعتراضات به گرایشات دست راستی اعضای این شورا منحل شد.
سخنگوی گوگل در آن زمان گفت که این شرکت روشهای مختلفی را برای شنیدن نظرات دیگران درباره این موضوعات پیدا خواهد کرد. تلاشهای اولیه گوگل برای به کارگیری هوش مصنوعی حداقل به یک دهه قبل برمیگردد و این حوزه از سال ۲۰۱۷ به عنوان یک بخش مستقل تحت مدیریت آقای دین بوده است.
پیچای در همان سال ساختار جدید شرکت را اعلام کرد و گفت که هوش مصنوعی در استراتژی و عملیات شرکت، با محاسبات پیشرفته که یادگیری ماشینی نیز نامیده میشود در سرتاسر شرکت وجود خواهد داشت.
در همین زمینه پدرو دومینگوس، استاد علوم کامپیوتر دانشگاه واشنگتن میگوید که گوگل به خوبی به بسیاری از مشکلات مرتبط به هوش مصنوعی آگاه است. او به یاد دارد که جان هنسی رئیس هیئت مدیره آلفابت، همزان با تشدید فعالیتهای گوگل در حوزه هوش در مورد این فناوری ابراز نگرانی کرده بود. آقای دومینگوس میگوید هنسی به او گفت هرگونه اشتباهی که از هوش مصنوعی سر بزند حتی در شرکتهای دیگر، گوگل مقصر خواهد بود.
در همین زمینه هنسی گفت که جزئیات مکالمه را به خاطر نمیآورد اما گفت که خاطره آقای دومینگوس احتمالاً درست است.
یک از اولین اشتباهات هوش مصنوعی گوگل در سال ۲۰۱۵ اتفاق افتاد. در این سال چند کاربر سیاهپوست در کمال تعجب دیدند که یک نرمافزار عکاسی این شرکت که مبتنی بر هوش مصنوعی بود به طور خودکار عکسهای آنها را با نام «گوریل» برچسپگذاری کرد، صرفا به این دلیل که رنگ پوست آنها سیاه بود.
بعد از این رسوایی گوگل عذرخواهی کرد و این مشکل را برطرف کرد. این شرکت وعده داد که تمام تلاش خود را به منظور جلوگیری از تکرار اتفاقات این چنینی به کار خواهد بست. یکی از این تلاشهای این شرکت، استخدام محققانی مانند خانم گبرورئیس سابق تیم هوش مصنوعی اخلاقی این شرکت بود که در مورد محدودیتهای نرمافزار تشخیص چهره در شناسایی افراد با پوست تیره، تحقیقات و اظهارات مختلفی انجام داده بود.
او یکی از صدها کارمندی بود که گاهی اوقات با موسسات دانشگاهی در زمینه هوش مصنوعی تحقیقات انجام میداد. برخلاف سایر مهندسان گوگل، گروه هوش مصنوعی بیشتر شبیه به یک واحد دانشگاهی است. آنها وظیفه دارند به جای عیبیابی محصولات، در مورد موضوعات اساسیتر بحث کنند.
رویترز بعداً گزارش داد که قبل از جدایی خانم گبرو، گوگل بر موضوعات حساس نظارت میکرد و حداقل در سه مورد از کارمندان خود خواسته بود که از فناوریهای هوش مصنوعی انتقاد نکنند. گوگل از اظهارنظر در این باره خودداری کرد و خانم گبرو و آقای دین نیز به درخواستها برای اظهار نظر در این مورد پاسخی ندادند.
گوگل میگوید که پیشرفتهای این شرکت در حوزه هوش مصنوعی به ایجاد نتایج جستجوی سریعتر و دقیقتر و همچنین تبلیغات مرتبطتر کمک کرده است.
آقای دومینگوس معتفد است که بیشتر مشکلات آینده گوگل در رابطه با هوش مصنوعی ریشه در رویکرد این شرکت به مدیریت کارکنان دارد. او میافزاید علم باید بحثهای اخلاقی را هدایت کند، نه ایدئولوژی.
به هرحال جدایی خانم گبرو چالش مدیریت را در آینده گوگل برجستهتر کرد. زیرا دو طرف حتی نمیتوانند در مورد نحوه این جدایی توافق کنند. گوگل میگوید وی استعفا داده است و گبرو میگوید او را در حین تعطیلات اخراج کردهاند.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.