Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 شرکت‌هایی که اجازه استفاده از هوش مصنوعی را به توسعه‌دهندگان نمی‌دهند، موفق نخواهند شد

شرکت‌هایی که اجازه استفاده از هوش مصنوعی را به توسعه‌دهندگان نمی‌دهند، موفق نخواهند شد

زمان مطالعه: 3 دقیقه

سال گذشته، اپل، آمازون و سامسونگ اعلام کردند که به کارمندان خود اجازه استفاده از ابزارهایی مانند ChatGPT را برای کارهای داخلی نمی‌دهند و دلیل آن را مسائل حریم خصوصی عنوان کردند. در عین حال، این شرکت‌ها نیز در حال توسعه ابزارهای خود بودند که کارمندان از آن‌ها استفاده می‌کردند. به نظر می‌رسد این رویکرد، راه مناسبی برای پذیرش هوش مصنوعی در شرکت‌ها باشد.

با این حال، شرکت‌ها در استفاده از ابزارهای کدنویسی هوش مصنوعی بسیار محتاط بوده‌اند، زیرا نگران حریم خصوصی و امنیت کدهای داخلی خود هستند. برای مقابله با این مشکل، بسیاری از شرکت‌ها شروع به استفاده از مدل‌های منبع باز کرده و آن‌ها را برای استفاده داخلی خود بهینه‌سازی کرده‌اند تا برای کارمندان خود لایه‌ای از اعتماد ایجاد کنند.

یک مطالعه از Checkmarx نشان داد که ۹۹ درصد از تیم‌های توسعه‌دهنده از ابزارهای کدنویسی هوش مصنوعی استفاده می‌کنند. با این حال، ۱۵ درصد از شرکت‌هایی که مورد بررسی قرار گرفتند، به‌صراحت استفاده از این ابزارها را ممنوع کرده‌اند. این نشان می‌دهد که حتی در شرکت‌هایی که ممنوعیت وجود دارد، بسیاری از توسعه‌دهندگان به طور مخفیانه از این ابزارها استفاده می‌کنند.

همچنین هنوز صدها شرکت وجود دارند که نگران هستند و اجازه استفاده از مدل‌های هوش مصنوعی را به توسعه‌دهندگان خود نمی‌دهند. مشکل این است که به گفته «سانتیاگو والدرااما»: «شرکت‌هایی که اجازه استفاده از هوش مصنوعی را به توسعه‌دهندگان خود نمی‌دهند، موفق نخواهند شد.»

هوش مصنوعی شخصی خود را بیاورید

«سرگئی برین»، یکی از بنیان‌گذاران و رئیس سابق شرکت مادر گوگل؛ آلفابت می‌گوید: «اکنون نوشتن کد از صفر بسیار سخت‌تر از این است که از هوش مصنوعی بخواهید آن را برایتان انجام دهد.» برین ادامه می‌دهد: «من چند خطی کد نوشتم فقط برای تفریح و گاهی اوقات هوش مصنوعی این کار را برایم انجام داد که خیلی جالب بود.»

او افزود که توسعه‌دهندگان به اندازه‌ای که باید از ابزارهای هوش مصنوعی برای کدنویسی استفاده نمی‌کنند. این واقعاً درست است، زیرا گفته شده که یک توسعه‌دهنده که هوش مصنوعی را می‌شناسد، بهتر از پنج توسعه‌دهنده‌ای است که آن را نمی‌شناسند.

شرکت‌ها در حال آزمایش ابزارهای هوش مصنوعی هستند و نتایج نشان می‌دهد که این ابزارها باعث افزایش بهره‌وری می‌شوند. با ابزارهایی مثل Cursor، Zed و به‌روزرسانی‌های جدید GitHub Copilot، به نظر می‌رسد که اجازه ندادن به توسعه‌دهندگان برای استفاده از این ابزارها، یک فرصت از دست رفته باشد.

به طور هم‌زمان، توسعه‌دهندگان نباید منتظر بمانند که شرکت‌ها ابزارهای هوش مصنوعی را خریداری کنند. با توجه به اینکه صحبت‌ها در مورد «Cursor + Claude = مهندس جوان» در حال افزایش است، ضروری است که توسعه‌دهندگان مهارت‌های خود را افزایش دهند. «کلسه هایتاور» گفت: «نمی‌دانم آیا هوش مصنوعی قرار است جایگزین توسعه‌دهندگان شود یا خیر، اما مطمئنم که هوش مصنوعی به طور مستقیم با توسعه‌دهندگانی که فقط کد می‌نویسند، رقابت خواهد کرد.»

برای شرکت‌ها که از این توسعه‌دهندگان تشکیل شده‌اند، ضروری است که اجازه استفاده از ابزارهای کدنویسی هوش مصنوعی را بدهند. به‌عنوان مثال، برآوردها نشان می‌دهد که حدود ۵۰ درصد از کدهای مایکروسافت به‌وسیله هوش مصنوعی نوشته می‌شود که طبق اظهارات برین این موضوع در مورد گوگل نیز قابل‌مشاهده است.

این موضوع به‌روشنی نشان می‌دهد که شرکت‌های بزرگ و موفق از هوش مصنوعی در کارهای خود استفاده می‌کنند. در واقع این امر باید زنگ خطری برای سایرین باشد.

مشکل چیست؟

تأمین‌کنندگان در حال بهبود مهارت‌های نیروی کار خود به‌ویژه در توسعه کد به کمک بسیاری از این ابزارهای هوش مصنوعی هستند و به مسائل امنیتی و انطباق توجه می‌کنند. این موضوع مربوط به عقب‌افتادگی نیست، بلکه استفاده از این راه‌حل‌ها برای افزایش کارایی و بهره‌وری نیروی کار خود است تا راه‌حل‌های بهتری به مشتریان خود ارائه دهند و در عین حال نگرانی‌های امنیتی، انطباق و حریم خصوصی را برطرف کنند.

بزرگ‌ترین مشکل در عدم‌پذیرش ابزارهای هوش مصنوعی، امنیت است و نگرانی در مورد «پاسخ‌های نادرست» وضعیت را بدتر می‌کند. رهبران IT و امنیت نگران پاسخ‌های نادرست، افشای اطلاعات شخصی، اسرار تجاری و مالی هستند. البته بسیاری از کارمندان همچنان به دلیل منافع محسوس این ابزارها، به استفاده از آن‌ها ادامه می‌دهند.

در پلتفرم Redit یک بحث شکل گرفت که طی آن یکی از کاربران اشاره کرد که گروهی از مدیران فناوری (CTOها) هنوز درباره اجازه دادن به توسعه‌دهندگان برای استفاده از هوش مصنوعی در حال بحث هستند. بزرگ‌ترین نگرانی آن‌ها این است که چارچوب تست قوی برای اعتماد به کدی که هوش مصنوعی تولید می‌کند، وجود ندارد.

آنچه که رهبران تیم معمولاً درک نمی‌کنند این است که تولید کد فقط بخشی از مهندسی نرم‌افزار است. همان‌طور که «فرانسوا شولت» در گذشته گفت: «اگر می‌توانستید مهندسی نرم‌افزار (شغل من) را به طور کامل خودکار کنید، فکر می‌کنم این عالی خواهد بود، زیرا با انجام این کار می‌توانستم به کارهای با ارزش‌تر مشغول شوم.» مهندسی نرم‌افزار فقط در مورد کپی و چسباندن کد نیست، بلکه در مورد توسعه مدل‌های ذهنی از مسائل و راه‌حل‌های آن‌ها است.

اما در سازمان‌ها، هنوز ترس از این وجود دارد که مدیران به توسعه‌دهندگان اجازه استفاده از ابزارهای هوش مصنوعی را ندهند. حتی پس از ممنوعیت‌ها و هشدارها درباره استفاده از این ابزارها، برخی از توسعه‌دهندگان کدهای شرکت را کپی کرده و در ابزارهای کدنویسی هوش مصنوعی وارد می‌کنند تا آن‌ها را تکمیل کنند. این کار باعث می‌شود که ممنوعیت‌ها عملاً بی‌اثر شوند.

شرکت‌هایی که به طور مستقیم استفاده از ابزارهای هوش مصنوعی را به‌خاطر این موارد ممنوع می‌کنند، در واقع ریسک‌پذیرش بیشتر هوش مصنوعی را به خطر می‌اندازند و به‌زودی از رقبای خود عقب می‌مانند. تیم‌ها باید به جای اینکه ابزارهای هوش مصنوعی را به طور کامل رد یا قبول کنند، باید ابتدا بررسی‌های لازم را انجام دهند و سپس به طور منطقی از آن‌ها استفاده کنند. 

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]