قابلیت عجیب الگوریتمهای هوش مصنوعی در تشخیص نژاد از روی تصاویر پزشکی
برخی ویژگیهای ظاهری، مثل رنگ چشم یا پوست میتوانند سرنخی از نژاد و قومیت افراد باشند. اما بدون این نشانهها، تشخیص نژاد برای انسانها کار آسانی نیست. با این حال، بر اساس پژوهشی جدید که هنوز مورد بازبینی قرار نگرفته، به نظر میرسد الگوریتمها از پس انجام این کار برمیآیند.
در این پژوهش، محققان پنج مدل متفاوت را روی تصاویر ایکسری قسمتهای مختلف بدن، از جمله سینه و دستها، آموزش داده و این تصاویر را، بر اساس نژاد بیمار، برچسب زدند. سپس سیستمهای یادگیری ماشین را به آزمایش گذاشتند تا عملکردشان در پیشبینی و تشخیص نژاد افراد از روی تصاویر پزشکی مشخص شود.
عملکرد این سیستمها به طرز باورناکردنی دقیق بود، طوری که ضعیفترین سیستم در 80 درصد مواقع پاسخ درست را ارائه میداد. طبق ادعای این مقاله، دقت بهترین سیستم 99 درصد بود.
نویسندگان هشدار دادهاند: «با این آزمایشات نشان دادیم به راحتی میتوان به سیستمهای هوش مصنوعی آموزش داد تا هویت نژادی افراد را از روی تصاویر پزشکی تشخیص دهند. جداسازی این قابلیت از فناوریهای دیگر و کاهش آن کار بسیار دشواری خواهد بود.
ما به توسعهگرها، قانونگذاران و کاربرانی که با تحلیل تصاویر پزشکی سروکار دارند، قویاً پیشنهاد میکنیم در استفاده از مدلهای یادگیری عمیق، نهایت احتیاط را به خرج دهند. تشخیص نژاد بیماران از روی تصاویر ایکسری و سیتی اسکن کار بسیار آسانی است. این امکان میتواند به موقعیتهای دیگر هم نفوذ کرده، به نابرابریهای نژادی که در حوزهی بهداشت و درمان به چشم میخورند دامن زده و آنها را تداوم بخشد.»
پارلمان بریتانیا در صدد منع ابزارهای جعل عمیق غیراخلاقی
ماریا میلر ، عضور حزب محافظهکار پارلمان بیسنگاستوک ، معتقد است الگوریتمهای یادگیری ماشین که تصاویر جعلی برهنه از افراد تولید میکنند، باید ممنوع شوند.
این الگوریتمها که با نام جعل عمیق شناخته میشوند متکی بر نرمافزارهای هوش مصنوعی هستند. ابزارهای جعل عمیقی روی اینترنت وجود دارند که به افراد منحرف اجازه میدهند با ورود تصویر یک نفر، تصویر جعلی برهنه آنها را تحویل بگیرند. این ابزارها چهرهی فرد را ثابت نگه میدارند و یک بدن ساختگی به آن اضافه میکنند.
از جمله اقدامات میلر میتوان به اعتراضات او علیه اخاذی با تصاویر شخصی اشاره کرد. وی معتقد است حتی اگر تصاویر تولید شده جعلی و غیرواقعی باشند، آسیبی که به قربانیان وارد میشود واقعی است.
میلر در مصاحبه با Beeb، دستیار صوتی BBC، بیان کرد: «در حال حاضر، ساخت و توزیع عکسهای شخصی، به صورت آنلاین یا با استفاده از فناوریهای دیجیتال، بدون رضایت صاحب عکس غیرقانونی تلقی میشود.
توزیع آنلاین تصاویر جنسی بدون رضایت فرد، باید جزو جرائم تجاوز جنسی حساب شود تا آسیبی که به زندگی افراد میزند را منعکس کند.» میلر قصد دارد این مسئله را در مذاکرات پارلمانی مطرح کند، به امید اینکه قوانین جدیدی برای منع نرمافزارهای جعل عمیق در لایحهی امنیت آنلاین بریتانیا تصویب شود.
سرک کشیدن فیسبوک در چتهای خصوصی کاربران
بخش هوش مصنوعی فیس بوک گروهی از مهندسان هوش مصنوعی را به کار گرفته تا بتواند پیامهای رمزی را بدون رمزگشایی، تجزیه و تحلیل کند.
طبق گزارش The Information، تکنیک رمزگذاری همریخت به شبکههای اجتماعی اجازه میدهد با سرک کشیدن به چتهای کاربران در واتساپ، دادههایی را جمعآوری کنند که به تبلیغات هدفمند کمک میکند.
با استفاده از رمزگذاری همریخت، فیسبوک میتواند محصولات و خدمات موردعلاقهی افراد را تشخیص دهد. بدین طریق، به محض ورود افراد به حسابهای کاربریشان، تبلیغات مربوطه به آنها ارائه میشود.
به نظر میرسد کریستین لاتنر سردمدار این اقدامات است؛ لاتنر متخصص رمزنگاری است که اخیراً، بعد از دو دهه مایکروسافت را ترک کرده و به عنوان سرپرست گروه تحقیقات هوش مصنوعی وست کاست به فیسبوک ملحق شده است. سخنگوی فیسبوک در مورد این پروژه گفته است: «هنوز برای پیادهسازی رمزنگاری همریخت در واتسپ خیلی زود است.»