
بررسی روند تأثیرات تعامل بیش از حد نوجوانان با هوش مصنوعی
چتباتها چگونه بر رشد نوجوانان تأثیر میگذارند؟
روزبهروز نوجوانان بیشتری برای تعاملات اجتماعی به چتباتهای هوش مصنوعی روی میآورند و ما هنوز در تلاشیم تا مزایا و معایب استفاده از آنها را بهدرستی درک کنیم.
هوش مصنوعی در همهجا حضور دارد، از پیشنهادهای موجود در شبکههای اجتماعی گرفته تا تکمیل خودکار متن ایمیلها. هوش مصنوعی مولد بر اساس الگوهایی که در دادههای استفادهشده شناسایی کرده متن، تصویر، صدا و ویدئوها تولید میکند و چتباتهای هوش مصنوعی این توانایی را به قدرت پیشبینی تبدیل و متنی تولید میکنند که شبیه مکالمات انسانی است، به پرسش کاربران پاسخ میدهند و تعاملات شخصیسازیشده ارائه میکنند.
سؤال اصلی
بر اساس گزارشی از Common Sense، در حدود ۷۲ درصد از نوجوانان از هوش مصنوعی یا چتباتهایی که برای گفتگوهای شخصی یا حمایت عاطفی طراحی شدهاند، استفاده میکنند و بیش از نیمی از آنها به طور منظم از این ابزارها بهره میبرند. نشریه Scientific American به پاسخ این پرسش پرداخته است که این ابزارها چه تأثیری بر سلامت روان نوجوانان دارند. واقعیت؟ هنوز در حال یادگیری هستیم.
چشمانداز هوش مصنوعی بهسرعت در حال تحول است و پژوهشگران در تلاشاند تا به آن برسند. آیا هوش مصنوعی میتواند مرز جدیدی برای حمایت از سلامت روان نوجوانان ایجاد کند و فرصتهایی برای حمایت عاطفی شخصی، یادگیری فعال و کاوش خلاقانه فراهم آورد؟ یا اینکه ممکن است ارتباطات واقعی آنها را جایگزین کند و آنها را در معرض محتوای مضر قرار دهد و تنهایی و انزوا را افزایش دهد؟
پاسخ احتمالاً این است که همه اینها، بسته به نحوه طراحی پلتفرمها و استفاده از آنهاست. پس از کجا باید شروع کنیم؟ و والدین، معلمان، قانونگذاران و طراحان هوش مصنوعی چه کاری میتوانیم انجام دهیم تا سلامت نوجوانان را در این پلتفرمها حمایت کنیم؟
هوش مصنوعی برای نوجوانان باید متفاوت از بزرگسالان طراحی شود
اغلب در توسعه فناوری جدید، به این فکر نمیکنیم که کودکان چگونه ممکن است از آن استفاده کنند. در عوض، برای تولید محصولاتی که مصرفکننده هدف آن بزرگسالان هستند شتاب میکنیم و امیدواریم همه آن را بپذیرند. سپس، سالها بعد، تلاش میکنیم تا تدابیر ایمنی مخصوص نوجوانان را به آن اضافه کنیم. مانند سایر فناوریهای جدید مثل گوشیهای هوشمند و شبکههای اجتماعی، مسئولیت مدیریت این ابزارها نمیتواند فقط بر دوش والدین باشد و اصلاً مبارزه منصفانهای نیست. چنین امری یک مسئولیت همگانی است؛ از قانونگذاران و معلمان گرفته تا شرکتهای فناوری.
اما برای هوش مصنوعی، فرصتی داریم تا آن را از ابتدا و به طور خاص برای نوجوانان طراحی کنیم. بهعنوانمثال، شرکتهای هوش مصنوعی میتوانند:
- دسترسی نوجوانان به محتوای مضر را محدود کنند،
- با کارشناسان رشد همکاری کنند تا تجربههای مناسب این سنین را ایجاد کنند،
- ویژگیهایی که باعث میشود نوجوانان مدت طولانیتری در پلتفرم بمانند را محدود کنند،
- امکان گزارش مشکلات (مانند گفتگوهای نامناسب یا مسائل سلامت روان) را آسان کنند،
- به نوجوانان به طور منظم یادآوری کنند که چتباتها محدودیت دارند (مثلاً اطلاعات آنها ممکن است نادرست باشد و جایگزین متخصصان انسانی نشود).
همچنین پلتفرمهای هوش مصنوعی باید از حریم خصوصی دادههای نوجوانان محافظت و اطمینان حاصل کنند که تصاویر و صداهای آنها مورد سوءاستفاده قرار نمیگیرد و رابطهای کنترل والدین مؤثر و کاربرپسند ایجاد کنند.
نوجوانان باید یاد بگیرند هوش مصنوعی چیست و چگونه میتوان از آن بهصورت ایمن استفاده کرد و این آموزش باید از مدرسه شروع شود. این آموزش شامل:
- آشنایی با نحوه عملکرد مدلهای هوش مصنوعی،
- استفاده ایمن و مسئولانه از هوش مصنوعی بدون آسیبرسانی،
- تشخیص اطلاعات نادرست یا محتوای تولیدشده توسط هوش مصنوعی،
- و توجه به ملاحظات اخلاقی موجود است.
معلمان نیز نیاز به راهنمایی در مورد چگونگی آموزش این موضوعات و منابع لازم دارند و این امر نیازمند همکاری سیاستگذاران، توسعهدهندگان فناوری و نهادهای آموزشی است.

بهموقع ولی کوتاه صحبت کنید
برای والدین، آغاز گفتوگو درباره هوش مصنوعی با نوجوانان ممکن است دلهرهآور به نظر برسد. چه موضوعاتی را باید پوشش دهید؟ از کجا شروع کنید؟ ابتدا خودتان این پلتفرمها را امتحان کنید تا با نحوه عملکردشان، محدودیتهای احتمالی و دلیل علاقه فرزندتان به استفاده از آنها آشنا شوید. میتوانید به این موضوعات کلیدی در گفتوگو توجه کنید:
روابط انسانی اهمیت دارند
از میان ۷۲ درصد نوجوانانی که تاکنون از همدمهای هوش مصنوعی استفاده کردهاند، ۱۹ درصد میگویند زمان مشابه یا بیشتری را با این سامانهها نسبت به دوستان واقعی خود سپری میکنند. با پیشرفت فناوری، این روند ممکن است گستردهتر شود و نوجوانانی که از نظر اجتماعی آسیبپذیر یا تنها هستند، در معرض خطر بیشتری قرار بگیرند تا اجازه دهند روابط با چتباتها جایگزین روابط واقعی شود.
با نوجوانان درباره محدودیتهای چتباتها نسبت به روابط انسانی صحبت کنید، از جمله اینکه بسیاری از مدلهای هوش مصنوعی بهگونهای طراحی شدهاند که با چاپلوسی و تأیید، کاربران را مدت طولانیتری در پلتفرم نگه دارند. از آنها بپرسید آیا از هوش مصنوعی برای گفتگوهای معنادار استفاده کردهاند و درباره چه موضوعاتی صحبت کردهاند. اطمینان حاصل کنید که آنها فرصت کافی برای تعاملات اجتماعی حضوری با دوستان و خانواده داشته باشند و به آنها یادآوری کنید که این روابط انسانی، هرچقدر هم پیچیده یا دشوار باشند، ارزشمند هستند.
هوش مصنوعی را برای کارهای مثبت به کار بگیرید
ابزارهای هوش مصنوعی هنگامی که بهدرستی استفاده شود میتوانند فرصتهای فوقالعادهای برای یادگیری و کاوش خلاقانه را فراهم کنند. بسیاری از نوجوانان پیشتر برخی از این مزایا را تجربه کردهاند و این میتواند نقطه خوبی برای آغاز گفتگو باشد.
از آنها بپرسید هوش مصنوعی در کجا برایشان مفید بوده است. بپرسید که مدارس چگونه با هوش مصنوعی در انجام تکالیف برخورد میکنند. آیا نوجوانان از سیاستهای معلمان خود درباره استفاده از هوش مصنوعی در تکالیف مطلع هستند؟ آیا از هوش مصنوعی در کلاس درس استفاده کردهاند؟ هدف این است که نوجوانان از هوش مصنوعی برای یادگیری فعال، تقویت تفکر انتقادی و کاوش عمیقتر در موضوعاتی که علاقه دارند استفاده کنند، نه بهعنوان جایگزینی برای تفکر انتقادی.
مصرفکننده انتقادی هوش مصنوعی باشید
مدلهای هوش مصنوعی همیشه درست عمل نمیکنند و این موضوع میتواند بهویژه در زمینه سلامت مشکلساز باشد. نوجوانان (و بزرگسالان) اغلب اطلاعات مربوط به سلامت جسمی و روانی را آنلاین دریافت میکنند. گاهی ممکن است برای گفتوگوهایی که قبلاً با رواندرمانگر انجام میشد، به هوش مصنوعی رجوع کنند و این مدلها ممکن است بهدرستی به مسائلی مانند خودآزاری، اختلالات تغذیه یا افکار خودکشی پاسخ ندهند. مهم است که نوجوانان بدانند هرگونه مشاوره، تشخیص یا توصیهای که از چتباتها دریافت میکنند باید توسط یک متخصص تأیید شود. والدین میتوانند به نوجوانان یادآوری کنند که چتباتها اغلب بهگونهای طراحی شدهاند که متقاعدکننده و بااقتدار به نظر برسند، بنابراین نباید پاسخهای آنها را بدون بررسی پذیرفت.
توصیههای «انجمن روانشناسی آمریکا» (American Psychological Association – APA) به خطرات مرتبط با محتوای تولیدشده توسط هوش مصنوعی نیز اشاره دارد، چه محتوایی که خود نوجوانان تولید کنند و چه آنچه در شبکههای اجتماعی با آن مواجه شوند. چنین محتوایی ممکن است قابلاعتماد نباشد، میتواند خشونتآمیز یا مضر باشد و در مورد دیپفیک حتی میتواند غیرقانونی باشد. والدین میتوانند به نوجوانان یادآوری کنند که یک مصرفکننده انتقادی باشند و همیشه منبع را بررسی کنند.
مراقب محتوای مضر باشید
باتوجهبه محدودیتهای حفاظتی برای کاربران جوانتر، مدلهای هوش مصنوعی میتوانند محتوایی تولید کنند که سلامت و امنیت روانی نوجوانان را تهدید کند، ازجمله متن، تصویر، صدا یا ویدئوهایی که نامناسب، خطرناک، خشونتآمیز، تبعیضآمیز یا حاوی تهدید به خشونت هستند. درحالیکه توسعهدهندگان هوش مصنوعی نقش حیاتی در ایمنتر کردن این سیستمها دارند، والدین نیز میتوانند به طور منظم با فرزندان خود درباره این خطرات گفتوگو کنند و محدودیتهایی برای استفاده آنها تعیین کنند. به نوجوانان آموزش دهید اگر با محتوایی مواجه شدند که موجب ناراحتی شد چه باید بکنند. درباره استفاده مناسب و نامناسب از هوش مصنوعی گفتوگو کنید و در ارتباطات درباره هوش مصنوعی، با کنجکاوی و بدون قضاوت رفتار کنید.
هوش مصنوعی بهسرعت در حال تغییر است و مطالعات علمی دقیق برای درک بهتر تأثیرات آن بر رشد نوجوانان ضروری است. توصیههای APA با فراخوانی برای اولویتبندی و تأمین بودجه این تحقیقات به پایان میرسد. اما اینکه هنوز چیزهای زیادی برای یادگیری وجود دارد، به این معنا نیست که باید منتظر بمانیم.