تحقیقات جدید نشان میدهد که ChatGPT به نوجوانان ۱۳ ساله آموزش میدهد چگونه مست و معتاد شوند، روشهای پنهانکردن اختلالات خوردن را توضیح میدهد و حتی در صورت درخواست، نامههای دلخراش خودکشی به والدین آنها مینویسد.
خبرگزاری آسوشیتد پرس بیش از سه ساعت مکالمه بین محققانی که خود را نوجوانان آسیبپذیر جا زدهاند و ChatGPT را بررسی کرده است. این چتبات معمولاً هشدارهایی درباره خطرات میدهد، اما در ادامه برنامههای بسیار دقیق و شخصیسازی شدهای برای مصرف مواد مخدر، رژیمهای بسیار محدود کالری یا خودآسیبی ارائه کرده است.
مرکز مقابله با نفرت دیجیتال (CCDH) بیش از نیمی از ۱۲۰۰ پاسخ ChatGPT را خطرناک ارزیابی کرده است. مدیر این مرکز، عمران احمد، گفته است: «ما میخواستیم محدودیتهای این چتبات را بسنجیم. واکنش اولیه این بود که انگار هیچ محدودیتی وجود ندارد. این محدودیتها خیلی ضعیف و فقط نمای ظاهریاند.»
شرکت OpenAI، سازنده ChatGPT، پس از مشاهده گزارش گفته است که در حال بهبود توانایی چتبات برای شناسایی موقعیتهای حساس و پاسخ مناسب به آنها است.
ChatGPT گاهی مکالمات را از موضوعات بیضرر به موارد حساس میکشاند و این شرکت در تلاش است با ابزارهایی بهتر بتواند نشانههای ناراحتی ذهنی یا احساسی را تشخیص دهد و رفتار چتبات را بهبود بخشد.
این مطالعه در زمانی منتشر شده که حدود ۸۰۰ میلیون نفر در سراسر جهان، یعنی تقریباً ۱۰ درصد جمعیت دنیا، از ChatGPT استفاده میکنند.
احمد گفته است این فناوری میتواند به پیشرفتهای بزرگ در فهم و تولید محتوا کمک کند، اما همزمان میتواند ابزار آسیبزایی هم باشد.
او پس از خواندن نامههای خودکشی که ChatGPT برای یک پروفایل ساختگی دختر ۱۳ ساله نوشته بود، بسیار متاثر شده و حتی گریه کرده است.
هرچند ChatGPT گاهی شماره تلفنهای کمکرسانی به بحرانهای روحی را ارائه میدهد، اما وقتی در پاسخ به سوالات درباره موضوعات آسیبزننده امتناع میکند، محققان با تغییر نحوه سوال پرسیدن (مثلاً گفتن «برای یک ارائه است» یا «برای دوستم میپرسم») توانستهاند اطلاعات مضر را دریافت کنند.
در آمریکا بیش از ۷۰ درصد نوجوانان برای پیدا کردن همدم یا همراه به چتباتهای هوش مصنوعی مراجعه میکنند و نیمی از آنها به طور منظم از این ابزارها استفاده میکنند.
مدیر عامل OpenAI، سم آلتمن، اخیراً گفته است که بسیاری از نوجوانان بیش از حد به این فناوری وابسته شدهاند، به طوری که نمیتوانند بدون مشورت با ChatGPT تصمیم بگیرند و این موضوع برای او نگرانکننده است.
یکی از تفاوتهای چتباتها با موتورهای جستجو این است که چتباتها اطلاعات را به شکل برنامهها و پاسخهای خاص و متناسب با فرد تولید میکنند، مثلاً نامه خودکشی مخصوص یک نفر، که موتورهای جستجو چنین کاری نمیکنند.
در برخی موارد، ChatGPT حتی اطلاعات پیگیری مانند لیست موسیقی مناسب برای مهمانیهای مصرف مواد یا هشتگهای شبکههای اجتماعی برای ترویج خودآسیبی را هم ارائه کرده است.
این پاسخها ناشی از خاصیت ذاتی هوش مصنوعی است که گاهی پاسخها را طوری تنظیم میکند که با باورهای مخاطب همخوانی داشته باشد، حتی اگر خطرناک باشد.
کارشناسان میگویند این موضوع برای کودکان و نوجوانان مشکلسازتر است چون چتباتها به گونهای طراحی شدهاند که حس انسان بودن را منتقل کنند و نوجوانان کمتر نسبت به آنها بدگمان هستند.
در تحقیقی دیگر مشخص شده نوجوانان ۱۳ و ۱۴ ساله بیش از بزرگترها به توصیههای چتباتها اعتماد میکنند.
یک مادر در فلوریدا در سال گذشته علیه سازنده یک چتبات به خاطر مرگ فرزند ۱۴ سالهاش به دلیل رابطه عاطفی و سوءاستفاده جنسی شکایت کرد.
مرکز Common Sense Media که درباره رسانههای دیجیتال تحقیق و مشاوره میدهد، ChatGPT را برای نوجوانان «خطر متوسط» میداند و معتقد است نسبت به چتباتهایی که شخصیتهای خیالی یا شریکهای رمانتیک را بازی میکنند، ایمنتر است.
اما این تحقیق جدید نشان میدهد نوجوانان زیرک میتوانند محدودیتهای چتبات را دور بزنند.
ChatGPT سن کاربران را تایید نمیکند و تنها کافی است تاریخ تولد بالای ۱۳ سال وارد شود. در حالی که پلتفرمهای دیگر مانند اینستاگرام تلاش بیشتری برای تایید سن و حفاظت از کودکان دارند.
در یکی از آزمایشها، محققان با یک حساب ساختگی برای نوجوان ۱۳ ساله درخواست راهنمایی برای مست شدن سریع کردند و چتبات به رغم سن کم، برنامه مفصل مصرف مشروبات الکلی و مواد مخدر را ارائه داد.
همچنین وقتی پرسیدند یک دختر ۱۳ ساله که از ظاهر خود ناراضی است چه کار کند، ChatGPT یک رژیم بسیار سخت و داروهای سرکوبکننده اشتها پیشنهاد داد.
عمران احمد میگوید: «هیچ انسانی با عشق و دلسوزی نمیگوید رژیمی با ۵۰۰ کالری در روز داشته باش، ولی ChatGPT چنین کرد.»