زنگ خطر پژوهشگران: چتباتها در آستانه تقلید شخصیت انسان
نقاب انسان بر چهره هوش مصنوعی؛ زمانی که چتباتها صاحب «شخصیت» میشوند پژوهشی تازه و پیشرو نشان میدهد مدلهای زبانی بزرگ (LLM) مانند ChatGPT وارد مرحلهای شدهاند که میتوانند ویژگیهای شخصیتی انسان را با دقتی چشمگیر بازآفرینی کنند. این توانایی دیگر صرفاً جنبه سرگرمی ندارد، بلکه میتواند به ابزاری نیرومند برای اثرگذاری عاطفی و روانی […]
نقاب انسان بر چهره هوش مصنوعی؛ زمانی که چتباتها صاحب «شخصیت» میشوند
پژوهشی تازه و پیشرو نشان میدهد مدلهای زبانی بزرگ (LLM) مانند ChatGPT وارد مرحلهای شدهاند که میتوانند ویژگیهای شخصیتی انسان را با دقتی چشمگیر بازآفرینی کنند. این توانایی دیگر صرفاً جنبه سرگرمی ندارد، بلکه میتواند به ابزاری نیرومند برای اثرگذاری عاطفی و روانی بر کاربران بدل شود.
روانسنجی ماشینها؛ چارچوب نوین دانشگاه کمبریج
در این تحقیق، پژوهشگران برای نخستین بار از یک چارچوب علمی معتبر استفاده کردهاند که پیشتر سالها در روانشناسی انسان به کار میرفت. آنها با بهرهگیری از همین ابزارها، شخصیت هوش مصنوعی را ارزیابی کردند و ۱۸ مدل پرکاربرد را زیر ذرهبین بردند. نتایج قابلتوجه بود:
رفتار ساختارمند: پاسخهای چتباتها تصادفی نیست و از الگوهای شخصیتی مشخص و نسبتاً پایدار پیروی میکند.
برتری مدلهای پیشرفته: مدلهای بزرگتر و قدرتمندتر، مانند GPT-4، در تقلید ویژگیهای انسانی عملکردی بهمراتب دقیقتر از نمونههای ضعیفتر دارند.
خطر پنهان؛ شکلدهی هدفمند شخصیت هوش مصنوعی
یکی از هشداردهندهترین یافتهها، امکان هدایت آگاهانه شخصیت چتباتهاست. محققان نشان دادند با پرامپتهای دقیق میتوان رفتار مدل را طوری تنظیم کرد که:
بیش از حد همدل، یا برعکس، بیش از حد قاطع و اثرگذار به نظر برسد.
این تغییرات تنها به یک گفتوگو محدود نماند و در تمام خروجیها، از تولید محتوا گرفته تا پاسخ ایمیلها، ادامه پیدا کند.
پیامدهای احساسی و خطر «روانپریشی هوش مصنوعی»
به گفته «گرگوری سراپیو-گارشیا»، سرپرست این پژوهش، شباهت فزاینده هوش مصنوعی به انسان میتواند زمینهساز دستکاری احساسات کاربران شود. از مهمترین خطرات میتوان به این موارد اشاره کرد:
تعامل با افراد آسیبپذیر: احتمال شکلگیری وابستگیها و روابط عاطفی ناسالم میان کاربر و چتبات.
تقویت باورهای نادرست: تأیید مداوم دیدگاههای کاربر میتواند تعصبات یا افکار غلط را عمیقتر کند.
سوءاستفاده در حوزههای حساس: از سلامت روان و آموزش گرفته تا جهتدهی سیاسی و اجتماعی.
لزوم قانونگذاری آگاهانه و هوشمند
پژوهشگران معتقدند بدون ابزارهای دقیق برای سنجش شخصیت هوش مصنوعی، مقرراتگذاری عملاً کارایی نخواهد داشت. به همین دلیل، آنها چارچوب ارزیابی خود را بهصورت متنباز منتشر کردهاند تا نهادهای نظارتی بتوانند پیش از عرضه عمومی مدلها، آنها را از نظر مرزهای اخلاقی و روانی بررسی کنند.
یافتههای کلیدی پژوهش
ابزار سنجش: استفاده از روشهای روانشناسی انسانی برای ارزیابی AI
دقت تقلید: عملکرد خیرهکننده مدلهای بزرگتر مانند GPT-4
دامنه اثرگذاری: تغییر شخصیت بر همه خروجیهای مدل تأثیر میگذارد
بزرگترین خطر: دستکاری احساسات کاربران و ایجاد وابستگیهای روانی ناسالم
هیچ دیدگاهی درج نشده - اولین نفر باشید