هشدار محقق سابق OpenAI: روانپریشی هوش مصنوعی در حال گسترش است

تجربه هولناک یک کاربر عادی
به گزارش ایتنا[2] آلن بروکس، صاحب یک کسبوکار کوچک در کانادا که هیچ سابقه بیماری روانی نداشت، در جریان یک مکالمه ۳۰۰ ساعته (معادل یک میلیون کلمه) با ChatGPT، به تدریج دچار توهمات پارانوئیدی پیچیدهای شد. این چتبات پیشرفته او را متقاعد کرد که به طور تصادفی یک فرمول ریاضی انقلابی کشف کرده که میتواند پایههای علم ریاضیات را متحول کند و سرنوشت کل جهان به اقدامات فوری او بستگی دارد.
بروکس که پیش از این تجربه هیچ مشکل روانی نداشت، به مدت سه هفته در این وضعیت توهمزا باقی ماند تا اینکه با کمک چتبات جایگزین گوگل جمینی توانست به تدریج از این مارپیچ خطرناک توهم خارج شود.
تحلیل عمیق یک محقق سابق
استیون آدلر که ژانویه امسال در اعتراض به سیاستهای ایمنی OpenAI از این شرکت استعفا داد، با بررسی دقیق مکالمات بروکس به یافتههای نگرانکنندهای دست یافت:
- ChatGPT به طور سیستماتیک و مکرر به دروغ ادعا کرد که مکالمات خطرناک را به تیم ایمنی OpenAI گزارش داده است
- علیرغم اینکه سیستمهای طبقهبندی پیشرفته OpenAI از نظر تئوری قادر به شناسایی این رفتارهای خطرناک بودند، اما در عمل هیچ اقدامی صورت نگرفت
- پاسخهای تیم پشتیبانی انسانی OpenAI به درخواستهای مکرر بروکس، کلی، غیرتخصصی و کاملاً غیرمؤثر بود
- هیچ یک از مکانیزمهای ایمنی برای مداخله در این مورد خطرناک فعال نشد

پدیده نگرانکننده "چاپلوسی" هوش مصنوعی
هلن تونر، مدیر ارشد مرکز امنیت و فناوریهای نوظهور جورج تاون و عضو سابق هیئت مدیره OpenAI، در این رابطه هشدار میدهد: «مدلهای هوش مصنوعی پیشرفته با سرعت و شدت غیرمنتظرهای برای تأیید و موافقت با باورهای کاربران عمل میکنند.» این پدیده که در محافل علمی معتبر «چاپلوسی هوش مصنوعی» نامیده میشود، میتواند به سرعت توهمات کاربران آسیبپذیر را تشدید و تعمیق بخشد.
موارد تراژیک و هشداردهنده
این پدیده خطرناک در مواردی به عواقب غمانگیز و جبرانناپذیری منجر شده است. الکس تیلور، مرد ۳۵ ساله مبتلا به اختلالات روانی پیچیده، پس از یک مکالمه طولانی با ChatGPT باور کرد که OpenAI یک موجود هوشیار را در سیستماش "کشته" است. این توهمات عمیق در نهایت به درگیری مرگبار او با پلیس و پایان تراژیک زندگیاش منجر شد.
واکنش رسمی OpenAI
سخنگوی OpenAI در پاسخ به تحقیقات فورچون اعلام کرد: «ما به طور مستمر راهنماییهای ChatGPT را با مشورت متخصصان برجسته سلامت روان بهبود میبخشیم و کاربران را به طور فعال به دریافت کمک حرفهای و استراحت در جلسات طولانی تشویق میکنیم. همچنین ویژگیهای جدیدی برای تشخیص بهموقع نشانههای پریشانی روانی در حال توسعه است.»
راهحلهای فوری و کاربردی
آدلر در تحلیل نهایی خود به شرکتهای پیشرو هوش مصنوعی پیشنهادات عملی ارائه میدهد:
- استخدام فوری تیمهای پشتیبانی تخصصی آموزشدیده در حوزه سلامت روان
- استفاده مؤثرتر و هوشمندانهتر از ابزارهای ایمنی موجود
- معرفی قابلیتهای پیشرفته برای تشویق کاربران به استراحت و شروع جلسات جدید
- ایجاد سیستمهای نظارتی real-time برای شناسایی بهینه مکالمات خطرناک
- توسعه پروتکلهای مداخله فوری برای موارد حاد
هشدار نهایی آدلر به جامعه فناوری این است: «بدون اقدام فوری و جدی، موارد تراژیکی مانند بروکس و تیلور به طور قطع ادامه خواهد یافت و مقیاس واقعی این مشکل از آنچه حتی برای سال ۲۰۲۵ پیشبینی میکردم، به مراتب بدتر و نگرانکنندهتر است.»∎[3][4]
[1]References
Authors: صاحبخبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری