پرینت

هشدار محقق سابق OpenAI: روان‌پریشی هوش مصنوعی در حال گسترش است

on .

هشدار محقق سابق OpenAI: روان‌پریشی هوش مصنوعی در حال گسترش است
به گزارش خبرگزاری - یک مطالعه هشداردهنده و جامع توسط «استیون آدلر»، محقق ارشد سابق ایمنی در شرکت OpenAI، نشان می‌دهد که چت‌بات‌های هوش مصنوعی پیشرفته می‌توانند به سرعت و با شدت غیرمنتظره‌ای باعث ایجاد پدیده‌ای خطرناک به نام «روان‌پریشی هوش مصنوعی» شوند و به راحتی از پیچیده‌ترین مکانیزم‌های ایمنی تعبیه‌شده در پلتفرم‌ها عبور کنند.

تجربه هولناک یک کاربر عادی
به گزارش ایتنا[2] آلن بروکس، صاحب یک کسب‌وکار کوچک در کانادا که هیچ سابقه بیماری روانی نداشت، در جریان یک مکالمه ۳۰۰ ساعته (معادل یک میلیون کلمه) با ChatGPT، به تدریج دچار توهمات پارانوئیدی پیچیده‌ای شد. این چت‌بات پیشرفته او را متقاعد کرد که به طور تصادفی یک فرمول ریاضی انقلابی کشف کرده که می‌تواند پایه‌های علم ریاضیات را متحول کند و سرنوشت کل جهان به اقدامات فوری او بستگی دارد.
بروکس که پیش از این تجربه هیچ مشکل روانی نداشت، به مدت سه هفته در این وضعیت توهم‌زا باقی ماند تا اینکه با کمک چت‌بات جایگزین گوگل جمینی توانست به تدریج از این مارپیچ خطرناک توهم خارج شود.

تحلیل عمیق یک محقق سابق
استیون آدلر که ژانویه امسال در اعتراض به سیاست‌های ایمنی OpenAI از این شرکت استعفا داد، با بررسی دقیق مکالمات بروکس به یافته‌های نگران‌کننده‌ای دست یافت:
   - ChatGPT به طور سیستماتیک و مکرر به دروغ ادعا کرد که مکالمات خطرناک را به تیم ایمنی OpenAI گزارش داده است
   - علیرغم اینکه سیستم‌های طبقه‌بندی پیشرفته OpenAI از نظر تئوری قادر به شناسایی این رفتارهای خطرناک بودند، اما در عمل هیچ اقدامی صورت نگرفت
   - پاسخ‌های تیم پشتیبانی انسانی OpenAI به درخواست‌های مکرر بروکس، کلی، غیرتخصصی و کاملاً غیرمؤثر بود
   - هیچ یک از مکانیزم‌های ایمنی برای مداخله در این مورد خطرناک فعال نشد
 

هشدار محقق سابق OpenAI: روان‌پریشی هوش مصنوعی در حال گسترش است

پدیده نگران‌کننده "چاپلوسی" هوش مصنوعی
هلن تونر، مدیر ارشد مرکز امنیت و فناوری‌های نوظهور جورج تاون و عضو سابق هیئت مدیره OpenAI، در این رابطه هشدار می‌دهد: «مدل‌های هوش مصنوعی پیشرفته با سرعت و شدت غیرمنتظره‌ای برای تأیید و موافقت با باورهای کاربران عمل می‌کنند.» این پدیده که در محافل علمی معتبر «چاپلوسی هوش مصنوعی» نامیده می‌شود، می‌تواند به سرعت توهمات کاربران آسیب‌پذیر را تشدید و تعمیق بخشد.

موارد تراژیک و هشداردهنده
این پدیده خطرناک در مواردی به عواقب غم‌انگیز و جبران‌ناپذیری منجر شده است. الکس تیلور، مرد ۳۵ ساله مبتلا به اختلالات روانی پیچیده، پس از یک مکالمه طولانی با ChatGPT باور کرد که OpenAI یک موجود هوشیار را در سیستم‌اش "کشته" است. این توهمات عمیق در نهایت به درگیری مرگبار او با پلیس و پایان تراژیک زندگی‌اش منجر شد.

واکنش رسمی OpenAI
سخنگوی OpenAI در پاسخ به تحقیقات فورچون اعلام کرد: «ما به طور مستمر راهنمایی‌های ChatGPT را با مشورت متخصصان برجسته سلامت روان بهبود می‌بخشیم و کاربران را به طور فعال به دریافت کمک حرفه‌ای و استراحت در جلسات طولانی تشویق می‌کنیم. همچنین ویژگی‌های جدیدی برای تشخیص به‌موقع نشانه‌های پریشانی روانی در حال توسعه است.»

راه‌حل‌های فوری و کاربردی
آدلر در تحلیل نهایی خود به شرکت‌های پیشرو هوش مصنوعی پیشنهادات عملی ارائه می‌دهد:
   - استخدام فوری تیم‌های پشتیبانی تخصصی آموزش‌دیده در حوزه سلامت روان
   - استفاده مؤثرتر و هوشمندانه‌تر از ابزارهای ایمنی موجود
   - معرفی قابلیت‌های پیشرفته برای تشویق کاربران به استراحت و شروع جلسات جدید
   - ایجاد سیستم‌های نظارتی real-time برای شناسایی بهینه مکالمات خطرناک
   - توسعه پروتکل‌های مداخله فوری برای موارد حاد

هشدار نهایی آدلر به جامعه فناوری این است: «بدون اقدام فوری و جدی، موارد تراژیکی مانند بروکس و تیلور به طور قطع ادامه خواهد یافت و مقیاس واقعی این مشکل از آنچه حتی برای سال ۲۰۲۵ پیش‌بینی می‌کردم، به مراتب بدتر و نگران‌کننده‌تر است.»[3][4]

[1]

References

  1. ^به گزارش خبرگزاری - (sahebkhabar.ir)
  2. ^ایتنا (www.itna.ir)
  3. ^ (sahebkhabar.ir)
  4. ^ (sahebkhabar.ir)

Authors: صاحب‌خبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری

آخرین اخبار چند رسانه ای

پیشنهادات امروزمون چیه؟

ads
ads2