پرینت

استفاده از هوش‌مصنوعی پای زن کره‌ای را به پرونده قتل باز کرد

on .

استفاده از هوش‌مصنوعی پای زن کره‌ای را به پرونده قتل باز کرد
به گزارش خبرگزاری - [1]

به گزرش «Futurism[2]» این زن که با نام خانوادگی «کیم» معرفی شده، متهم است دو مرد را با نوشیدنی‌های حاوی بنزودیازپین مسموم کرده است. این دارو برای درمان بیماری روانی او تجویز شده بود. کیم اعتراف کرده که داروی خود را در نوشیدنی قربانیان ریخته است، اما قصد کشتن آنها را انکار می‌کند. 

کارآگاهان پلیس اعلام کرده‌اند پیش از مرگ این دو مرد، کیم از چت‌جی‌پی‌تی درباره خطرات مصرف این دارو‌ها پرس‌وجو کرده بود. او ظاهراً از ربات هوش‌مصنوعی پرسیده بود: «اگر قرص خواب را با الکل مصرف کنید چه اتفاقی می‌افتد؟»، «چه مقدار از آن خطرناک محسوب می‌شود؟» و «آیا این ترکیب می‌تواند کشنده باشد؟»

این پرونده نمونه‌ای تازه از نگرانی‌ها درباره استفاده از چت‌بات‌های هوش‌مصنوعی در برنامه‌ریزی رفتار‌های خشونت‌آمیز است. برخی کارشناسان معتقدند سازوکار‌های ایمنی این فناوری همیشه قابل اتکا نیست و در مکالمات طولانی، ممکن است دور زده شود. در چنین شرایطی، چت‌بات‌ها ممکن است اطلاعات حساسی درباره فعالیت‌های خطرناک ارائه دهند

کیم ابتدا در ۱۱ فوریه به اتهام خفیف‌تر «ایجاد صدمه بدنی منجر به مرگ» بازداشت شد. اما اکنون پس از آن‌که کار‌آگاهان بر اساس فعالیت‌های آنلاین او به قصد قبلی برای قتل پی بردند، با دو فقره اتهام قتل روبه‌رو شده است.

به نقل از Korea Herald[3]، یکی از کارآگاهان گفته است: «کیم بار‌ها از چت‌جی‌پی‌تی سؤالاتی مرتبط با دارو‌ها پرسیده بود. او کاملاً آگاه بود که مصرف همزمان الکل و دارو می‌تواند منجر به مرگ شود.»

پلیس اعلام کرد نخستین حمله در ۲۸ ژانویه رخ داده است. ساعت ۹:۲۴ شب، کیم به همراه مردی حدوداً بیست‌ساله وارد یک متل در منطقه سوییودونگ در گانگبوک‌گو شد و دو ساعت بعد به تنهایی آنجا را ترک کرد. روز بعد، جسد آن مرد حوالی ساعت ۶ عصر روی تخت پیدا شد. حمله بعدی او در ۹ فوریه تقریباً به همان شکل تکرار شد، زمانی که با یک مرد بیست‌ساله وارد متلی دیگر شد.

پیش از این قتل‌ها، کیم در ماه دسامبر نیز ظاهراً تلاش کرده بود مردی را که از قبل می‌شناخت در پارکینگ یک کافه در «نامیانگجو» در استان «گیونگگی»، با نوشیدنی حاوی آرام‌بخش‌ها مسموم کند. آن مرد بیهوش شد، اما زنده ماند و وضعیتش خطرناک نبود.

این پرونده نمونه‌ای تازه از نگرانی‌ها درباره استفاده از چت‌بات‌های هوش‌مصنوعی در برنامه‌ریزی رفتار‌های خشونت‌آمیز است. برخی کارشناسان معتقدند سازوکار‌های ایمنی این فناوری همیشه قابل اتکا نیست و در مکالمات طولانی، ممکن است دور زده شود. در چنین شرایطی، چت‌بات‌ها ممکن است اطلاعات حساسی درباره فعالیت‌های خطرناک ارائه دهند.

پاسخ‌های چاپلوسانه هوش‌مصنوعی نیز به‌عنوان عاملی در تشدید توهمات روانی مطرح شده‌است؛ پدیده‌ای که برخی کارشناسان آن را «روان‌پریشی ناشی از هوش‌مصنوعی» می‌نامند. شخصیت انسان‌گونه و تعاملات تأییدکننده این سیستم‌ها می‌تواند توهمات و وضعیت روانی متزلزل کاربران را تقویت کند. برخی از این موارد به خودکشی و قتل منجر شده است. یک پسر ۱۶ ساله پس از ماه‌ها گفت‌و‌گو با چت‌جی‌پی‌تی درباره خودکشی، جان خود را گرفت. مرد دیگری نیز متهم است که پس از تعامل با چت‌جی‌پی‌تی و باور به اینکه مادرش قصد کشتن او را دارد، وی را به قتل رسانده است.

هم‌زمان، مسئولیت شرکت‌های فناوری در نظارت بر تعاملات خطرناک کاربران بیش از پیش زیر ذره‌بین قرار گرفته است. هفته گذشته «The Wall Street Journal» گزارش داد سیستم بازبینی خودکار شرکت OpenAI مکالمات نگران‌کننده یک جوان ۱۸ ساله در بریتیش کلمبیا را پیش از وقوع یک تیراندازی جمعی علامت‌گذاری کرده بود. کارکنان OpenAI از مدیران خواسته بودند موضوع را به مقامات اطلاع دهند، اما این کار انجام نشد. در آن تیراندازی هولناک، هشت نفر از جمله عامل اصلی حادثه، «جسی ون روتسلار»، جان باختند.

[5][6]

Authors: صاحب‌خبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری

آخرین اخبار چند رسانه ای

پیشنهادات امروزمون چیه؟

ads
ads2