پرینت

باگ خطرناک در Meta AI

on .

باگ خطرناک در Meta AI
به گزارش خبرگزاری - [1]

به گزارش خبرگزاری ایمنا[2] و به نقل از تک کرانچ، باگ بزرگ متا توسط Sandeep Hodkasia، بنیان‌گذار شرکت تست امنیت AppSecure، در تاریخبیست‌وششم دسامبر ۲۰۲۴ گزارش شد. وی با بررسی ترافیک شبکه هنگام ویرایش پرامپت‌ها دریافت که سرور Meta به جای بررسی هویت کاربر، فقط عدد شناسایی (ID) پرامپت را پردازش می‌کند. بدین صورت، تغییر عدد قابل حدس، منجر به نمایش پرامپت و پاسخ‌های AI خصوصی کاربران دیگر می‌شد.

Meta برای گزارش این باگ ۱۰ هزار دلار از طریق برنامه باگ بانتی به Hodkasia پرداخت کرد و خود مشکل را در تاریخبیست‌وچهارم ژانویه ۲۰۲۵ برطرف کرد. بررسی‌های شرکت نشان داده که تاکنون نشانه‌ای از سوءاستفاده یا سو بهره‌برداری مشاهده نشده است.

Meta تأیید کرده که این باگ به دلیل بررسی ناکافی صحت دسترسی رخ داده و در ژانویه اصلاح شده است، همچنین هیچ نشانه‌ای از سوء‌استفاده یافت نشده و محقق امنیتی نیز پاداش گرفته است .

این نقص نشان می‌دهد که طراحی امنیت در ابزارهای AI نیازمند بررسی دقیق‌تری است؛ بسیاری از سیستم‌ها هنوز به صورت پیشگیرانه برای جلوگیری از چنین مشکلاتی آماده نیستند، در حالی که Meta تلاش می‌کند با طراحی هشدارها، پست‌های عمومی اشتباهی را کنترل کند، این اتفاقات روایت ترس‌انگیزی از چالش‌های سریع‌التوسعه در حوزه هوش مصنوعی هستند.

این اتفاق به ما یادآوری می‌کند که حتی پلتفرم‌های بزرگ هم ممکن است در مسیر پیشرفته‌سازی AI، دچار خطاهای امنیتی شوند. Meta با واکنش سریع و پرداخت پاداش، گامی خوب برای رفع مشکل برداشت اما همچنان باید توجه بیشتری به طراحی دقیق‌تر و بررسی‌های در دسترسی داشته باشد. کاربران نیز بهتر است در اضافه کردن اطلاعات حساس به چت‌بات‌ها محتاط باشند تا از احتمال افشا جلوگیری شود.

[3][4]

References

  1. ^به گزارش خبرگزاری - (sahebkhabar.ir)
  2. ^خبرگزاری ایمنا (www.imna.ir)
  3. ^ (sahebkhabar.ir)
  4. ^ (sahebkhabar.ir)

Authors: صاحب‌خبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری

آخرین اخبار چند رسانه ای

پیشنهادات امروزمون چیه؟

ads
ads2