شرکت OpenAI، خالق پلتفرم هوش مصنوعی محبوب ChatGPT، اخیراً از یک حادثه امنیتی مهم خبر داده است که منجر به افشای اطلاعات برخی از کاربران این سرویس شده است. این نقض امنیتی نه در سیستمهای داخلی و هسته اصلی OpenAI، بلکه در ابزار یکی از ارائهدهندگان سرویس شخص ثالث به نام Mixpanel رخ داده است که برای تحلیل دادهها مورد استفاده قرار میگیرد. این رخداد بار دیگر بر اهمیت نظارت دقیق بر امنیت زنجیره تامین نرمافزاری و همکاری با شرکای تجاری تاکید میکند.
جزئیات حادثه و دادههای افشا شده در ChatGPT
این حادثه امنیتی در تاریخ ۹ نوامبر (۱۸ آبان) به وقوع پیوسته است. مهاجمان سایبری با دسترسی غیرمجاز به سیستمهای Mixpanel، موفق به کسب اطلاعاتی از کاربران ChatGPT شدهاند. این اطلاعات شامل جزئیات شناسایی خاصی است که میتواند حریم خصوصی افراد را تحت تأثیر قرار دهد.
`
بر اساس گزارش OpenAI، دادههای به خطر افتاده شامل موارد زیر است:
نامهای کاربری
آدرسهای ایمیل
موقعیت جغرافیایی
انواع سیستم عامل و مرورگر مورد استفاده
شرکت OpenAI تاکید کرده است که این نقض امنیتی تنها کاربرانی را تحت تاثیر قرار داده که دارای حسابهایی با قابلیت دسترسی به APIهای ChatGPT بودهاند، نه تمامی کاربران عمومی پلتفرم. همچنین، OpenAI قاطعانه اعلام کرده است که سیستمهای داخلی و زیرساختهای اصلی ChatGPT بدون تعرض باقی ماندهاند و نگرانی در این خصوص وجود ندارد. نکته حائز اهمیت این است که برخی اطلاعات حساس کاربران به هیچ عنوان به خطر نیفتاده است:
محتوای مکالمات و تعاملات کاربران با ChatGPT
درخواستهای API
دادههای مربوط به نحوه استفاده از سرویس
رمزهای عبور، کلیدهای دسترسی و اطلاعات پرداخت
اسناد و مدارک دولتی یا خصوصی
واکنش OpenAI و اقدامات آتی برای امنیت ChatGPT
پس از کشف این نقض امنیتی، OpenAI بلافاصله اقدامات لازم را برای مقابله با آن آغاز کرد. این شرکت Mixpanel را از فهرست سرویسهای بهرهوری خود حذف کرده و تحقیقات امنیتی گستردهای را برای ارزیابی کامل ابعاد حادثه به جریان انداخته است.
OpenAI ضمن تاکید بر اولویت امنیت و حریم خصوصی کاربران ChatGPT، متعهد شده است که:
بررسیهای امنیتی جامعی را برای تمامی برنامهها و خدمات شخص ثالث مورد استفاده خود انجام دهد.
الزامات امنیتی سختگیرانهتری را برای کلیه شرکا و فروشندگان خود اعمال کند تا از تکرار چنین حوادثی جلوگیری شود.
با وجود عدم مشاهده مدرکی دال بر سوءاستفاده از دادههای افشا شده تاکنون، OpenAI به کاربران هشدار داده است که نسبت به پیامها و لینکهای مشکوک که ممکن است در حملات فیشینگ یا مهندسی اجتماعی مورد استفاده قرار گیرند، هوشیار باشند. این شرکت همچنین از کاربران خواست تا هرگونه فعالیت مشکوک مرتبط با حساب ChatGPT خود را گزارش دهند.
سابقه چالشهای امنیتی و آینده حریم خصوصی کاربران ChatGPT
این حادثه امنیتی جدیدترین مورد از سلسله چالشهایی است که پلتفرم ChatGPT از زمان راهاندازی در نوامبر ۲۰۲۲ با آن مواجه بوده است. پیش از این، در مارس ۲۰۲۳، OpenAI مجبور شد سرویس خود را به دلیل یک آسیبپذیری که امکان دسترسی به دادههای خصوصی برخی کاربران را فراهم میکرد، به طور موقت به حالت تعلیق درآورد. همچنین، گزارشهای شرکت امنیت سایبری Group-IB از آلوده شدن بیش از ۱۰۰ هزار دستگاه به بدافزارهایی برای سرقت اطلاعات ورود به سیستم عامل خبر داده بود، هرچند این موارد مستقیماً به نقض زیرساختهای OpenAI ارتباطی نداشتند و بیشتر ناشی از آلودگی دستگاههای کاربران بودند.
این رخدادها بر اهمیت حیاتی نظارت دقیق بر زنجیره تامین نرمافزاری و وابستگی به سرویسهای شخص ثالث برای پلتفرمهای بزرگی چون ChatGPT تاکید میکند. با گسترش روزافزون استفاده از هوش مصنوعی در زندگی روزمره، تامین امنیت دادههای کاربران به یک دغدغه اصلی و مستمر تبدیل شده است. شفافیت OpenAI در گزارش این حوادث میتواند به تقویت اعتماد کاربران و توسعه استانداردهای امنیتی در اکوسیستم هوش مصنوعی کمک کند و سایر شرکتها را نیز به اتخاذ رویکردهای امنیتی قویتر ترغیب نماید. در نهایت، مسئولیت پذیری در قبال دادههای کاربران، سنگ بنای توسعه پایدار و قابل اعتماد فناوریهای پیشرفته نظیر ChatGPT خواهد بود.
مطالب مرتبط
- پلیس کره جنوبی شبکه عظیم هک دوربین های خانگی با محتوای غیراخلاقی را متلاشی کرد
- ورود هوش مصنوعی جمینای، امنیت جیمیل و حریم خصوصی کاربران را به چالش میکشد
- افزونههای مخرب مرورگر، میلیونها کاربر کروم و اج را در یک کمپین جاسوسی ۷ ساله آلوده کردند
- مرکز افتا فهرست جدیدترین محصولات امنیتی خارجی تحت بررسی و تأیید را منتشر کرد