حادثه امنیتی جدید، داده‌های کلیدی برخی از کاربران ChatGPT را به دلیل نقص در سرویس جانبی افشا کرد

شرکت OpenAI، خالق پلتفرم هوش مصنوعی محبوب ChatGPT، اخیراً از یک حادثه امنیتی مهم خبر داده است که منجر به افشای اطلاعات برخی از کاربران این سرویس شده است. این نقض امنیتی نه در سیستم‌های داخلی و هسته اصلی OpenAI، بلکه در ابزار یکی از ارائه‌دهندگان سرویس شخص ثالث به نام Mixpanel رخ داده است که برای تحلیل داده‌ها مورد استفاده قرار می‌گیرد. این رخداد بار دیگر بر اهمیت نظارت دقیق بر امنیت زنجیره تامین نرم‌افزاری و همکاری با شرکای تجاری تاکید می‌کند.

جزئیات حادثه و داده‌های افشا شده در ChatGPT

این حادثه امنیتی در تاریخ ۹ نوامبر (۱۸ آبان) به وقوع پیوسته است. مهاجمان سایبری با دسترسی غیرمجاز به سیستم‌های Mixpanel، موفق به کسب اطلاعاتی از کاربران ChatGPT شده‌اند. این اطلاعات شامل جزئیات شناسایی خاصی است که می‌تواند حریم خصوصی افراد را تحت تأثیر قرار دهد.

`image`

بر اساس گزارش OpenAI، داده‌های به خطر افتاده شامل موارد زیر است:

نام‌های کاربری

آدرس‌های ایمیل

موقعیت جغرافیایی

انواع سیستم عامل و مرورگر مورد استفاده

شرکت OpenAI تاکید کرده است که این نقض امنیتی تنها کاربرانی را تحت تاثیر قرار داده که دارای حساب‌هایی با قابلیت دسترسی به API‌های ChatGPT بوده‌اند، نه تمامی کاربران عمومی پلتفرم. همچنین، OpenAI قاطعانه اعلام کرده است که سیستم‌های داخلی و زیرساخت‌های اصلی ChatGPT بدون تعرض باقی مانده‌اند و نگرانی در این خصوص وجود ندارد. نکته حائز اهمیت این است که برخی اطلاعات حساس کاربران به هیچ عنوان به خطر نیفتاده است:

محتوای مکالمات و تعاملات کاربران با ChatGPT

درخواست‌های API

داده‌های مربوط به نحوه استفاده از سرویس

رمزهای عبور، کلیدهای دسترسی و اطلاعات پرداخت

اسناد و مدارک دولتی یا خصوصی

واکنش OpenAI و اقدامات آتی برای امنیت ChatGPT

پس از کشف این نقض امنیتی، OpenAI بلافاصله اقدامات لازم را برای مقابله با آن آغاز کرد. این شرکت Mixpanel را از فهرست سرویس‌های بهره‌وری خود حذف کرده و تحقیقات امنیتی گسترده‌ای را برای ارزیابی کامل ابعاد حادثه به جریان انداخته است.

OpenAI ضمن تاکید بر اولویت امنیت و حریم خصوصی کاربران ChatGPT، متعهد شده است که:

بررسی‌های امنیتی جامعی را برای تمامی برنامه‌ها و خدمات شخص ثالث مورد استفاده خود انجام دهد.

الزامات امنیتی سختگیرانه‌تری را برای کلیه شرکا و فروشندگان خود اعمال کند تا از تکرار چنین حوادثی جلوگیری شود.

با وجود عدم مشاهده مدرکی دال بر سوءاستفاده از داده‌های افشا شده تاکنون، OpenAI به کاربران هشدار داده است که نسبت به پیام‌ها و لینک‌های مشکوک که ممکن است در حملات فیشینگ یا مهندسی اجتماعی مورد استفاده قرار گیرند، هوشیار باشند. این شرکت همچنین از کاربران خواست تا هرگونه فعالیت مشکوک مرتبط با حساب ChatGPT خود را گزارش دهند.

سابقه چالش‌های امنیتی و آینده حریم خصوصی کاربران ChatGPT

این حادثه امنیتی جدیدترین مورد از سلسله چالش‌هایی است که پلتفرم ChatGPT از زمان راه‌اندازی در نوامبر ۲۰۲۲ با آن مواجه بوده است. پیش از این، در مارس ۲۰۲۳، OpenAI مجبور شد سرویس خود را به دلیل یک آسیب‌پذیری که امکان دسترسی به داده‌های خصوصی برخی کاربران را فراهم می‌کرد، به طور موقت به حالت تعلیق درآورد. همچنین، گزارش‌های شرکت امنیت سایبری Group-IB از آلوده شدن بیش از ۱۰۰ هزار دستگاه به بدافزارهایی برای سرقت اطلاعات ورود به سیستم عامل خبر داده بود، هرچند این موارد مستقیماً به نقض زیرساخت‌های OpenAI ارتباطی نداشتند و بیشتر ناشی از آلودگی دستگاه‌های کاربران بودند.

این رخدادها بر اهمیت حیاتی نظارت دقیق بر زنجیره تامین نرم‌افزاری و وابستگی به سرویس‌های شخص ثالث برای پلتفرم‌های بزرگی چون ChatGPT تاکید می‌کند. با گسترش روزافزون استفاده از هوش مصنوعی در زندگی روزمره، تامین امنیت داده‌های کاربران به یک دغدغه اصلی و مستمر تبدیل شده است. شفافیت OpenAI در گزارش این حوادث می‌تواند به تقویت اعتماد کاربران و توسعه استانداردهای امنیتی در اکوسیستم هوش مصنوعی کمک کند و سایر شرکت‌ها را نیز به اتخاذ رویکردهای امنیتی قوی‌تر ترغیب نماید. در نهایت، مسئولیت پذیری در قبال داده‌های کاربران، سنگ بنای توسعه پایدار و قابل اعتماد فناوری‌های پیشرفته نظیر ChatGPT خواهد بود.

مجله تخصصی هک و امنیت


مطالب مرتبط

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا