ميزة أمنية جديدة من OpenAI: "وضع القفل" لحماية ChatGPT من الاختراقات

ميزة أمنية جديدة من OpenAI: "وضع القفل" لحماية ChatGPT من الاختراقات

أعلنت شركة OpenAI عن إطلاق ميزة أمنية متقدمة وحاسمة تُدعى "وضع القفل" (Lockdown Mode) ضمن تطبيق ChatGPT، بهدف تقليص المخاطر الأمنية المتعلقة بالتفاعلات الخارجية للنموذج بشكل كبير.


هذا الوضع الجديد، الذي أعلنت عنه الشركة عبر مدونتها الرسمية، يُعتبر إجراءً استثنائياً ومُقيِّداً للغاية، وهو غير مُصمم للاستخدام اليومي لمعظم المستخدمين. الهدف الأساسي منه هو فرض قيود صارمة على كيفية تفاعل النموذج مع أي أنظمة خارجية لتقليل احتمالية التعرض لهجمات "حقن البرمبت" (prompt injection) التي قد تؤدي إلى تسريب معلومات حساسة.


يأتي هذا التحرك في ظل تزايد الضغوط على OpenAI بخصوص قضايا الخصوصية والأمان، خاصة بعد التحديثات الأخيرة للنماذج وتوسع استخدامها في بيئات عمل تتطلب مستوى عالٍ من السرية.


يُعد "وضع القفل" خطوة استراتيجية لمواجهة أحد أخطر الثغرات الأمنية في نماذج اللغة الكبيرة، حيث يمكن للمهاجمين استغلال البرومبتات المُلغَّمة لخداع النموذج لتنفيذ أوامر ضارة أو استخراج بيانات سرية. عند تفعيل هذا الوضع، يتم حظر أو تقييد معظم الوظائف الخارجية بشكل افتراضي، مثل البحث في الإنترنت، استخدام الأدوات، أو الوصول إلى أي مصدر بيانات خارجي.


يجب على المستخدم تفعيل هذا الوضع يدوياً عند الحاجة فقط، وتُنصح به الجهات العاملة في البيئات عالية المخاطر، مثل التعامل مع بيانات طبية، مالية، أو حكومية. عند التشغيل، يتحول ChatGPT إلى نظام شبه مُغلق يعتمد كلياً على قاعدة المعرفة الداخلية للنموذج، مما يُقضي عملياً على إمكانية تسريب البيانات عبر الهجمات غير المباشرة.

ميزة أمنية جديدة من OpenAI: "وضع القفل" لحماية ChatGPT من الاختراقات الخبر السابق

ميزة أمنية جديدة من OpenAI: "وضع القفل" لحماية ChatGPT من الاختراقات

ChatGPT 5.2 يصحح خطأ فيزيائياً قديماً في 12 ساعة الخبر التالي

ChatGPT 5.2 يصحح خطأ فيزيائياً قديماً في 12 ساعة