موظفو OpenAI وجوجل يساندون Anthropic في نزاعها ضد البنتاجون بشأن تصنيف "خطر"

موظفو OpenAI وجوجل يساندون Anthropic في نزاعها ضد البنتاجون بشأن تصنيف "خطر"

أكثر من 30 خبيرًا من شركتي OpenAI وGoogle DeepMind أعلنوا دعمهم لشركة Anthropic في معركتها القانونية ضد وزارة الدفاع الأمريكية، بعد أن صنفتها الوزارة بأنها تشكل خطرًا على سلسلة التوريد، معتبرين هذا القرار تعسفيًا وضارًا بمستقبل الذكاء الاصطناعي في أمريكا.


الوثائق التي قُدمت للمحكمة كشفت عن وقوف هؤلاء الموظفين، ومن بينهم العالم البارز جيف دين من Google DeepMind، صفًا واحدًا خلف Anthropic. ووفقًا لبيانهم القانوني، فإن تصنيف الشركة كمصدر خطر هو استخدام غير مبرر للسلطة الحكومية، وقد يرسل رسائل سلبية للصناعة التقنية ككل وسط التنافس العالمي المحتدم في مجال الذكاء الاصطناعي.


يكمن جوهر الخلاف في رفض Anthropic السماح للبنتاجون باستخدام تقنياتها في أنظمة المراقبة الجماعية أو الأسلحة المستقلة، وهو ما اعتبرته الوزارة قيدًا غير مقبول، مجادلة بحقها في استخدام التقنيات لأي غرض قانوني. في المقابل، رفعت Anthropic دعويين قضائيتين ضد الحكومة للطعن في هذا التصنيف الذي يهدد سمعتها وقدرتها التشغيلية.


المفارقة تكمن في أن البنتاجون وقع عقدًا مع OpenAI فور تصنيف Anthropic كمصدر خطر، وهو ما أثار اعتراضات داخلية بين بعض موظفي OpenAI. الموظفون الداعمون لـ Anthropic أشاروا إلى أن الخيار الأسهل كان يمكن أن يكون إلغاء العقد المبدئي واللجوء إلى بديل آخر، بدلاً من اللجوء إلى إجراء عقابي قاسٍ مثل تصنيف "خطر سلسلة التوريد".


في الوثيقة، شدد الموقعون على أن القيود الأخلاقية التي وضعتها Anthropic هي مخاوف مشروعة، وأن هذه الضوابط التعاقدية تمثل خط دفاع أساسي ضد إساءة استخدام تقنيات الذكاء الاصطناعي، خاصة في ظل غياب تشريعات حكومية واضحة تنظم هذا القطاع الحساس.

موظفو OpenAI وجوجل يساندون Anthropic في نزاعها ضد البنتاجون بشأن تصنيف "خطر" الخبر السابق

موظفو OpenAI وجوجل يساندون Anthropic في نزاعها ضد البنتاجون بشأن تصنيف "خطر"

ChatGPT يساهم في كشف جرائم "الطقوس الشيطانية" في بريطانيا الخبر التالي

ChatGPT يساهم في كشف جرائم "الطقوس الشيطانية" في بريطانيا