أفادت وكالة رويترز بأن بعض المؤسسات البارزة المرتبطة بالجيش الصيني قد طوّرت أدوات ذكاء اصطناعي لأغراض عسكرية محتملة، معتمدةً على نماذج “لاما” المفتوحة المصدر التي تطرحها شركة ميتا.
وجاء ذلك بعد مراجعة بحث نُشر في يونيو الماضي، إذ ناقش 6 باحثين صينيين من ثلاث مؤسسات استخدام نسخة أولية من نماذج “لاما” كأساس لتطوير أداة تُعرف باسم “ChatBIT”.
واستعان الباحثون بنموذج “Llama 2 13B” لبناء أداة ذكاء اصطناعي تركز على المجال العسكري، مع تضمين معايير خاصة بهم لجمع المعلومات الاستخباراتية وتحليلها، وتوفير بيانات موثوقة لدعم قرارات العمليات العسكرية. ووفقًا للورقة البحثية، فقد خُصصت أداة “ChatBIT” لإجراء المحادثات، والإجابة عن الأسئلة في السياق العسكري.
وتفوقت أداة “ChatBIT” على بعض النماذج الأخرى للذكاء الاصطناعي، وبلغت قدرتها نحو 90% من إمكانيات نموذج GPT-4 الشهير، لكن لم يوضح الباحثون كيفية قياسهم أداء النموذج أو إذا كان قد اُستخدم في أي مكان.
وتظل القدرات الدقيقة لأداة “ChatBIT” غير معروفة، وقد أشار الباحثون إلى أن النموذج يعتمد على 100 ألف سجل حواري عسكري فقط، وهي كمية قليلة مقارنةً بالنماذج اللغوية الكبيرة الأخرى.
وأعربت جويل بينو، نائبة رئيس أبحاث الذكاء الاصطناعي في ميتا، عن شكوكها حول مدى فاعلية النموذج قائلةً: “تلك الكمية تُعد جزءًا ضئيلًا للغاية مقارنة بالنماذج التي تُدرب على تريليونات الكلمات، مما يدفعني للتساؤل عما حققوه فعلًا من قدرات مميزة”.
وتشجع ميتا انفتاح نماذجها للذكاء الاصطناعي، لكنها تفرض بعض القيود على استخدامها، إذ تشترط على الخدمات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من الشركة. كما تفرض قيودًا على استخدام نماذجها لأغراض عسكرية، أو في مجالات الحرب، أو الصناعة النووية، أو التجسس، وفقًا لما ذكره التقرير.
وأشارت مولي مونتغمري، مديرة السياسات العامة في ميتا، إلى أن توفير نماذج الشركة بنحو مفتوح المصدر يُصعّب مراقبة الامتثال لقواعدها، وقالت لرويترز: “أي استخدام لنماذجنا من جيش التحرير الشعبي الصيني غير مصرح به، ويخالف سياسة الاستخدام المقبول لدينا”.
نسخ الرابط تم نسخ الرابط