جديد: تقرير SANS ICS/OT للأمن السيبراني لعام 2025 متاح الآن

احصل على التقرير
نستخدمُ الذكاء الاصطناعي في ترجمات الموقع، ومع أننا نسعى جاهدين لبلوغ الدقة قد لا تكون هذه الترجمات دقيقةً بنسبة 100% دائمًا. تفهّمك لهذا الأمر هو موضع تقدير لدينا.

اكتشاف البرمجيات الخبيثة في نماذج الذكاء الاصطناعي باستخدام MetaDefender Sandbox

لماذا تُعد نماذج الذكاء الاصطناعي الخبيثة هي الجبهة التالية في هجمات سلسلة التوريد - وكيف يكشف MetaDefender Sandbox حمولاتها الخفية.
ب OPSWAT
شارك هذا المنشور

أصبح الذكاء الاصطناعي جزءًا من الحياة اليومية. ووفقًا لمؤسسة IDC، من المتوقع أن يتجاوز الإنفاق العالمي على أنظمة الذكاء الاصطناعي 300 مليار دولار بحلول عام 2026، مما يدل على مدى تسارع وتيرة تبني هذه التكنولوجيا. لم يعد الذكاء الاصطناعي تكنولوجيا متخصصة، بل أصبح يشكل الطريقة التي تعمل بها الشركات والحكومات والأفراد.

يعمل مطورو Software بشكل متزايد على دمج وظائف نموذج اللغة الكبيرة (LLM) في تطبيقاتهم. يتم الآن تضمين نماذج اللغات الكبيرة المعروفة مثل ChatGPT من OقلمAI وGemini من Google وLLaMA من Meta في منصات الأعمال وأدوات المستهلكين. من روبوتات الدردشة الآلية لدعم العملاء إلى برامج الإنتاجية، يعمل تكامل الذكاء الاصطناعي على زيادة الكفاءة وتقليل التكاليف والحفاظ على تنافسية المؤسسات.

ولكن مع كل تقنية جديدة تأتي مخاطر جديدة. فكلما زاد اعتمادنا على الذكاء الاصطناعي، أصبح أكثر جاذبية كهدف للمهاجمين. هناك تهديد واحد على وجه الخصوص يكتسب زخماً: نماذج الذكاء الاصطناعي الخبيثة، وهي ملفات تبدو كأدوات مفيدة ولكنها تخفي مخاطر خفية.

المخاطر الخفية للنماذج المدربة مسبقاً

يمكن أن يستغرق تدريب نموذج ذكاء اصطناعي من الصفر أسابيع، وأجهزة كمبيوتر قوية، ومجموعات بيانات ضخمة. ولتوفير الوقت، غالبًا ما يعيد المطورون استخدام النماذج التي تم تدريبها مسبقًا والتي تتم مشاركتها من خلال منصات مثل PyPI أو Hugging Face أو GitHub، وعادةً ما تكون بتنسيقات مثل Pickle و PyTorch.

ظاهرياً، يبدو هذا منطقياً تماماً. لماذا إعادة اختراع العجلة إذا كان هناك نموذج موجود بالفعل؟ ولكن هنا تكمن المشكلة: ليست كل النماذج آمنة. يمكن تعديل بعضها لإخفاء التعليمات البرمجية الضارة. فبدلاً من المساعدة ببساطة في التعرف على الكلام أو اكتشاف الصور، يمكنها تشغيل التعليمات الضارة بهدوء لحظة تحميلها.

ملفات Pickle خطيرة بشكل خاص. على عكس معظم تنسيقات البيانات، لا يمكن لملفات Pickle تخزين المعلومات فحسب، بل يمكن أن تخزن أيضًا التعليمات البرمجية القابلة للتنفيذ. وهذا يعني أنه يمكن للمهاجمين إخفاء البرمجيات الخبيثة داخل نموذج يبدو عاديًا تمامًا، مما يوفر بابًا خلفيًا مخفيًا من خلال ما يبدو وكأنه مكون موثوق به من الذكاء الاصطناعي.

من البحث إلى الهجمات في العالم الحقيقي

الإنذارات المبكرة - مخاطرة نظرية

إن فكرة إمكانية إساءة استخدام نماذج الذكاء الاصطناعي لتقديم برمجيات خبيثة ليست جديدة. ففي وقت مبكر من عام 2018، نشر باحثون دراسات مثل " هجمات إعادة استخدام النماذج على أنظمة التعلّم العميق" التي تُظهر أن النماذج المُدربة مسبقاً من مصادر غير موثوقة يمكن التلاعب بها لتتصرف بشكل ضار.

في البداية، بدا هذا الأمر في البداية وكأنه تجربة فكرية - سيناريو "ماذا لو" نوقش في الدوائر الأكاديمية. وافترض الكثيرون أنه سيبقى أمرًا متخصصًا للغاية بحيث لا يهم. لكن التاريخ يُظهر أن كل تقنية يتم تبنيها على نطاق واسع تصبح هدفاً، ولم يكن الذكاء الاصطناعي استثناءً.

إثبات المفهوم - جعل المخاطرة حقيقية

حدث التحوّل من النظرية إلى التطبيق عندما ظهرت أمثلة حقيقية لنماذج ذكاء اصطناعي خبيثة تُظهر أن التنسيقات القائمة على Pickle مثل PyTorch لا يمكنها تضمين أوزان النماذج فحسب، بل يمكنها تضمين التعليمات البرمجية القابلة للتنفيذ.

كانت الحالة اللافتة للنظر هي Star23/baller13، وهو نموذج تم تحميله على Hugging Face في أوائل يناير 2024. فقد احتوى على غلاف عكسي مخفي داخل ملف PyTorch، ويمكن أن يؤدي تحميله إلى منح المهاجمين إمكانية الوصول عن بُعد مع السماح للنموذج بالعمل كنموذج ذكاء اصطناعي صالح. وهذا يسلط الضوء على أن الباحثين الأمنيين كانوا يختبرون بنشاط إثبات المفاهيم في نهاية عام 2023 وحتى عام 2024.

لقطة شاشة لواجهة المستخدم تُظهر تحذيرًا بشأن اكتشاف البرمجيات الخبيثة في نماذج الذكاء الاصطناعي مع ملف تم فحصه على أنه غير آمن وتحذير بيانات YAML الوصفية
نموذج PoC على عناق الوجه
لقطة شاشة لرمز Python يُظهر أوامر الصدفة العكسية التي توضح الكشف عن البرمجيات الخبيثة في نماذج الذكاء الاصطناعي لإثبات المفهوم
قذيفة عكسية مدمجة في Pytorch

بحلول عام 2024، لم تعد المشكلة معزولة. فقد أبلغت JFrog عن تحميل أكثر من 100 نموذج خبيث للذكاء الاصطناعي/التعلم الآلي على موقع Hugging Face، مما يؤكد أن هذا التهديد قد انتقل من النظرية إلى هجمات في العالم الحقيقي.

هجمات Supply Chain - من المختبرات إلى البرية

كما بدأ المهاجمون أيضاً في استغلال الثقة المبنية في أنظمة البرمجيات. في مايو 2025، قامت حزم PyPI المزيفة مثل aliyun-ai-labs-snippets-sdk و ai-labs-snippets-sdk بتقليد علامة علي بابا التجارية للذكاء الاصطناعي لخداع المطورين. وعلى الرغم من أن هذه الحزم كانت متاحة لأقل من 24 ساعة، إلا أنه تم تنزيلها حوالي 1,600 مرة، مما يدل على مدى سرعة تسلل مكونات الذكاء الاصطناعي المسمومة إلى سلسلة التوريد.

بالنسبة لقادة الأمن، يمثل هذا الأمر تعرضاً مزدوجاً:

  • الاضطراب التشغيلي إذا كانت النماذج المخترقة تسمم أدوات العمل المدعومة بالذكاء الاصطناعي.
  • مخاطر تنظيمية ومخاطر الامتثال في حالة حدوث تسرّب للبيانات عبر مكونات موثوق بها ولكن مُستهدفة.
صفحة حزمة Python SDK التي تُظهر أمن سلسلة التوريد ونتائج الثغرات الأمنية للكشف عن البرمجيات الخبيثة في نماذج الذكاء الاصطناعي
حزم PyPi الخبيثة مثال 1
لقطة شاشة لواجهة المستخدم تُظهر تنبيه مخاطر سلسلة التوريد للكشف عن البرمجيات الخبيثة في نماذج الذكاء الاصطناعي في حزمة Python SDK
حزم PyPi الخبيثة مثال 2
مستكشف الملفات يُظهر حزمة PyPi مخترقة مع ملف model.pt مشبوه، يوضح اكتشاف البرمجيات الخبيثة في نماذج الذكاء الاصطناعي
حزم PyPi الخبيثة مثال 3

المراوغة المتقدمة - التفوق على الدفاعات القديمة

بمجرد أن رأى المهاجمون هذه الإمكانيات، بدأوا في تجربة طرق لجعل النماذج الخبيثة أكثر صعوبة في الكشف عنها. أوضح أحد الباحثين الأمنيين المعروف باسم Coldwaterq كيف يمكن إساءة استخدام طبيعة "Stacked Pickle" لإخفاء التعليمات البرمجية الخبيثة.

من خلال حقن تعليمات خبيثة بين طبقات متعددة من كائنات Pickle، يمكن للمهاجمين دفن حمولتهم بحيث تبدو غير ضارة للماسحات الضوئية التقليدية. عندما يتم تحميل النموذج، يتم تفريغ التعليمات البرمجية المخفية ببطء خطوة بخطوة، كاشفةً عن غرضها الحقيقي.

تُظهر واجهة مستخدم الفحص الأمني 0 من أصل 62 بائعًا اكتشفوا برمجيات خبيثة في ملف نموذج الذكاء الاصطناعي، مما يسلط الضوء على التهرب من الكشف
لم يتم اكتشافه على موقع VirusTotal

والنتيجة هي ظهور فئة جديدة من تهديدات سلسلة التوريد القائمة على الذكاء الاصطناعي تتسم بالتخفي والمرونة في آن واحد. يؤكد هذا التطور على سباق التسلح بين المهاجمين الذين يبتكرون حيلًا جديدة والمدافعين الذين يطورون أدوات لفضحهم.

كيف تساعد اكتشافات Metadefender Sandbox في منع هجمات الذكاء الاصطناعي

مع قيام المهاجمين بتحسين أساليبهم، لم يعد المسح البسيط للتوقيعات كافياً. إذ يمكن لنماذج الذكاء الاصطناعي الخبيثة استخدام الترميز أو الضغط أو المراوغات في Pickle لإخفاء حمولاتها. يعالج MetaDefender Sandbox هذه الفجوة من خلال تحليل عميق متعدد الطبقات مصمم خصيصًا لتنسيقات ملفات الذكاء الاصطناعي وتعلم الآلة.

الاستفادة من أدوات المسح الضوئي للمخلل المتكاملة

يقوم MetaDefender Sandbox بدمج Fickling مع محللي OPSWAT المخصصين لتحليل ملفات Pickle إلى مكوناتها. وهذا يسمح للمدافعين بـ

  • افحص الواردات غير العادية، واستدعاءات الدالة غير الآمنة، والكائنات المشبوهة.
  • تحديد الوظائف التي يجب ألا تظهر أبدًا في نموذج الذكاء الاصطناعي العادي (مثل اتصالات الشبكة وإجراءات التشفير الروتينية).
  • إنشاء تقارير منظمة لفرق الأمن وسير عمل مركز العمليات الأمنية.
واجهة مستخدم أداة Fickling تُظهر حكمًا خبيثًا لاكتشاف البرمجيات الخبيثة في نماذج الذكاء الاصطناعي باستخدام المسح الضوئي المخلل
تم الحصول على حكم تحليل فيكلينج

يسلط التحليل الضوء على أنواع متعددة من التواقيع التي يمكن أن تشير إلى ملف Pickle مشبوه. فهو يبحث عن أنماط غير عادية، أو استدعاءات دالة غير آمنة، أو كائنات لا تتماشى مع غرض نموذج الذكاء الاصطناعي العادي.

لقطة شاشة لواجهة المستخدم تُظهر الكشف عن البرمجيات الخبيثة في ملف مخلل نموذج الذكاء الاصطناعي مع إدراج الحكم الخبيث وواردات بايثون غير الآمنة
وجد التحليل دليلاً مثيراً للاهتمام في المخلل

في سياق التدريب على الذكاء الاصطناعي، يجب ألا يتطلب ملف Pickle مكتبات خارجية للتفاعل مع العمليات أو الاتصال بالشبكة أو إجراءات التشفير. يعد وجود مثل هذه الواردات مؤشرًا قويًا على وجود نوايا خبيثة ويجب الإبلاغ عنها أثناء الفحص.

تعرض واجهة المستخدم نتائج فحص ملف المخلل للكشف عن البرمجيات الخبيثة في نماذج الذكاء الاصطناعي، مع إدراج استدعاءات الاستيراد والوظائف المشبوهة
يستدعي ملف المخلل دالة

التحليل الثابت العميق

بالإضافة إلى التحليل، يفكك صندوق الرمل الكائنات المتسلسلة ويتتبع تعليماتها. على سبيل المثال، يتم فحص رمز التشغيل REDUCEالخاص ب Pickle - الذييمكنه تنفيذ وظائف عشوائية أثناء فك التسلسل - بعناية. غالبًا ما يسيء المهاجمون استخدام REDUCE لإطلاق حمولات مخفية، ويقوم صندوق الرمل بالإشارة إلى أي استخدام شاذ.

لقطة شاشة لواجهة المستخدم تُظهر التحليل الثابت العميق الذي يكتشف البرمجيات الخبيثة في ملف مخلل نموذج الذكاء الاصطناعي مع الحكم الخبيث وتفاصيل التعليمات البرمجية
كشف الغطاء العكسي من star23/baller13

غالبًا ما تخفي الجهات الفاعلة في مجال التهديدات الحمولة الحقيقية خلف طبقات ترميز إضافية. في حوادث سلسلة توريد PyPI الأخيرة، تم تخزين حمولة Python النهائية كسلسلة base64 طويلة، ويقوم MetaDefender Sandbox تلقائيًا بفك تشفير هذه الطبقات وفك تشفيرها للكشف عن المحتوى الخبيث الفعلي.

لقطة شاشة لواجهة المستخدم تُظهر التحليل الساكن العميق للكشف عن البرمجيات الخبيثة في نماذج الذكاء الاصطناعي عبر ملف المخلل REDUCE تحذير الرمز التشغيلي ومخرجات التعليمات البرمجية
يحتوي تنفيذ التعليمات البرمجية التعسفية على حمولة مشفرة
لقطة شاشة لواجهة المستخدم تُظهر حكم التحليل الساكن العميق لملف المخلل الخبيث لاكتشاف البرمجيات الخبيثة في نماذج الذكاء الاصطناعي
يقوم ملف المخلل بتنفيذ الأوامر المشفرة base64
لقطة شاشة لرمز Python تُظهر التحليل الثابت للكشف عن البرمجيات الخبيثة في نماذج الذكاء الاصطناعي، ذات الصلة بالتحليل الثابت العميق
الحمولة بعد فك التشفير. (موجود في قسم "الملفات المستخرجة" في تقرير صندوق الرمل MD)

الكشف عن أساليب المراوغة المتعمدة

يمكن استخدام المخلل المكدس كخدعة لإخفاء السلوك الخبيث. من خلال تداخل كائنات Pickle المتعددة وحقن الحمولة عبر طبقات ثم دمجها مع الضغط أو الترميز. تبدو كل طبقة حميدة بمفردها، وبالتالي فإن العديد من الماسحات الضوئية وعمليات الفحص السريعة تفوت الحمولة الخبيثة.

يقومSandbox MetaDefender Sandbox بتقشير هذه الطبقات واحدة تلو الأخرى: فهو يقوم بتحليل كل كائن من كائنات Pickle، ويفك تشفير أو فك ضغط المقاطع المشفرة ويتبع سلسلة التنفيذ لإعادة بناء الحمولة الكاملة. من خلال إعادة تشغيل تسلسل التفريغ في تدفق تحليل محكوم، يكشف صندوق الحماية عن المنطق المخفي دون تشغيل الكود في بيئة إنتاج.

بالنسبة لرؤساء أمن المعلومات، فإن النتيجة واضحة: يتم الكشف عن التهديدات الخفية قبل أن تصل النماذج المسمومة إلى خطوط أنابيب الذكاء الاصطناعي لديك.

تسلط واجهة المستخدم للكشف عن البرمجيات الخبيثة الضوء على تقنيات التهرب في نماذج الذكاء الاصطناعي باستخدام ملفات المخلل والأحكام وتحليل الشيفرات البرمجية المشبوهة
قد يقوم ملف المخلل بتنفيذ حمولة عبر رمز التشغيل REDUCE

استنتاج

أصبحت نماذج الذكاء الاصطناعي اللبنات الأساسية للبرمجيات الحديثة. ولكن مثلها مثل أي مكون برمجي، يمكن استخدامها كسلاح. إن الجمع بين الثقة العالية والرؤية المنخفضة يجعلها وسيلة مثالية لهجمات سلسلة التوريد.

وكما تظهر الحوادث الواقعية، فإن النماذج الخبيثة لم تعد افتراضية - فهي موجودة الآن. واكتشافها ليس بالأمر الهيّن، ولكنه أمر بالغ الأهمية.

يوفر MetaDefender Sandbox العمق والأتمتة والدقة اللازمة لـ

  • الكشف عن الحمولات المخفية في نماذج الذكاء الاصطناعي المدربة مسبقاً.
  • كشف تكتيكات المراوغة المتقدمة غير المرئية للماسحات الضوئية القديمة.
  • حماية خطوط أنابيب MLOps والمطورين والمؤسسات من المكونات المسمومة.

تثق المؤسسات في مختلف القطاعات الحيوية بالفعل في OPSWAT لحماية سلاسل التوريد الخاصة بها. وبفضل MetaDefender Sandbox يمكنهم الآن توسيع نطاق هذه الحماية لتشمل عصر الذكاء الاصطناعي، حيث لا يأتي الابتكار على حساب الأمن.

اعرف المزيد عن MetaDefender Sandbox وشاهد كيف يكتشف التهديدات المخفية في نماذج الذكاء الاصطناعي.

مؤشرات التسوية (IOCs)

star23/baller13: pytorch_model.bin
SHA256: b36f04a774ed4f14104a053d077e029dc27cd1bf8d65a4c5dd5fa616e4ee81a4

ai-labs-snippets-sdk: model.pt
SHA256: ff9e8d1aa1b26a0e83159e77e72768ccb5f211d56af4ee6bc7c47a6ab88be765

aliyun-ai-labs-snippets-sdk: model.pt
SHA256: aae79c8d52f53dcc6037787de6694636ecffee2e7bb125a813f18a81ab7cdff7

coldwaterq_inject_calc.pt
SHA256: 1722fa23f0fe9f0a6ddf01ed84a9ba4d1f27daa59a55f4f61996ae3ce22dab3a

خوادم C2
hxx00 hxxps[://]aksjdbajdbajkb2jeblad[.]oss-cn-hongkong[.]aliyuncs[.]com/aksahlksd

نظام منع التطفل
136.243.243.156.120
8.210.242.114

ابق على اطلاع دائم OPSWAT!

اشترك اليوم لتلقي آخر تحديثات الشركة, والقصص ومعلومات عن الفعاليات والمزيد.