التحديث الذي لا يمكنك تجاهله: انتهاء دعم Office 2016 و Office 2019

اقرأ الآن
نستخدمُ الذكاء الاصطناعي في ترجمات الموقع، ومع أننا نسعى جاهدين لبلوغ الدقة قد لا تكون هذه الترجمات دقيقةً بنسبة 100% دائمًا. تفهّمك لهذا الأمر هو موضع تقدير لدينا.

مستقبل صمامات البيانات

شارك هذا المنشور

في OPSWAT رواد في مجال الصمام الثنائي للبيانات والبوابات أحادية الاتجاه، وقد كان نهجنا دائمًا شاملاً ومدروسًا.

نستثمر في مجموعة واسعة من العروض المخصصة العملاء— بدءًا من مستويات الأداء المختلفة ومتطلبات الاعتماد وصولاً إلى قدرات التصفية المتقدمة — فضلاً عن استراتيجيات التصنيع في بلدان منشأ متعددة عبر المناطق التي نعمل فيها. ونقوم بذلك لأن حماية البنية التحتية الحيوية ليست مسألة نظرية؛ بل هي حقيقة واقعة وخاضعة للتنظيم وتُطبق على أرض الواقع.

لم تعد الثنائيات البياناتية تقنية متخصصة تُستخدم حصريًّا في البيئات شديدة السرية. بل أصبحت عنصرًا أساسيًا في طريقة تفكير المؤسسات الحديثة فيما يتعلق بالتجزئة والتحكم الحتمي وضمان سلامة البنية.

وهذا، من بين أسباب أخرى، هو السبب الذي يدفعني إلى مشاركة رؤيتي حول الاتجاه الذي أرى أن هذه التكنولوجيا ستتطور فيه خلال السنوات الخمس المقبلة، لا سيما مع تزايد اندماج الذكاء الاصطناعي في البنية التحتية للمؤسسات.

نماذج اللغة الكبيرة (LLMs) وموصلات البيانات

تشهد تقنيات الذكاء الاصطناعي في المؤسسات تحولاً هيكلياً. فلم تعد نماذج اللغة الكبيرة (LLMs) تُستخدم فقط من خلال واجهات برمجة التطبيقات (APIs) في السحابة العامة. فكل يوم، يتزايد عدد المؤسسات التي تعمل بنشاط على تطبيق نماذج اللغة الكبيرة داخل مقراتها، حيث أصبحت مسائل التحكم والامتثال وحماية الملكية الفكرية والسيطرة على التكاليف موضوعات تُناقش على مستوى مجالس الإدارة. وهذا ليس مجرد تخمين، بل هو أمر واضح في سوق البنية التحتية وفي سلوك القطاعات الخاضعة للتنظيم.

لا تكتفي شركة NVIDIA بتقديم نفسها كمجرد مزود لمُسرعات السحابة. بل إنها تروج بقوة لمصانع الذكاء الاصطناعي المخصصة للمؤسسات، وأنظمة DGX، والبنية التحتية المستقلة للذكاء الاصطناعي المصممة خصيصًا للنشر داخل المنشآت.

مثال آخر:أطلقت شركة ديل حلول للذكاء الاصطناعي التوليدي مخصصة للشركات حلول على عمليات النشر الداخلية الآمنة.

هذه العروض موجودة فقط بسبب وجود طلب من جانب الشركات.

كما تتجه المؤسسات المالية نحو هذا الاتجاه. فقد أطلقت «مورغان ستانلي» مساعدًا يعمل بتقنية GPT تم تدريبه على أبحاث داخلية خاصة بها مخصصة للمستشارين الماليين، في حين طورت «جيه بي مورغان» منصات داخلية للذكاء الاصطناعي، وتستكشف الخدمات الذكاء الاصطناعي الخاصة بها الخدمات «IndexGPT».

لا تكشف البنوك عن بياناتها المالية الداخلية لأنظمة الذكاء الاصطناعي العامة المشتركة، وذلك لأن المخاطر التنظيمية المرتبطة بذلك كبيرة للغاية. والحل هو النشر الخاص في إطار بنية تحتية خاضعة للرقابة.

كما أن الحكومات تلعب دوراً محركاً في هذا التحول. فالاتحاد الأوروبي يمول مبادرات "الذكاء الاصطناعي السيادي " بهدف الحد من الاعتماد على مزودي خدمات السحابة الأجانب، بينما تستثمر دول الشرق الأوسط بكثافة في البنية التحتية المحلية للذكاء الاصطناعي للحفاظ على السيطرة على البيانات.

عندما تطالب الحكومات بالسيادة، تتبعها الشركات.

ماذا يعني ذلك بالنسبة لهندسة المؤسسات

في حين أن استخدام نماذج اللغة الكبيرة (LLMs) داخل المؤسسة يحل المشكلة الحرجة المتعلقة بسيادة البيانات، فإنه يخلق في الوقت نفسه مشكلة أخرى، وهي المسؤولية المتعلقة بالبنية.

عندما يتم نشر مجموعة الذكاء الاصطناعي داخل شبكتك، فإنها تتصل بقواعد البيانات الحساسة، وتعالج البيانات الخاضعة للتنظيم، وتخزن التضمينات، وتندمج في سير العمل التشغيلي، وتصبح متشابكة بشكل وثيق مع أنظمة المؤسسة. وفي حالة تعرضها للاختراق، فإن نطاق التأثير يكون داخليًا وقد يكون مدمرًا.

تقوم الشركات فعليًا بتخزين أصولها الأكثر قيمة في بحيرات بيانات مركزية، وتتيح لنماذج اللغة الكبيرة (LLMs) جمع هذه البيانات وتحليلها وتحسينها بهدف تحقيق مكاسب في الكفاءة والإنتاجية. والقيمة المترتبة على ذلك هائلة، لكن المخاطر هائلة أيضًا.

السؤال الحقيقي هو: كيف نحمي هذه البيئات بطريقة حتمية، بدلاً من الاعتماد على تعديل القواعد باستمرار؟

تعد جدران الحماية ضرورية وستظل جزءًا من البنية التحتية للمؤسسات، لكنها تعمل استنادًا إلى مجموعات من القواعد. وعادةً ما تحتوي بيئات المؤسسات على آلاف القواعد المتراكمة، والاستثناءات المؤقتة، وعمليات التجاوز المدفوعة بمتطلبات العمل، والتغييرات الطارئة التي تصبح دائمة، فضلاً عن التعرض لثغرات أمنية من نوع «يوم الصفر».

تسمح جدران الحماية بالاتصال ثنائي الاتجاه عندما تسمح بذلك السياسات، وإذا تمكنت مجموعة نماذج اللغة الكبيرة (LLM) من الاستعلام عن نظام حساس عبر جدار الحماية، فمن المحتمل أن تتمكن من إرسال البيانات مرة أخرى عبر نفس المسار. وهذا أمر غير مقبول عندما تكون الذكاء الاصطناعي متصلة بأنظمة مالية أو بيئات دفاعية أو بنية تحتية حيوية. فالحماية القائمة على القواعد تصبح هشة عند تطبيقها على نطاق واسع.

انتشار استخدام الصمامات البياناتية لحماية نماذج اللغة الكبيرة (LLM) داخل المؤسسات

هناك نمط معماري أكثر حتمية آخذ في الظهور. حيث تقوم المناطق الحساسة في المؤسسات بتوجيه البيانات عبر بوابة أحادية الاتجاه إلى مجموعات معالجة الذكاء الاصطناعي، ويتم منع تلك المجموعة من إعادة إرسال البيانات إلى المنطقة الحساسة عبر نفس الحدود. وهذا يزيل مسارات التسريب العكسي، ويقلل من مخاطر الانتقال الأفقي، ويخلق يقينًا معماريًا لا يمكن تغييره بسبب انحراف السياسات أو أخطاء التكوين.

في هذا النموذج، يتم فرض الاتجاهية على مستوى الأجهزة بدلاً من مستوى قواعد البرمجيات. وهذا التمييز له أهمية بالغة في البيئات التي تتطلب درجة عالية من الضمان.

المرحلة التالية: اتجاه واحد ونظافة تامة

لن يكفي التحكم في الاتجاه وحده في المرحلة التالية من النضج. تستوعب نماذج اللغة الكبيرة (LLMs) كميات هائلة من المحتوى المؤسسي غير المنظم، بما في ذلك المستندات وملفات PDF وملفات CAD والسجلات ورسائل البريد الإلكتروني ورموز البرمجة. وقد تحتوي هذه الملفات على ماكروات مضمنة أو بيانات وصفية مخفية أو حمولات استغلالية أو نصوص برمجية مشوشة أو حتى عناصر ضارة مصممة للتأثير على سلوك الذكاء الاصطناعي. فحتى الملف الذي يتحرك في اتجاه واحد قد يحمل نوايا خبيثة.

وبالتالي، فإن مستقبل "ثنائيات البيانات" سيتطور نحو بوابات أحادية الاتجاه ذكية تدمج تقنية Deep CDR™، وبيئة الحماية التكيفية (adaptive sandboxing)، ومحركات الفحص المدعومة بالذكاء الاصطناعي مثل Predictive Alin، وعمليات إزالة البيانات الوصفية المتقدمة، وتصفية البيانات القائمة على السياسات، كل ذلك مباشرةً داخل البوابة نفسها. وهذا يضمن أن تكون الاتصالات أحادية الاتجاه، بل وأحادية الاتجاه خالية من التلوث.

يتم إعادة بناء الملفات التي تدخل بيئة LLM وتطهيرها والتحقق من صحتها وتوحيدها قبل استيعابها. ويتم إزالة الحمولات الخفية، وتجريد المحتوى النشط، وتحييد العناصر الخبيثة قبل أن تصل إلى نموذج الذكاء الاصطناعي.

يؤدي هذا التحول إلى نقل الحدود الأمنية من مراقبة الشبكة إلى مراقبة سلامة البيانات.

نظرة إلى المستقبل بعد خمس سنوات

خلال السنوات الخمس المقبلة، أتوقع أن نشهد نمواً هائلاً في عمليات نشر نماذج اللغة الكبيرة (LLM) داخل المنشآت في القطاعات الخاضعة للتنظيم، وزيادة الرقابة التنظيمية على تدفقات بيانات الذكاء الاصطناعي، وتحوّل "موصّلات البيانات الذكية" إلى مكونات قياسية في بنى الذكاء الاصطناعي، وتضمين تقنية Deep CDR™ ومحركات التصفية القائمة على الذكاء الاصطناعي داخل البوابات أحادية الاتجاه، وتحولاً واضحاً من التجزئة القائمة على القواعد نحو حدود الثقة التي تُفرض بواسطة القوانين الفيزيائية. 

لن تحل الثنائيات البيانات محل جدران الحماية، بل ستكملها. لكن في البيئات التي تعالج فيها الذكاء الاصطناعي البيانات الأكثر أهمية وتؤثر على العمليات الحيوية، ستصبح هذه الثنائيات عنصراً أساسياً. ولا يمكن للمؤسسات التي تدمج الذكاء الاصطناعي في أنظمتها العصبية أن تعتمد فقط على الانضباط في التهيئة. فهي بحاجة إلى اليقين المعماري، ويبدأ هذا اليقين بتدفق بيانات أحادي الاتجاه ومحدد المسار ونظيف، يتم فرضه عند حدود الأجهزة التي توفرها الثنائيات. 

تعرف على المزيد حول كيفية قيام صمامات البيانات بحماية بيئاتك الحيوية — تواصل مع أحد الخبراء اليوم.  

ابق على اطلاع دائم OPSWAT!

اشترك اليوم لتلقي آخر تحديثات الشركة, والقصص ومعلومات عن الفعاليات والمزيد.