حوكمة أتمتة الذكاء الاصطناعي: الأدوار والضوابط ومسار الموافقة
تتجه مؤسسات كثيرة في دولة الإمارات إلى أتمتة أجزاء من العمليات باستخدام الذكاء الاصطناعي، لكن النجاح لا يعتمد على التقنية وحدها. الحوكمة الواضحة تحدد من يقرر، وما الضوابط المطلوبة، وكيف تُعتمد الحالات قبل أن تؤثر على العملاء والامتثال والبيانات، مع توثيق يسهّل التدقيق لاحقاً.
حين تتحول الأتمتة المدعومة بالذكاء الاصطناعي من تجارب متفرقة إلى قدرات مؤسسية، تصبح الحوكمة هي العامل الذي يمنع تضارب القرارات وتكرار الحلول وارتفاع المخاطر. المقصود بحوكمة أتمتة الذكاء الاصطناعي هو مجموعة قواعد وأدوار وإجراءات تضمن أن بناء الحلول وتشغيلها يتم بطريقة قابلة للتدقيق، ومتوافقة مع المتطلبات التنظيمية، ومحكومة بمساءلة واضحة.
في بيئات أعمال مثل الإمارات، حيث تتداخل متطلبات حماية البيانات، وإدارة المخاطر، واستمرارية الخدمات، لا يكفي أن “تعمل” الأتمتة. المطلوب أن يكون من السهل تفسير سبب اتخاذ القرار الآلي، ومعرفة من صادق عليه، وما هي البيانات التي استخدمت، وكيف يمكن إيقافه أو تعديله دون تعطيل العمليات أو الإضرار بالأطراف المتأثرة.
كيف تقوم الشركات بتنفيذ أتمتة الذكاء الاصطناعي في العمليات؟
التنفيذ المنضبط يبدأ بتحديد حالات الاستخدام التي تستحق الأتمتة، ليس فقط بناءً على سهولة التنفيذ، بل وفق أثرها على الجودة والمخاطر والامتثال. عملياً، تُحوِّل الشركات أفكار الأتمتة إلى “سجل حالات استخدام” يتضمن: وصف العملية الحالية، نقاط الألم، البيانات المطلوبة، الأطراف المتأثرة، ومستوى الحساسية (مثل التعامل مع بيانات شخصية أو قرارات تؤثر على العملاء).
بعد ذلك يأتي تصميم مسار موافقة متعدد المراحل. غالباً ما تبدأ المرحلة بمراجعة مالك العملية (Business Owner) للتأكد من أن المشكلة محددة وأن مؤشرات النجاح واضحة. ثم يقوم فريق التقنية أو الأتمتة بتقييم القابلية (Feasibility) من حيث التكامل مع الأنظمة، وجودة البيانات، والقيود الأمنية. يلي ذلك “تقييم مخاطر” يركز على: الانحياز، قابلية التفسير، أثر الأخطاء، وإمكانية إساءة الاستخدام.
الأدوار الأساسية في هذه المرحلة عادة تشمل: مالك العملية، مالك المنتج، مسؤول البيانات أو حارس البيانات (Data Steward)، أمن المعلومات، الخصوصية/الشؤون القانونية، الامتثال، والتدقيق الداخلي عند الحاجة. وجود هذه الأدوار منذ البداية يقلل إعادة العمل لاحقاً، لأن الموافقات تصبح مبنية على معلومات موثقة، لا على افتراضات.
ما ينطوي عليه العمل مع أتمتة الذكاء الاصطناعي في الممارسة العملية؟
على أرض الواقع، معظم التحديات ليست في “بناء النموذج” بل في تشغيله بأمان وباستقرار. لذلك تركز الحوكمة العملية على الضوابط اليومية: إدارة الوصول (من يستطيع استخدام الأداة أو تعديلها)، الفصل بين البيئات (تجريب/اختبار/إنتاج)، وإدارة التغيير (من يوافق على تحديث النموذج أو قواعد الأتمتة أو مصادر البيانات).
من الضوابط المفيدة أيضاً توثيق موحد يرافق كل أتمتة: هدفها، حدود استخدامها، مصادر البيانات، افتراضات التصميم، ونقاط الفشل المحتملة. في حلول التوليد اللغوي مثلاً، تُدار مكتبة “قوالب التعليمات” أو الإرشادات التشغيلية، وتُحفظ سجلات الاستخدام والنتائج بما يسمح بالمراجعة اللاحقة. ويُفضّل تحديد متى تكون “المراجعة البشرية” إلزامية (Human-in-the-loop)، مثل القرارات الحساسة، أو الحالات ذات الثقة المنخفضة، أو أي مخرجات قد تُستخدم في مراسلات رسمية.
كما تشمل الممارسة الجيدة مراقبة الأداء والانحراف (Drift): هل تتدهور الدقة بمرور الوقت؟ هل تغيرت طبيعة البيانات الداخلة؟ هل ظهرت شكاوى أو أنماط أخطاء؟ هذه الأسئلة تتحول إلى مؤشرات تشغيلية (KPIs/KRIs) ولوحات متابعة. وعند وقوع حادث (مثل تسريب بيانات، أو مخرجات غير لائقة، أو أتمتة سببت تعطلاً)، يجب أن يكون هناك مسار واضح لإدارة الحوادث يتضمن التصنيف، الاحتواء، التحليل، والتعلم، مع توثيق القرار: من أوقف الأتمتة ولماذا.
كيف يتم هيكلة أتمتة الذكاء الاصطناعي عبر أنظمة المؤسسات؟
هيكلة الأتمتة عبر المؤسسة تتأثر بحجم الشركة وتنوع وحدات الأعمال ونضجها الرقمي. نموذج شائع هو “مركز تميّز” (CoE) يضع المعايير والأطر ويوفر منصات مشتركة (مثل أدوات إدارة النماذج، خطوط النشر، بوابات واجهات التطبيقات)، مع فرق موزعة داخل الإدارات تنفذ حالات الاستخدام تحت نفس المعايير. هذا يوازن بين السرعة والاتساق: الإدارات تتحرك بسرعة، لكن ضمن قواعد موحدة.
من منظور تقني، يساعد التفكير في الأتمتة كطبقات: طبقة بيانات (مصادر، جودة، تصنيف حساسية)، طبقة ذكاء اصطناعي (نماذج/خدمات/قواعد)، طبقة تكامل (واجهات، رسائل، ربط مع أنظمة ERP/CRM)، وطبقة مراقبة وتدقيق (سجلات، تتبع قرارات، تنبيهات). كل طبقة تحتاج ضوابطها: تشفير وإدارة مفاتيح للبيانات، إدارة أسرار وبيانات اعتماد للتكامل، وسياسات احتفاظ بالسجلات تراعي متطلبات الأعمال والامتثال.
أما مسار الموافقة، فيمكن تصميمه على شكل “بوابات” قرار متسلسلة: (1) تعريف الحالة وتحديد المالك، (2) تقييم البيانات والخصوصية، (3) مراجعة الأمن السيبراني، (4) تقييم مخاطر النموذج/الأتمتة وأثرها على الأطراف، (5) اختبار قبل الإنتاج بمعايير قبول واضحة، (6) اعتماد التشغيل مع خطة مراقبة وخطة رجوع (Rollback). كل بوابة تُنتج أثراً تدقيقياً: من وافق، ما المستندات، وما الشروط (مثل تقييد الاستخدام، أو إلزام مراجعة بشرية، أو إعادة تقييم بعد فترة).
لتقليل التعقيد، يفيد تطبيق مبدأ “التحكم بحسب المخاطر”: الأتمتة التي تلخص مستندات داخلية منخفضة الحساسية لا تحتاج نفس مستوى التدقيق المطلوب لأتمتة تؤثر على قرارات ائتمانية، أو توظيف، أو تعامل مع بيانات شخصية. هذا النهج يرفع الكفاءة دون التنازل عن السلامة، ويجعل الحوكمة قابلة للتطبيق بدلاً من أن تكون عائقاً.
الخلاصة أن حوكمة أتمتة الذكاء الاصطناعي ليست وثيقة نظرية، بل طريقة عمل تربط الأدوار بالمساءلة، وتربط الضوابط بالمخاطر، وتربط الموافقات بسجل قابل للتدقيق. عندما تُصمم الأتمتة بهذا المنطق، تصبح قابلة للتوسع عبر الإدارات والأنظمة مع تقليل المفاجآت التشغيلية، وتحسين جودة القرارات، والحفاظ على الثقة والامتثال.