طلال ابو غزالة : نصيحتي لكل قائد أعمال بشأن الذكاء الاصطناعي
الدكتور طلال أبوغزاله :
قضيت ما يزيد على خمسة عقود عند تقاطع التجارة والتكنولوجيا والعمل المؤسسي. شهدت أفكاراً تتحوّل إلى صناعات، ومؤسسات ضخمة تتآكلها الأيام. وما تعلّمته من كل ذلك هو أن الفارق بين الراسخ والزائل ليس سرعة التبني، بل جودة الحكم. أكتب هذا اليوم لأنني أرى ذلك الحكم في خطر حقيقي في زمن لا نجد فيه حكمةً بشريةً باتت أشد ضرورةً من أي وقت مضى.
لقد دخل الذكاء الاصطناعي مشهد الأعمال بسرعة غير مسبوقة. وما يميّزه عن سائر الثورات التكنولوجية التي شهدتها هو أنه ينتج مخرجات تبدو ذكية. يتحدّث بجمل كاملة، يستشهد بحقائق، ويقدّم توصيات بثقة ظاهرة. لكنّه في جوهره آلة لا ضمير لها، ولا محاسبة، ولا إدراك للعواقب.
ما يقلقني ليس التكنولوجيا في حد ذاتها، بل الاستجابة البشرية لها. تتبنّى المؤسسات هذا الذكاء لا لكونها حددت حاجة حقيقية، بل خشية أن تبدو متأخّرة. والخوف لم يكن يوماً استراتيجية سليمة. حين تتبنّى شركة التكنولوجيا لإظهار الحداثة لا لحل مشكلة حقيقية، فإنها لا تكتسب ميزة تنافسية، بل تراكم مسؤولية صامتة.
الدليل على ذلك يتراكم. ففي مجال تطوير البرمجيات، ثمّة نمط موثّق، ينتج فيه الذكاء الاصطناعي شيفرةً تجتاز جميع اختبارات الوحدة وتبدو هيكليّاً سليمة، غير أن التطبيق الناتج يكون أكبر بثلاثة أضعاف ونصف وأبطأ بألفي مرة من النسخة الأصلية, مما يجعله عديم الصلاحية للاستخدام الفعلي. هذا ما يحدث حين تُقاس الإنتاجية بحجم المخرجات لا بجودة النتائج.
تمتد المشكلة إلى ما هو أبعد من البرمجيات. ينتج الذكاء الاصطناعي تقارير بحثية تبدو موثوقة بينما تتضمّن مراجع مخترعة. يولّد تحليلات مالية ذات منطق داخلي متسق، مبنيةً على مقدّمات خاطئة واقعياً. واضطرت شركة محاسبة عالمية عملاقة كبرى إلى استرداد مبالغ لجهة حكومية أسترالية بعد تسليم تقرير مليء بأخطاء مولّدة عن الذكاء الاصطناعي كانت ستُكتشف بمراجعة بشرية بسيطة. لم تكن تلك شركةً صغيرة، بل كانت مؤسسةً عالميةً بموارد ضخمة وكوادر مخضرمة. وقوعها في هذا الفخ ليس إدانةً للذكاء الاصطناعي، بل إدانة لإخفاق الحوكمة التي سمحت بتسليم مخرجاته دون رقابة كافية.
من أكثر ما يقلقني ما بات يُسمّى ب أوهام ديمقراطية التطوير. يُحتفى بقدرة الموظفين غير التقنيين على بناء برمجيات وأتمتة مهام كانت تستلزم خبرة متخصصة عميقة. وهذا إنجاز لافت، لكنه ينطوي أيضاً على مخاطر عميقة. فحين يبني أشخاص بلا تدريب هندسي أنظمةً لا يستطيعون تدقيقها، تراكم المؤسسات ثغراتٍ صامتة لا تعلن عن نفسها، بل تنمو خفيةً حتى يوم الانهيار.
أعمق المخاطر، والأكثر خطورةً من أخطاء الذكاء الاصطناعي ذاته، هو استعدادنا لتقبّل مخرجاته حقيقةً مسلّمًا بها. يتحدّث بطلاقة، والطلاقة في علم النفس البشري كثيرًا ما تُفسّر على أنها فهم وعمق. وحين تبدأ المؤسسات بالاعتماد على الذكاء الاصطناعي كمصدر وحيد للحقيقة، تتخلى عن ملكتها الأسمى: الحكم البشري.
حتى قطاع التأمين، المتخصّص في تقييم المخاطر وتسعيرها، بدأ يطلق تحذيراته. يسعى مكتتبو التأمين إلى استثناء المسؤوليات المرتبطة بالذكاء الاصطناعي من وثائق التأمين، ويضغط بعضهم على الجهات التنظيمية لإقرار استثناءات صريحة. فحين تبدأ المؤسسات المعنية بتسعير المخاطر في الانسحاب من سوق بعينه، ينبغي للقادة التقاط ذلك بوصفه إشارةً واضحة. شركات التأمين لا تتراجع عن أسواق مربحة دون سبب حقيقي.
تصحيح قادم لا محالة. ستواجه المؤسسات التي نشرت الذكاء الاصطناعي دون إطار حوكمة واضح، ودون مساءلة وضامنة، ودون مراجعة بشرية حقيقية، تحديات قانونية وأضراراً في السمعة وضغوطاً على الأسعار. وهذا حادث بالفعل، ليس سيناريواً مستقبلياً.
أتحدث بقلق بالغ حين يتعلق الأمر بمنطقتنا العربية. فالعالم العربي يقف اليوم عند منعطف حاسم في مسيرة بناء مؤسساته. كثير من حكوماتنا وشركاتنا وهيئاتنا المهنية لا تزال تضع الأطر القانونية والتنظيمية والثقافية التي استغرق بناؤها في الاقتصادات الأكثر نضجاً عقوداً متتالية. في هذا السياق، تبني الذكاء الاصطناعي دون حوكمة ليس مجرد مخاطرة؛ بل قد تكون تبعاته جيلية في أثرها. إذا دمجت مؤسساتنا الذكاء الاصطناعي في أساساتها قبل أن تكون تلك الأسس راسخة، فستكون الأخطاء بنيوية لا عارضة. والعالم العربي أمامه فرصة نادرة لأن يكون رائداً في التبني المسؤول للذكاء الاصطناعي؛ أن يبني الحوكمة أولاً لا لاحقاً. وهذا يستلزم من قادة أعمالنا أن يكونوا أكثر تأنياً ومنهجية من نظرائهم في سائر أنحاء العالم، لا أقل. لا نملك ترف تعلّم هذه الدروس بثمنها الباهظ.
في مجموعة طلال أبوغزاله العالمية، تعاملنا مع الذكاء الاصطناعي بقناعة وبانضباط. آمنّا بإمكاناته التحويلية، واستثمرنا فيه، وبنينا به، وأدمجناه في عملياتنا وخدماتنا. لكننا أصررنا على الحوكمة: على المساءلة البشرية، وعلى عمليات المراجعة، وعلى المحاسبة المؤسسية. بنينا برامج تدريب ليست لتعليم الاعتماد الأعمى على الذكاء الاصطناعي، بل لتعليم استخدامه بحكمة. لأن أداةً بهذا الحجم، تُستخدم دون حكمة، ليست ميزةً، بل وقودٌ للخطأ.
ثمة جدل واسع يدور حول ما إذا كان الذكاء الاصطناعي سيُلغي الوظائف. وأرى أن هذا الجدل، على أهميته، يصرف الأنظار عن سؤال أعمق وأخطر: ليس هل سيحل الذكاء الاصطناعي محل العمال، بل هل سيحل محل التفكير. قد تتجاوز المؤسسة خسارة الكوادر، لكنها لن تتجاوز خسارة القدرة على الحكم المستقل. لقد شهدتُ ما يحدث حين تُفرغ المؤسسات نواتها الفكرية، حين تخلط بين تنفيذ التعليمات وممارسة الحكمة. يستغرق بناء ثقافة التفكير الرصين سنوات طويلة، ولا يتطلب هدمها سوى وقت قصير. إن سمح القادة للذكاء الاصطناعي بأن يكون بديلاً عن التفكير لا سنداً له، فسيجدون أنفسهم بعد عقد يترأسون مؤسسات قادرة تقنياً وفارغة فكرياً.
نصيحتي لكل قائد وصريحة: تبنّى الذكاء الاصطناعي، لكن بانضباط. استخدمه كما تستخدم أي أداة بالغة القدرة، بوعي تام بحدوده، ورقابة عند كل مفترق حاسم، وإدراك ثابت بأن المساءلة لا يمكن تفويضها إلى خوارزمية. الفائزون في هذا العصر لن يكونوا الأسرع تبنياً، بل الأكثر حكمةً في التوظيف، والأقوى بنيةً في الحوكمة، والأحرص حفاظاً على الحكم البشري.
وفي التطبيق العملي، يعني ذلك أربعة أمور. أولاً، لا تنشر الذكاء الاصطناعي في أي مسار عمل دون تحديد شخص بعينه يتحمل المسؤولية الكاملة عن المخرجات، لا الأداة، ولا الفريق، بل فرد محدد باسمه. ثانياً، أنشئ نقاط مراجعة بشرية تتناسب مع حجم عواقب الخطأ؛ كلما ارتفعت المخاطر، عمقت المراجعة. ثالثاً، درّب موظفيك ليس على استخدام الذكاء الاصطناعي فحسب، بل على استجوابه: ماذا يحتمل أن يكون قد فاته؟ ما الافتراضات التي ضمّنها؟ أين استبدل الثقة بالمعرفة؟ رابعاً، قِس إسهام الذكاء الاصطناعي في مؤسستك ليس بما وفّره من تكلفة أو ما اختصره من وقت، بل بما أحدثه من تحسّن حقيقي في جودة قراراتك ونزاهة مخرجاتك. فالسرعة والكفاءة دون جودة ومساءلة ليستا مكسباً؛ بل هما خسارة مؤجلة. المستقبل سيكون لمن يجمع بين حكمة الإنسان وقدرة التكنولوجيا. لا لمن يستبدل أحدهما بالآخر، ولا لمن يخلط بين مجرد مظهر الذكاء وجوهره.