الأخبار

حسام الحوراني : مخاطر التحيّز في الذكاء الاصطناعي على المجتمعات العربية

حسام الحوراني : مخاطر التحيّز في الذكاء الاصطناعي على المجتمعات العربية
أخبارنا :  

في زمنٍ أصبحت فيه الخوارزميات تحكم كل شيء، من أبسط قراراتنا اليومية إلى أعقد السياسات الحكومية، يزحف الذكاء الاصطناعي إلى قلب المجتمعات ليعيد تشكيلها على صورته. غير أن هذه الصورة، رغم براقتها الظاهرة، قد تكون مشوّهة في أعماقها، تحمل في طياتها تحيّزات دفينة، وأحكامًا جاهزة لا تمت للعدالة بصلة. وفي قلب هذا المشهد المتسارع، تقف المجتمعات العربية مهددة لا فقط من خطر التأخر عن ركب التطور، بل من خطر أن يتم ترميز واقعها بصورة غير عادلة، أو حتى غير مرئية، في منظومات ذكاء اصطناعي لم تُصمّم بلغتها، ولا تعكس ثقافتها، ولا تفهم خصوصيتها.
التحيز في الذكاء الاصطناعي ليس خرافة ولا ترفًا أكاديميًا، بل حقيقة موثّقة تشهد عليها حالات عديدة حول العالم، حيث فشلت الأنظمة الذكية في التمييز بين الوجوه السوداء، أو حرمت نساءً من فرص عمل، أو أعطت قرارات قضائية قائمة على بيانات غير متوازنة. إن هذه الأنظمة تتغذى على بيانات ضخمة لكنها في الغالب بيانات غير متكافئة، منحازة، أو تعكس قوالب نمطية رسّخها البشر عبر عقود. والخطر الأكبر أن هذه الانحيازات البشرية تتحول، عندما تدخل إلى منظومة ذكية، إلى قرارات آلية تبدو محايدة لكنها ليست كذلك.
في السياق العربي، تكمن المشكلة في أن كثيرًا من هذه الأنظمة تُطوّر خارج المنطقة، بلغات غير عربية، وبتصورات اجتماعية لا تتفق مع نسيجنا الثقافي والديني واللغوي. فحين تُدرَّب أنظمة الذكاء الاصطناعي على نصوص أو صور أو بيانات لا تمثل المجتمعات العربية، فإن النتائج ستكون لا محالة مشوّهة، بل وخطيرة. لن تُفهم اللهجات العربية المحلية، ولن تُلتقط الإشارات الثقافية الدقيقة، ولن يُعبّر عن قضايا الناس كما ينبغي. والأسوأ، أن يتم تصنيفنا بناءً على نماذج نمطية مسبقة، تقود إلى قرارات تعليمية، أو طبية، أو أمنية قد تظلم الآلاف دون وجه حق.
لنأخذ على سبيل المثال استخدام الذكاء الاصطناعي في التوظيف. إذا كانت البيانات التي دُرِّب عليها النظام مستمدة من مجتمعات غربية، فإن هذا النظام قد يُقصي تلقائيًا الأسماء العربية، أو يرفض السير الذاتية التي تتضمن جامعات محلية، أو يقيم المهارات بناءً على معايير لا تُنصف الواقع العربي. وإذا استخدمنا الذكاء الاصطناعي في التحليل الإعلامي أو التصنيف الأمني، فإن الخطر أكبر: إذ قد يُساء فهم المحتوى العربي، أو يُفسّر النقد السياسي والاجتماعي كتحريض أو تهديد، في ظل غياب منظومة أخلاقيات تحفظ حرية التعبير وتراعي السياق المحلي.
التحيّز قد لا يكون مقصودًا دائمًا، لكنه يصبح قاتلًا إذا لم يُدرك، ولم يُعالَج. وهذا يتطلب وعيًا عربيًا جماعيًا بخطورة أن نكون مجرد مستهلكين سلبيين للتقنية. يجب أن نشارك في تصميم الخوارزميات، وفي اختيار البيانات، وفي مراجعة النماذج، وفي رسم سياسات الذكاء الاصطناعي على مستوى المؤسسات والحكومات. يجب أن تكون هناك هيئات رقابية مستقلة تراقب الأثر الاجتماعي لهذه الأنظمة، وأن تتعاون الدول العربية في صياغة ميثاق أخلاقي مشترك يضمن العدالة والشفافية والشمولية.
بل أكثر من ذلك، نحن بحاجة إلى تطوير ذكاء اصطناعي «بملامح عربية»، ليس فقط من حيث اللغة، بل من حيث القيم، والرؤية، والأهداف. ذكاء لا يُقصي المرأة، ولا يكرّس الصور النمطية، ولا يُخضع الإنسان العربي لمعايير لا تمثله. ذكاء يكرّس الكرامة، ويحتضن التنوع، ويعيد رسم المستقبل بمنطق الإنصاف لا التكرار.
التحيّز في الذكاء الاصطناعي ليس مجرد خطأ برمجي، بل تحدٍ أخلاقي وحضاري. وإذا لم نُدرك ذلك الآن، فسنجد أنفسنا غدًا أسرى قرارات لا نفهمها، لكنها تتحكم فينا. وسنكون ضحايا لنظام صُمّم لغيرنا، لا يعترف بنا، ولا يُنصفنا. لكننا إذا امتلكنا الوعي، والإرادة، والقدرة على المشاركة، يمكننا أن نحول هذه المخاطر إلى فرص، وأن نجعل من الذكاء الاصطناعي أداة للتحرر لا للهيمنة، وجسرًا نحو العدالة لا قيدًا جديدًا. فالخيار لا يزال بأيدينا ولكن إلى متى؟ ــ الدستور

مواضيع قد تهمك