الأخبار

د. فريال حجازي العساف : منظور حقوقي لحوكمة تقنيات الذكاء الاصطناعي

د. فريال حجازي العساف : منظور حقوقي لحوكمة تقنيات الذكاء الاصطناعي
أخبارنا :  

في السنوات القليلة الماضية اكتظت نقاشات الذكاء الاصطناعي في الأوساط الحقوقية والإعلامية والسياسية. والتجارية والاجتماعية وتباينت وجهات النظر حوله تباينًا كبيرًا: من الروايات الداعمة التي تفترض الإمكانات اللامحدودة لتقنيات الذكاء الاصطناعي في التغلب على التفاوتات الاجتماعية وتسريع التنمية بكافة مجالاتها ؛ إلى الأطروحات المتشائمة التي تشير إلى أن «الذكاء الاصطناعي العام» (التخميني) قد يؤدي إلى انقراض الاعتماد على العقل البشري

وفي ظل التحول الرقمي غير المسبوق في تكنولوجيا الذكاء الاصطناعي والذي أخذ حيّز الاهتمام في معايير حقوق الانسان الدولية من خلال تحليل الفرص التي يوفرها في مجالات تحسين الامن السيبراني، وحماية الخصوصية، ودعم العدالة الاجتماعية، والاعمال التجارية، ومن زاوية أخرى اخذ الاهتمام أيضا بما يؤثره الاستخدام المغلوط لتقنيات الذكاء الاصطناعي لممارسة الحقوق والحريات، وما تنطوي عليها هذه التطورات التي تحدثها والمخاطر المحدقة بجوهر حقوق الإنسان، إذ قد تنجم عنها انتهاكات للخصوصية والبيانات الشخصية والتأثير على الأشخاص وتضليلهم ونشر الأخبار الزائفة. والتحيّز الخوارزمي، وضعف جودة البيانات وتأثير الذكاء الاصطناعي على الحقوق الاقتصادية والاجتماعية ومن أهم المخاطر التي تُشكلها أدوات الذكاء الاصطناعي على حقوق الإنسان تسهيل أو الترويج لنتائج تمييزية تُؤثر سلبًا على الفئات الضعيفة والمهمشة تقليديًا، منتهكة بذلك الحقوق المدنية والسياسية والاقتصادية والاجتماعية والثقافية التي تحميها هذه الأدوات. تُكرر أدوات الذكاء الاصطناعي الأنماط التي تُحددها في بيانات التدريب الخاصة بها. لذلك، يُمكنها تضخيم التحيزات القائمة الناتجة عن رؤى عالمية مُحددة وأوجه قصور في تمثيل فئات مُحددة بسبب أنماط التمييز والتهميش المُتجذرة. هذا يعني أنه يجب مراعاة الحق في المساواة وعدم التمييز بعناية خاصة عند تطوير واستخدام أداة ذكاء اصطناعي.

وللوقوف على آثار التقدم التكنولوجي والروابط المتشابكة بين منظومة حقوق الإنسان والفضاء الرقمي، لاستجلاء الإشكالات الحقوقية التي يطرحها تسارع وتيرة التقدم التكنولوجي فقد استدعى الامر قيام الاليات الدولية المختصة بحقوق الانسان اطلاق الدعوات الرامية الى تقنين عمليه الاستخدام وضبطها بما يضمن عدم المساس والتعدي على الحقوق الفردية والجماعية في آنٍ واحد. وتعد اتفاقية مجلس اوروبا الاطارية بشأن الذكاء الاصطناعي أول وثيقة دولية ملزمة قانونيا بهذا الاطار التي هدفت بشكل أساسي الى ضمان ان تكون الأنشطة التي يتم تنفيذها في اطار دورة حياة أنظمة الذكاء الاصطناعي متوافقة تماما مع حقوق الانسان والديمقراطية وسيادة القانون ومع كونها أيضاً مواتية للتقدم التكنولوجي والابتكار. على غير صعيد تناولت توصيات لمجلس حقوق الانسان الدولي في عام 2020 «فتح نقاش عمومي حول حماية حقوق الإنسان في مجال التكنولوجيا وحقوق الإنسان» وضرورة إسباغ قيم حقوق الإنسان على التكنولوجيا واستعمالاتها من خلال اعتماد المواثيق الدولية ذات الصلة ووضع استراتيجية رقمية وطنية تستند إلى مبادئ حقوق الإنسان وترسيخ المقاربة الحقوقية في النصوص القانونية الناظمة لهذا المجال. والتشديد على ضرورة أخذ حماية حقوق الإنسان بعين الاعتبار عند تصميم التطبيقات والخوارزميات المتعلقة بالذكاء الاصطناعي وكذا لزوم تعزيز سبل الانتصاف القضائية وغير القضائية للمواطنات والمواطنين بعلاقة مع التكنولوجيات المتطورة.

من أبجديات حوكمة قطاع الذكاء الاصطناعي ومدى موائمته مع المعايير الدولية لحقوق الانسان يتطلب الامر بادئ ذي بدء قوننة استخدام هذه التكنولوجيا ترسمها استراتيجية رقمية متعلقة بهذا القطاع يتم اعددها من قبل القطاعات كافة تبنى وفق منظور حقوقي، تراعي الأسس والمعايير التالية : وضع قوانين وتشريعات فعالة وشفافة تحمي الافراد في خصوصية بياناتهم الشخصية، تعزيز مفهوم الموافقة الصريحة لجمع واستخدام البيانات الشخصية،مع توعية الافراد بحقوقهم. تعزيز أمان البيانات وضمان تشفيرها وتخزينها بطرق آمنة العمل على توفير إطار قانوني لمعالجة الشكاوى والانتهاكات في ما يتعلق بحماية البيانات الشخصية والذكاء الاصطناعي وضمان تعزيز الشفافية في استخدام الذكاء الاصطناعي وتوفير تقارير منتظمة حول البيانات المستخدم. إيلاء حقوق الفئات المستضعفة العناية والاهتمام سيما حقوق الأطفال والأشخاص ذوي الإعاقة والمرأة واللاجئيين والمهمشين وغيرهم.

مواضيع قد تهمك