خبير: قد تصبح البشرية مادة مستهلكة في حرب الذكاء الاصطناعي
يمكن أن يؤدي تقسيم أنظمة الذكاء الاصطناعي في العالم على أسس وطنية وجنسية ودينية وغيرها، إلى حرب بينها، وتصبح البشرية مجرد مادة مستهلكة.
ويشير الأكاديمي الروسي إيغور كاليايف أحد أبرز الخبراء في روسيا والعالم في مجال تكنولوجيا الكمبيوتر، في تعليقه على تصريحات رجل الأعمال الأمريكي إيلون ماسك، إلى أن حجم البيانات البشرية المستخدمة في تدريب الذكاء الاصطناعي قد استنفد عمليا، وأصبح من الضروري استخدام البيانات الاصطناعية التي أنشأها الذكاء الاصطناعي نفسه في تدريب الشبكات العصبية. أي أن "البيانات الاصطناعية (الافتراضية) التي أنشأها الذكاء الاصطناعي نفسه يمكنها زيادة "قدراته العقلية"، خاصة للعمل في العالم الواقعي".
ويقول: "ولكن لكي يتمكن الذكاء الاصطناعي من توليد مثل هذه البيانات "الاصطناعية"، يجب تدريبه مسبقا على ذلك. والذي سيدربه على ذلك وكيف، سيحدد قبل كل شيء نوع البيانات "الاصطناعية" التي سيولدها الذكاء الاصطناعي لمزيد من التعليم الذاتي، وبالتالي "عقليته". كل هذا يمكن أن يؤدي مستقبلا إلى فصل تدريجي للذكاء الاصطناعي حسب الخصائص الوطنية والجنسية والدينية وغيرها. وكما يظهر تاريخ البشرية بأكمله، فإن هذا التمييز هو السبب الرئيسي وراء ظهور كل أنواع الصراعات، حتى الأكثر دموية. ويمكن أن يحدث نفس الشيء مع الذكاء الاصطناعي في المستقبل - فكل ذكاء اصطناعي "مستقل" من هذا القبيل سوف يعتبر نفسه "الأصح" والبقية الباقية "غير صحيحة" لذلك يجب تدميرها. أي ستبدأ الحروب بين الذكاء الاصطناعي، وستظل البشرية مادة غير مهمة قابلة للاستهلاك".
ووفقا له، يشبه تدريب الذكاء الاصطناعي على البيانات الاصطناعية عملية تعليم الطفل عن الحياة بمساعدة الرسوم المتحركة المختلفة.
ويقول: "لم يتمكن الذكاء الاصطناعي على الرغم من أنه "استوعب" كل البيانات الحقيقية المتراكمة لدى البشرية، من الوصول إلى مستوى الذكاء البشري الطبيعي. أي أن مبادئ تشغيل الذكاء البشري (التي لم نفهمها حتى الآن) مختلفة جذريا. والأهم من ذلك أنها أكثر فاعلية من مبادئ الذكاء الاصطناعي (التي نفهمها تماما)".
المصدر: تاس