أخطر من السلاح النووي.. ماذا تعرف عن التفرّد التكنولوجي؟!
يمكن أن يصبح عند نقطة معينة أخطر من الأسلحة النووية حتى.. ماذا تعرف عن "التفرّد التكنولوجي"؟ وما هي علاقته بالذكاء الصناعي؟
أطلق أمين عام الأمم المتحدة أخيراً تحذيراً جديداً من خطر الأسلحة النووية، في موقف لا يخرج عن سياق الإدارة السياسية للعديد من الملفات الدولية، وفي مقدمتها الملف النووي الإيراني.
أن "يقلق" أمين عام الأمم المتحدة من الأسلحة النووية فجأة، ومن غير سابق إنذار، هو أمر مفهوم تماماً في السياسة الدولية، ولكن أن يعتبر الخطر النووي التهديد الأكبر للبشرية، فهو أمر مستغرب، مع إغفاله تهديدات لا تقل خطورة، كالذكاء الصناعي مثلاً!
وعلى الرغم من التسارع في وتيرة الابتكار التكنولوجي في العالم، لا تزال المنظمة الدولية بعيدة عن أداء دورها في إيجاد مساحة تحمي البشر من المخاطر الناجمة عن التفلّت في الابتكار واستخدامات التكنولوجيا. ويحذر خبراء من أن يؤدي تطوير الذكاء الصناعي تحديداً إلى "استقلاله" عن صانعيه.
"التفرّد التكنولوجي" (Technological Singularity) هو مصطلح يشير إلى نقطة افتراضية في الزمن، يصبح عندها النمو التكنولوجي خارجاً عن السيطرة وغير قابل للعكس، ما يؤدي إلى تغيرات غير متوقعة في الحضارة الإنسانية. بكلمات أخرى، يصف هذا المصطلح الوقت الّذي ستتفوّق فيه آلات الذكاء الاصطناعي أو الذكاء البيولوجي المعزز إدراكياً أو كلاهما معاً على البشر العاديين.
والخطير في المسألة أنَّ العديد من الاختبارات على أنظمة الذكاء الصناعي أظهر أنَّها قادرة على "التعلم" بسرعة. ومن الأمثلة المذهلة ما قاله أحد مديري "غوغل" السابقين، ممّن كانوا يعملون في منشأة للبحث والتطوير، إذ كان يُشرف على صناعة أذرع روبوتية قادرة على العثور على كرة صغيرة والتقاطها.
وبعد فترة من التقدم البطيء، التقطت إحدى الأذرع الكرة، وبدا أنَّها تمسك بها للباحثين، في إيماءة كأنها تستعرض. وقد وصف المدير السابق في "غوغل" التجربة آنذاك بالقول: "فجأة، أدركت أن هذا أمر مخيف حقاً. جمّدتني تماماً".
ولعلّ أبرز مسبّبات التفلّت الممكن في قطاع تطوير الذكاء الصناعي هو التمويل الجشع الَّذي يبحث عن الأرباح السريعة، من دون الاكتراث إلى النتائج والتداعيات.
وفي هذا السياق، يقول الأكاديمي ديفيد كولينجريدرج في كتابه "الرقابة الاجتماعية على التكنولوجيا" (The Social Control of Technology): "عندما يكون التغيير سهلاً، لا يمكن توقّع الحاجة إليه. وعندما تكون الحاجة إلى التغيير واضحة، يصبح التغيير باهظ الثمن وصعباً، ويستغرق الكثير من الوقت".
وبحسب العديد من التقارير الدولية التي تحاول وضع معايير أخلاقية للتعامل مع الذكاء الصناعي، فإنَّ تحديات جمة ومعضلات جدية تقف عائقاً أمام إيجاد مساحة مشتركة عالمياً تنظّم هذا القطاع.
وقد أوضح تقريران حديثان من بنك التسويات الدولية ومنظّمة التعاون الاقتصادي والتنمية هذه المسألة بالإشارة إلى أنَّ البشرية وصلت الآن "إلى منعطف مهم؛ ففي حين أنَّ فوائد الذكاء الاصطناعي واضحة من حيث زيادة الكفاءة وتحسين الخدمة، فإن المخاطر عادةً ما تكون غير واضحة".
وفي ورقة بحثية نشرت سابقاً أثناء وجوده في جامعة "إم آي تي"، حذّر جاري جينسلر - الذي يترأس الآن لجنة الأوراق المالية والبورصات الأميركية - من أنَّ الاعتماد الواسع على نماذج الذكاء الاصطناعي للتعلّم العميق قد يزيد من هشاشة النظام المالي.
وتقول سارة جاد، رئيسة حلول البيانات والذكاء الاصطناعي في بنك "كريدي سويس"، إن هناك مخاطر من سلوك الاحتشاد أو اللعب أو السلوك التواطئي، إذا تم تدريب جميع الأنظمة على البيانات نفسها وأنواع الخوارزميات نفسها.
وتضيف: "عليك أن تراقب هذه الأمور عن كثب أو لا تستخدمها. يجب أن تملك الحقّ في الحصول على المفاتيح لإيقاف عملها في أجزاء من الثانية، وأن يكون لديك أشخاص يمكنك الرجوع إليهم. إنّك لا تستطيع استبدال ذكاء الإنسان بذكاء الآلة".
ما الَّذي علينا فعله إذاً لتطوير أخلاقيات الذكاء الصناعي؟
هذا هو السؤال الأصعب بالنسبة إلى الجهات المنظّمة، بما فيها الحكومات، علماً أنَّ العديد من الأبحاث في مجال أخلاقيات الذكاء الصناعي أظهر بوضوح أنَّها تقع في تحيّزات حادة، كالعنصرية والتمييز على أساس الجنس أو العرق وما شابه.
- المصدر: الميادين نت