ظاهرة انتشار الذكاء الاصطناعي وتصاعده: هل سيصبح مطورو التكنولوجيا حراسنا الأخلاقيين؟

بقلم كارل كراوثر. المدير الإقليمي لمنطقة الشرق الأوسط وأفريقيا. ألتيريكس

لا يمكننا أبداً تجاهل قوة البيانات أو التقليل من شأنها. خاصة وأن القرارات المستندة إلى البيانات تواصل تشكيل العمود الفقري للاستراتيجيات العلمية والحكومية والتجارية الناجحة. لا سيما مع ابتكار الشركات والهيئات الحكومية طرقاً جديدة لاستخدام البيانات بشكل متزايد واكتساب رؤى قابلة للتنفيذ منها. يستمر تزايد حجم البيانات في العالم؛ وعليه. أصبح هناك طلب واضح على ابتكار تقنيات أكثر قوة مثل الذكاء الاصطناعي. ليس فقط لإخبارنا عما حدث بالأمس. ولكن أيضاً لتوقّع ما سيحدث غداً.

تقييم الحاجات الأساسية: وضع تشريعات عادلة لممارسات التطوير

ظاهرة انتشار الذكاء الاصطناعي وتصاعده: هل سيصبح مطورو التكنولوجيا حراسنا الأخلاقيين؟

بحلول عام 2030. من المتوقع أن تبلغ فوائد منطقة الشرق الأوسط حوالي 320 مليار دولار أمريكي من استخدام الذكاء الاصطناعي. ومع ذلك. يظل الافتقار إلى المهارات الأساسية بمثابة حجر عثرة في المسار التصاعدي لمنطقة الخليج نحو الابتكار القائم على الذكاء الاصطناعي. إذا لم يكن الذكاء الاصطناعي مدفوعاً بعلوم البيانات. يظل المجال مفتوحاً لتسلّل التحيز البياني غير المقصود. مما يؤدي إلى ممارسات تمييزية. بالإضافة إلى نماذج غير دقيقة وغير متسقة من الذكاء الاصطناعي.

الحل الرئيسي لهذا التحدي. وهو ما نلاحظه حالياً في المراحل المبكرة. يكمن في وضع تشريعات وقوانين للاستخدام تراعي تكنولوجيا الذكاء الاصطناعي وتضعها بعين الاعتبار. بما في ذلك مركزة الأخلاقيات كضرورة أساسية للإنتاج من البداية إلى النهاية. لقد اتخذت دولة الإمارات العربية المتحدة خطوة كبيرة واعدة في هذا الاتجاه. في نوفمبر من العام الماضي. وقعت دولة الإمارات. إلى جانب 193 عضواً آخر في منظمة الأمم المتحدة للتربية والعلم والثقافة. أول اتفاقية من نوعها – توصية بشأن أخلاقيات الذكاء الاصطناعي. تحدد التوصية إطار المعايير الدولية للاستخدام. مع ترك مسؤولية التطبيق لكل دولة. بحيث يمكن تكييفها وفقاً لمستواها.

تعتبر الإمارات العربية المتحدة رائدة المنطقة في التشريعات الأخلاقية للذكاء الاصطناعي. في عام 2019. قامت “دبي الرقمية”. وهي مبادرة من هيئة دبي الرقمية. تم إنشاؤها لتمكين وتعزيز التحول الذكي والرقمي لدبي. بتطوير منظومة أخلاقيات الذكاء الاصطناعي لتعزيز الوعي والثقافة حول الاستخدام المسؤول للذكاء الاصطناعي بين أوساط الصناعة والأوساط الأكاديمية والأفراد. كما شكلت لاحقاً مجلس أخلاقيات الذكاء الاصطناعي مع نخبة من خبراء المجال المحليين والعالميين كمستشارين.

وفي عام 2021. أطلق مجلس أخلاقيات الذكاء الاصطناعي في دبي دورة تدريبية لتمكين المؤسسات عبر توفير الأدوات اللازمة لمراجعة المخاطر الأخلاقية للذكاء الاصطناعي عند تصميم أنظمة الذكاء الاصطناعي وتنفيذها في دبي. يأخذ المجلس في الاعتبار تطبيقات الاستخدام الأخلاقي للذكاء الاصطناعي لتحسين الأعمال وتطويرها. كما يتعمق في العمليات الخلفية مثل إدارة البيانات لدعم الذكاء الاصطناعي الأخلاقي.

من الواضح أن الذكاء الاصطناعي لا يعمل بمفرده. إذ يظل العنصر البشري ركيزة أساسية لتصميم وبناء النماذج الناجحة وتدريبها. يمكّن ذلك. على سبيل المثال لا الحصر. من تسلل التحيز أو التمييز إلى البيانات المستخدمة للتدريب إلى القرارات البشرية. مما قد ينجم عنه التمييز غير المقصود. حتى عند إزالة العديد من المجالات التي تفسح المجال للتحيّز (مثل الجنس أو العرق). لا يزال بإمكان الذكاء الاصطناعي استنباط المعلومات وتكرار التحديات التاريخية. على سبيل المثال. قامت أمازون بتجميد خوارزمية التوظيف الخاصة بها بعد أن عثرت الشركة على سير ذاتية قديمة كثيرة للرجال. مما يشير إلى تحيز الشركة فيما مضى ضد النساء.