تجنباً للآفات الأخلاقية .. ” اليونسكو” تدعو لتطبيق توصياتها لتنظيم الذكاء الصناعي
الخرطوم : رصد الرواية الأولى
دعت منظمة اليونسكو الخميس بلدان العالم إلى تطبيق توصيتها الصادرة في عام 2021 لتنظيم الذكاء الاصطناعي، بعدما دعا إيلون ماسك ومئات الخبراء إلى وقف تطوير هذه البرامج لمدة ستة أشهر محذرين من “مخاطر كبيرة على البشرية”.
وقالت المديرة العامة لليونسكو أودري أزولاي في بيان: “يحتاج العالم إلى قواعد أخلاقية أقوى للذكاء الاصطناعي، وهذا هو التحدي الذي نواجهه في وقتنا الحاضر. لقد وضعت توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي الإطار التقنيني المناسب”.
وكانت الدول الأعضاء الـ193 في هذه المنظمة التابعة للأمم المتحدة أقرت بالإجماع في تشرين الثاني/ نوفمبر 2021 “إطار العمل المعياري العالمي الأول للاستخدام الأخلاقي للذكاء الاصطناعي”، وهي “خريطة طريق للبلدان، تصف طريقة الإفادة القصوى من فوائد الذكاء الاصطناعي مع تقليل المخاطر الناجمة عن هذه التكنولوجيا”، بحسب منظمة اليونسكو.
وصدر هذا النص بعد جهود استمرت ثلاث سنوات، وهو يفصّل الإجراءات التي يتعين القيام بها، ولا سيما إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعي ومراقبته، أو “ضمان الأمن الكامل للبيانات الشخصية والحساسة” أو حتى تثقيف الجماهير حول موضوعها.
وأكدت أزولاي أن “الوقت حان لتنفيذ الاستراتيجيات والأنظمة على الصعيد الوطني، وعلينا أن نحيل الأقوال إلى أفعال”، معتبرة أن “من الواضح أنّ التنظيم الذاتي للقطاع غير كاف لتجنّب هذه الآفات الأخلاقية”.
وأشارت المنظمة الأممية إلى أن أكثر من 40 بلداً “من جميع مناطق العالم” تعمل مع اليونسكو “لتطوير ضوابط وموازين الذكاء الاصطناعي على المستوى الوطني، استناداً إلى التوصية”.
ودعت اليونسكو جميع البلدان للانضمام إلى الحركة التي تقودها لتطوير ذكاء اصطناعي “مقامه الأخلاق”، مشيرة إلى أن “تقريراً مرحلياً سيُقدّم خلال منتدى اليونسكو العالمي لأخلاقيات الذكاء الاصطناعي الذي يُقام في سلوفينيا في كانون الأول/ديسمبر 2023”.
وقد وقّع مئات الخبراء العالميين، بينهم إيلون ماسك رئيس تويتر ومؤسس شركتي سبايس اكس وتيسلا، والمؤسس المشارك لشركة “آبل” ستيف فوزنياك، الأربعاء دعوة للتوقف لمدة ستة أشهر عن تطوير أبحاث الذكاء الاصطناعي.
وفي العريضة المنشورة عبر موقع “فيوتشر اوف لايف دوت أورغ” (futureoflife.org)، طالب الخبراء بوقف موقّت لعمليات تطوير برامج الذكاء الاصطناعي إلى حين اعتماد أنظمة حماية منها، كإنشاء هيئات تنظيمية جديدة خاصة بهذا المجال، ومراقبة أنظمة الذكاء الاصطناعي، وتقنيات تساعد على تمييز الأعمال الفعلية من تلك المُبتكرة من برامج للذكاء الاصطناعي، وإنشاء مؤسسات قادرة على التعامل مع “المشاكل الاقتصادية والسياسية التي تتسبّب بها هذه البرامج”.
وسأل هؤلاء: “هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والأكاذيب؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟ لا ينبغي تفويض هذه القرارات لقادة تكنولوجيين غير منتخبين”.
Euronews