المغاربة ثاني شعوب العالم استعمالا لCHATGPT.. خبير يعدد المخاطر

0

وفقا لاستطلاع حديث أجرته مجموعة “بوسطن” للاستشارات حول ثقة المستهلكين لعام 2023، احتل المغرب المرتبة الثانية عالميا، في استخدام “شات جي بي تي”، بنسبة 38 في المئة من إجمالي السكان، بعد الهند بنسبة 45 في المئة، وهو ما يؤكد تزايد الاهتمام بالتكونولوجيا المتقدمة وتطبيقات الذكاء الاصطناعي، لكنه بالمقابل يطرح عديدا من الأسئلة حول المخاطر والتهديدات.

رئيس شعبة الدفاع السيبرياني بالمدرسة الوطنية للعلوم التطبيقية بمراكش ورئيس الأولمبياد المغربية للبرمجة، أنس أبو الكلام، قال إن النسبة المرتقعة التي سجلها استطلاع مجموعة “بوسطن”، تشير إلى أن المغرب يمثل سوقًا قويًا ومتناميًا لتكنولوجيا الذكاء الاصطناعي، مما يبرز إمكانيات كبيرة لتطور هذه التكنولوجيا في المستقبل.
واعتبر أبو الكلام، في تصريح له، أن هذا الانتشار الواسع لـ ChatGPT في المغرب يعكس الوعي المتزايد لدى المغاربة بأهمية التكنولوجيا الحديثة، موضحا أنه بالإضافة إلى ذلك، يقدم الذكاء الاصطناعي، “فرصة كبيرة لدول مثل المغرب لتحقيق تحول اقتصادي واجتماعي شامل”.

وبحسب الخبير المغربي، فبالرغم من أن المغرب يحتل المرتبة الثانية عالميًا في استخدام ChatGPT، مما يعكس تبنيًا واسعًا للتكنولوجيا، إلا أن هناك مخاطر مرتبطة بالاستخدام المفرط أو غير الصحيح لهذه الأداة، لافتا إلى أن الاعتماد المفرط على هذه الأداة يؤدي إلى تقليد المحتوى دون تطوير المهارات الشخصية، مما قد يضعف الإبداع والتفكير النقدي.

وأفاد رئيس شعبة الدفاع السيبرياني بالمدرسة الوطنية للعلوم التطبيقية بمراكش، أن الاعتماد المفرط، يمكن أن يؤدي كذلك إلى التقليل من قيمة المهارات البشرية في بيئات مهنية. مشددا على ضرورة أن يقوم المغرب بوضع لوائح وتنظيمات واضحة وتعزيز الوعي حول كيفية استخدام ChatGPT بشكل أخلاقي وبنّاء، لضمان أن يساهم في تنمية المهارات بدلاً من إضعافها.
وقال في حديثه للجريدة إنه “بالرغم من الفرص الكبيرة التي يقدمها الذكاء الاصطناعي، يجب أن نكون واعين بالتحديات والمخاطر المحتملة التي قد تنجم عن استخدامه. وتتمثل المشاكل الرئيسية في إمكانية تجاوز رفاهية البشر، وانعدام الشفافية و الاضرار بالخصوصية وخلق تهديد”.

وتوقع أن يتم فقدان العديد من الوظائف بسبب استخدام التكنولوجيا بشكل كبير، للعمالة، إذ ستحل الآلات محل الوظائف التي يقوم بها البشر، مسشتهدا بإحصائيات تشير إلى أن 80% من الوظائف ستتاثر بالذكاء الاصطناعي مستقبل وأن 50% من المهام المنجزة سيوفرها الذكاء الاصطناعي.

كما نبه إلى أن استعمال هذه الأداء قد يؤدي للخلط بين المعلومة و المهارات المكتسبة، “اذ في الوقت الذي يوفر الذكاء الاصطناعي المعلومة للمتعلم، فذلك يطور نوعا من الكسل العلمي والتفكيري بشكل يؤثر على تطوير المهارات الشخصية لذى المتعلم”، محذرا من تأتير ذلك على أيضا على صحة الأطفال بسبب استخدام الأجهزة الرقمية بشكل مفرط.

وحذر الخبير من خرق الخصوصية، مشيرا إلى أن الذكاء الاصطناعي يعتمد بالأساس على تحليل كمية هائلة من البيانات الضخمة بما فيها المعطيات ذات الطابع الشخصي، ولافتا إلى أن مؤسسة البيانات الدولية تتوقع أن ينمو مجال البيانات العالمي من 33 تريليون غيغابايت في عام 2018 إلى 175 غيغابايت بحلول عام 2025÷ وهو ما يجعل “احترام الخصوصية الشخصية أكثر صعوبة في ظل انتشار الذكاء الاصطناعي”.

وفي نفس السياق، أوضح رئيس شعبة الدفاع السيبرياني بالمدرسة الوطنية للعلوم التطبيقية بمراكش ورئيس الأولمبياد المغربية للبرمجة، إلى أن بعض الخبراء أوصوا بتنظيم أكثر صرامة لمنع أي سوء استخدام محتمل لهذا النوع من التكنولوجيا، خصوصا أنه ليس فقط يحد من تطوير القدرات المعرفية للبشر بل يحل محله في شتى الميادين.
وأردف :”إذا كانت الثورة الصناعية عوضت عضلات الانسان، فثورة الذكاء الاصطناعي تهدف تعويض العقل البشري بشكل و بآخر، وبذلك نسير نحو تعويض جل مكونات الكائن البشري مما يشكل خطرا محذقا حول استمراريته بل وجوده إذ لم تتظافر جهود العلماء في مجموعة من الميادين للحد من السلبيات، مشرعين وعلماء الاجتماع وفلاسفة.

وشدد أبو الكلام على ضرورة حضور الجانب الأخلاقي، مبرزا أنه في الوقت الذي اعتاد الناس اتخاذ قرارات أخلاقية فورية بناء على تحليلهم السريع لمحيطهم، والموقف الذي يجدون أنفسهم فيه، لا تستطيع الآلات القيام بذلك حيث يتخذ الذكاء الاصطناعي القرارات بناء على البيانات التي تمت تغذيته بها والقواعد التي يتم توجيهه من خلالها.

وأضاف :”وعلى الرغم من أن الآلات يمكن أن تمتثل للقانون تماما، فلا يوجد ما يضمن أن هذا الذكاء سيكون عقلانيا، أو يراعي الجانب الأخلاقي عند اتخاذه للقرارات المهمة”.

و من بين المخاطر ايضا، وبحسب الخبير المغربي، نقص الشفافية، “إذ تستعمل أنظمة الذكاء الاصطناعي خوارزميات معقدة للغاية لدرجة أنه حتى أولئك الذين أنشأوا الخوارزمية لا يمكنهم في بعض الحالات شرح كيفية وصول المتغيرات مجتمعة معًا إلى التنبؤ الناتج”.

وسجل أن كل هذه المخاوف تدعو إلى التساؤل حول المسؤولية القانونية؛ “فإذا كان نظام الذكاء الاصطناعي مصممًا بخوارزميات في بعض الأحيان غامضة، ويسمح التعلم الآلي لاتخاذ القرار بتحسين نفسه، فمن المسؤول قانونيًا عن النتيجة؟ هل هي الشركة أم المبرمج أم النظام؟ هذا الخطر ليس نظريًا، في عام 2018، اصطدمت سيارة ذاتية القيادة بأحد المشاة وقتلتهم؛ في هذه الحالة هل يمكن القول ان سائق النسخ الاحتياطي البشري للسيارة لم يكن منتبهًا وانه مسؤولاً عندما فشل نظام الذكاء الاصطناعي ؟ وكيف ستتم معاقبته ؟”.
ودعا أبو الكلام إلى ضرورة توفير موارد مالية ضخمة لتطوير بنية تحتية قوية للذكاء الاصطناعي وتطوير نظامه البيئي بأكمله، مشيرا إلى أن الدول الكبرى مثل الصين والولايات المتحدة وإنجلترا تستثمر ميزانيات ضخمة وتضع باستمرار براءات اختراع في تطوير تكنولوجيات الذكاء الاصطناعي وبناء أنظمة متقدمة تستفيد منها مؤسساتها وشركاتها بشكل كبير. “فالاكيد ان من سيتمكن من الذكاء الاصطناعي سيهيمن على عالم الغد”.

وبالنسبة للمغرب، اعتبر أنه قد يكون من الصعب التنافس مع هذه الدول فيما يتعلق بالموارد المالية، “مما يعني أن بناء نظام بيئي شامل للذكاء الاصطناعي سيتطلب جهودًا مكثفة وتعاونًا على مختلف المستويات، بما في ذلك الشراكات مع القطاع الخاص والمؤسسات الدولية”.

وأكد رئيس شعبة الدفاع السيبرياني بالمدرسة الوطنية للعلوم التطبيقية بمراكش ورئيس الأولمبياد المغربية للبرمجة، أن المملكة مدعوة للتركيز على تطوير المواهب المحلية، وتعزيز البنية التحتية التكنولوجية، والتعاون مع الدول الأخرى لتبادل المعرفة والتكنولوجيا.

ومقارنة بالصين، التي يبلغ عدد سكانها ما يقرب من 1.5 مليار مواطن، أشار إلى أن “دولة مثل المغرب لا تستطيع فرض نفسها أو المنافسة.. ومع ذلك، يظل الذكاء الاصطناعي إحدى الطرق لمضاعفة إنتاجيتنا أو اكثر لأنه يجعل من الممكن إتمام المهام والوظائف وحتى إنجازات الأشخاص بالكامل داخل الشركات أو المؤسسات حتى نتمكن من زيادة المردودية بأقل تكلفة ومن التركيز على ما يميز مواردنا البشرية وبالتالي هويتنا و بصمتنا كمغاربة”.