«ChatGPT».. مقاربة نقدية تفادياً لتدمير الذات البشرية

صاحب الإعلان عن إصدار تطبيق الدردشة والمحادثة تشات جي بي تي «ChatGPT» بعض الأقوال المتضاربة، بين مؤيد ومعارض لتلك التقنية الجديدة التى هى حتى الآن محل تجربة، فتناولت بعض الصحف والمراكز الأجنبية تخوف البعض لما قد يشكله هذا الروبوت من مخاطر على العملية التعليمية ومستقبل الديموقراطية.

تناول الكاتب إيان بوجوست فى مقالة له في (The Atlantic) التأثير السلبى لإحدى أدوات الذكاء الاصطناعى (تشات جى بى تى ChatGPT) على العملية التعليمية.
أولا وقبل كل شىء، يفتقر تطبيق الدردشة ChatGPT إلى القدرة على فهم تعقيدات اللغة والمحادثات البشرية، ببساطة يتم تدريبه على إنشاء كلمات بناءً على مدخلات معينة، لكنه لا يمتلك القدرة على فهم المعنى الكامن وراء هذه الكلمات، هذا يعنى أن أى ردود يولدها من المحتمل أن تكون سطحية بلا معنى.
علاوة على ذلك، يثير الاعتماد على ChatGPT مخاوف أخلاقية. إذا بدأ الناس فى الاعتماد على آلة لإجراء محادثات مع بعضهم البعض، فقد يؤدى ذلك إلى فقدان سمة من السمات الإنسانية وهى التواصل البشرى. تعد القدرة على التواصل مع الآخرين من خلال المحادثة مهارة أساسية من المهارات البشرية، فمن المرجح أن يؤثر الاعتماد على هذا التطبيق وأشباهه سلبا على مجتمعنا.
من الناحية التعليمية، أشار الكاتب إلى إضرار التطبيق بجودة ومهارة الكتابة إذا اتخذه الطلاب والطالبات وسيلة لاجتياز الاختبارات المقالية. فعلى الرغم من قدرة الروبوت على إنشاء نصوص بطلاقة إلا أنها أحيانا تفتقر إلى جودة الصياغة. إنها معادلة من حيث الهيكل والأسلوب والمحتوى.
يظن البعض أن ChatGPT صُمم لمساعدة الناس على ابتكار مقالات للطلاب، أو كتابة الأخبار، أو أى شىء آخر. إنها نتيجة سهلة لأولئك الذين يفترضون أن الذكاء الاصطناعى يمكن أن يحل محل الإبداع البشرى بدلا من دعمه. لا يفهم أو حتى يستطيع الذكاء الاصطناعى أن يؤلف نصًا. فيعد تطبيق الذكاء الاصطناعى GPT ونماذج اللغات الكبيرة الأخرى أدوات جمالية وليست أدوات معرفية، أى أدوات مساعدة للإبداع البشرى لا أدوات بديلة عنه.
يرى الكاتب أن تقنية GPT وأشباهها من تطبيقات الذكاء الاصطناعى توفر فرصة للاستفادة القصوى من أجهزة الكمبيوتر لكن ليس لتنفيذ المهام الإبداعية.

***

على الجانب الآخر، أشار الكاتبان ناثان إى ساندرز وبروس شناير فى مقال نُشر لهما فى صحيفة the new york times إلى خطورة هذا التطبيق على عمليات صنع القرار ومعايير الديمقراطية، فيمكن لـ (ChatGPT) القيام بعمل مماثل لوكالة أبحاث الإنترنت الروسية فى محاولتها للتأثير على انتخابات عام 2016 لكن دون الاحتياج لميزانية تصل الى ملايين الدولارات والمئات من الموظفين ذوى الخبرة.
إن التعليقات الصادرة من حسابات مزيفة ليست بالأمر الجديد، لكن طرأ تطور على هذا الأمر مع الإعلان عن تطبيق ChatGPT، أى يمكنه أن يستهدف بشكل انتقائى المشرعين القانونيين والمؤثرين السياسيين ــ على سبيل المثال فى مبنى الكابيتول فى واشنطن ــ لتحديد نقاط الضعف فى نظام صنع السياسات واستغلالها بلا رحمة.
يطلق على مرتكبى تلك الأفعال جماعات الضغط السياسى «اللوبى». ويقرن الوكلاء الناجحون فى هذا المجال كتابة الرسائل الإلكترونية باستراتيجيات الاستهداف الذكى. يمكن الذكاء الاصطناعى ــ إذا اقترن بإمكانيات التوليد النصى لـChatGPT ــ من تحديد عضو الكونجرس الذى يتمتع بأكبر قدر من النفوذ فى مجال سياسى معين ثم يأتى دور استراتيجيات الاستهداف الذكى.
بمجرد تحديد الأفراد والاستراتيجيات، يمكن لروبوت الدردشة ChatGPT صياغة جمل لاستخدامها فى الرسائل والتعليقات الإلكترونية ــ فى أى مكان تكون ذا تأثير فيه.

بدون الأسس الأخلاقية والفكرية المناسبة، يمكن للذكاء الاصطناعى أن يتحكم فى إنسانيتنا وحبسنا إلى الأبد فى سجنه. لذا تتطلب الثقة فى الذكاء الاصطناعى التأكد من دقة أنظمة الـ (AI) وسلامته، ومواءمة أهداف الذكاء الاصطناعى مع الأهداف البشرية وفى مساءلة البشر الذين يتحكمون فى تلك التكنولوجيا

يرى الكاتبان أن هذه القدرة على فهم الجهات المؤثرة داخل الشبكة العنكبوتية واستهدافها سيجعل الذكاء الاصطناعى أداة للقرصنة واستغلال نقاط الضعف فى الأنظمة الاجتماعية والاقتصادية والسياسية بسرعة ونطاق لا يصدقان. ولأن الدافع لمهاجمة أنظمة صنع السياسات قوى جدًا ستكون الأنظمة التشريعية الهدف الأبرز لتلك العمليات. ما يزيد الأمر سوءا هو صعوبة اكتشاف عمليات القرصنة ــ خاصة إذا تم استخدامها بشكل استراتيجى لتوجيه الجهات البشرية.
ما يجعل تهديد جماعات اللوبى المدعومة بالذكاء الاصطناعى أخطر من التهديد الذى تشكله بالفعل شركات الضغط السياسى فى شارع K Street (حيثما تباع الديمقراطية) هو السرعة. تعتمد جماعات الضغط البشرية على عقود من الخبرة لإيجاد حلول استراتيجية لتحقيق نتيجة سياسية، على النقيض يمكن للذكاء الاصطناعى القيام بالدور ذاته بشكل أسرع وبتكلفة زهيدة.
علاوة على ذلك، يتسم الذكاء الاصطناعى بالمرونة ــ أى أنه لا يتقيد باختلاف الأنظمة والسياسة بين الدول ــ لذا يساعد فى تحقيق التأثير على العديد من السياسات والسلطات القضائية فى وقت واحد. تخيل أن اللوبى بدعم من تكنولوجيا الذكاء الاصطناعى يمكنه محاولة وضع تشريع فى كل مشروع قانون يتم نقله إلى الكونجرس الأمريكى، أو حتى فى جميع الهيئات التشريعية فى الولايات المتحدة. بداية، تميل شركات الضغط إلى العمل داخل حدود دولة واحدة فقط نظرًا لبعض الاختلافات المعقدة فى القانون والإجراءات والهيكل السياسى، لكن الوضع تغير الآن مع تكنولوجيا الذكاء الاصطناعى، فهى تساعد فى تجاوز هذه الاختلافات ليصبح من السهل ممارسة وسائل الضغط عبر الحدود السياسية.
بالتالى سيتعين على الحكومات تغيير طرق التعامل مع جماعات الضغط مثلما سيتعين على المعلمين مع وجود ChatGPT تغيير طرق اختبار الطلاب.

إقرأ على موقع 180  إنضمام فنلندا والسويد لـ"الناتو" يضمن أمنهما أم يهزه؟

***

من الناحية الفكرية، تناول كل من هنرى كيسنجر وإريك شميدت ودانييل هوتينلوشر فى مقال لهم في صحيفة The Wall Street Journal تأثير تطبيق الدردشة والمحادثة ChatGPT على الجانب الفكرى للإنسان، فيشير كاتبو المقال إلى ما سيحدثه الذكاء الاصطناعى التوليدى (Generative AI) من ثورة فكرية مثلما حدث مع بداية عصر التنوير، لكن الفارق أن عصر التنوير بدأ تدريجيا ــ كل خطوة قابلة للاختبار والتعلم ــ عكس ما نشهده مع عصر الذكاء الاصطناعى. يتميز ChatGPT بقدرة تخزين تفوق القدرة البشرية، أى أنه يستطيع الاحتفاظ بالكثير من المواد النصية وملايين الكتب.
تظهر إجابات ChatGPT وبياناته وملاحظاته دون تفسير عن مصدر المعلومة. يتسم عمل تطبيق الدردشة بالسرعة؛ فى غضون ثوانٍ يمكن أن ينتج إجابات تشرح بشكل متماسك موضوعًا عالى المستوى. إنه قادر على دمج الافتراضات والاستدلالات النفسية غير الواضحة. يمكن أن يعطى الأولوية بين مليارات نقاط البيانات لتحديد مجموعة واحدة من 200 كلمة الأكثر صلة (أو ستظهر أكثر صلة بقارئ بشرى). بكلماته الخاصة، فإنه يصدر أحكامًا احتمالية حول النتائج المستقبلية، ومزج المعلومات من المجالات المنفصلة إلى إجابة متكاملة. على الرغم من أن النموذج غير قادر على الفهم بالمعنى الإنسانى، فإن مخرجاته تعكس جوهر اللغة البشرية الأساسية.
إن نقص الاستشهادات فى إجابات ChatGPT يجعل من الصعب التمييز بين المعلومة الصائبة والخاطئة. نظرًا لأن ChatGPT مصمم للإجابة على الأسئلة، لذا يعرض أحيانًا معلومات تبدو حقيقية (للوهلة الأولى) لتوفير إجابة منطقية. تُعرف هذه الظاهرة بين باحثى الذكاء الاصطناعى باسم «الهلوسة»؛ حيث تجمع عبارات تبدو حقيقية للقارئ البشرى ولكن ليس لها أى أساس فى الواقع. ما الذى يحفز هذه الأخطاء وكيفية التحكم فيها لا يزال الأمر غامضا حتى الآن.
من العواقب التى تثير المخاوف أيضا هو اللجوء إلى استخدام أدمغتنا بشكل أقل وآلاتنا أكثر، فقد يفقد البشر بعض القدرات الفكرية مثل التفكير النقدى والكتابة. يمكن أن يظهر تأثير الذكاء الاصطناعى التوليدى على التعليم فى تراجع قدرة قادة المستقبل على التمييز بين ما يستشعرونه وما يستوعبونه.
من المهم أن يعزز البشر الثقة والقدرة على تحدى مخرجات أنظمة الذكاء الاصطناعى. يقلق الأطباء من أن نماذج التعلم العميق (Deep ــ Learning) المستخدمة لتقييم التصوير الطبى لأغراض التشخيص، قد تحل محل وظيفتهم.. من الضرورى أن نطور من قدرات التفكير النقدى للتمكن من اختبار الذكاء الاصطناعى التوليدى، ليس فقط لتبرير أو شرح إجابات الذكاء الاصطناعى ولكن أيضا لاستجوابهم. المراد أن نتحقق من مدى مصداقية نتائج الذكاء الاصطناعى. وهذا سيتطلب التخفيف الواعى من تحيزاتنا اللاواعية، والتدريب الصارم والممارسة الغزيرة.
بدون الأسس الأخلاقية والفكرية المناسبة، يمكن للذكاء الاصطناعى أن يتحكم فى إنسانيتنا وحبسنا إلى الأبد فى سجنه. لذا تتطلب الثقة فى الذكاء الاصطناعى التأكد من دقة أنظمة الـ (AI) وسلامته، ومواءمة أهداف الذكاء الاصطناعى مع الأهداف البشرية وفى مساءلة البشر الذين يتحكمون فى تلك التكنولوجيا.

(*) بالتزامن مع “الشروق

Print Friendly, PDF & Email
Download WordPress Themes
Download WordPress Themes Free
Download Premium WordPress Themes Free
Download Best WordPress Themes Free Download
free download udemy paid course
إقرأ على موقع 180  مجموعة الأزمات: كوبا وفنزويلا والمكسيك وكولومبيا.. نهج أميركي جديد