KnowBe4
المصدر: KnowBe4 |

الثورة الذكاء الاصطناعي: سيف ذو حدين للأطفال

من التحديات تعظيم فوائد الذكاء الاصطناعي لتعليم الأطفال ونموهم، في الوقت ذاته ضمان خصوصيتهم وتطورهم الصحي ورفاهيتهم العاطفية

جوهانسبرج، جنوب أفريقيا, 2024 أكتوبر 8/APO Group/ --

في غضون سنتين فقط، شهد الذكاء الاصطناعي ثورة. أصبحت أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT وGemini من Google وCopilot من Microsoft جزءًا من حياتنا اليومية بشكل سريع. مع دمج Meta لبوتات الدردشة الذكية في منصات شعبية مثل WhatsApp وFacebook وInstagram، أصبحت التكنولوجيا أكثر إتاحة من أي وقت مضى. بالنسبة للأطفال الذين ينشؤون في هذا العالم المدفوع بالذكاء الاصطناعي، فإن الآثار مثيرة للاهتمام وقلقة في الوقت نفسه، كما حذرت آنا كوالرد، نائبة الرئيس الأولى للاستراتيجية والموجّه في KnowBe4 أفريقيا. 

"توفر هذه الأدوات الذكاء الاصطناعي فرصًا فريدة للتعلم والإبداع وحل المشكلات. يمكن للأطفال استخدامها لإنشاء فن، وتأليف موسيقى، وكتابة قصص، وحتى تعلم لغات جديدة من خلال طرق تفاعلية مشوقة"، كما تشرح كوالرد. "الطبيعة المخصصة لبوتات الدردشة الذكية، بقدرتها على تقديم إجابات سريعة واستجابات مصممة خصيصًا، تجعلها جذابة بشكل خاص للعقول الشابة." 

ومع ذلك، كما هو الحال مع أي تكنولوجيا متحولة، يجلب الذكاء الاصطناعي معه مجموعة من المخاطر المحتملة التي يجب على الآباء والمربين وصناع السياسات النظر فيها بعناية. من المخاوف المتعلقة بالخصوصية وخطر الثقة المفرطة إلى انتشار المعلومات المضللة والآثار النفسية المحتملة، فإن التحديات كبيرة. "وأثناء دخولنا في هذا العصر المحرك بالذكاء الاصطناعي، يجب علينا أن نوازن بعناية الإمكانات الرائعة مع المخاطر الحقيقية"، كما تحذر كوالرد. "تحدينا هو استغلال قوة الذكاء الاصطناعي لإثراء حياة أطفالنا مع ضمان حمايتهم، خصوصيتهم والرفاهية الشاملة في الوقت ذاته." 

المخاوف المتعلقة بالخصوصية "يحتاج الآباء إلى معرفة أنه بينما تبدو بوتات الدردشة بريئة، فإنها تجمع البيانات وقد تستخدمها دون موافقة مناسبة، ما قد يؤدي إلى انتهاكات محتملة للخصوصية." 

تختلف درجة هذه المخاطر على الخصوصية بشكل كبير. وفقًا لتقرير هيئة المعايير الكندية، تتراوح التهديدات من قضايا منخفضة التكلفة نسبيًا، مثل استخدام بيانات الطفل لأغراض الإعلانات الموجهة، إلى مخاوف أكثر خطورة. نظرًا لأن بوتات الدردشة يمكنها تتبع المحادثات والتفضيلات والسلوكيات، فإنها يمكن أن تنشئ ملفات تعريف مفصلة لمستخدميها الأطفال. عند استخدامها لأغراض خبيثة، يمكن أن تمكن هذه المعلومات من استراتيجيات التلاعب القوية لنشر المعلومات المضللة أو التطرف أو التحريض. 

تشير كوالرد أيضًا إلى أن نماذج اللغة الضخمة لم تُصمم مع الأطفال في الاعتبار. تتدرب أنظمة الذكاء الاصطناعي التي تشغل هذه بوتات الدردشة على كميات هائلة من البيانات الموجهة للبالغين، والتي قد لا تأخذ في الاعتبار الحماية الخاصة اللازمة لمعلومات القصر. 

الثقة المفرطة مخاوف أخرى للآباء هي أن الأطفال قد يطورون ارتباطًا عاطفيًا ببوتات الدردشة ويثقون فيها كثيرًا، في حين أنهم ليسوا بشرًا ولا أصدقاءهم. "يُعد تأثير الثقة المفرطة ظاهرة نفسية ترتبط ارتباطًا وثيقًا بنظرية معادلة الوسائط، والتي تنص على أن الناس يميلون إلى تأنيس الآلات، أي إسناد صفات بشرية إليها وتطوير مشاعر لهم"، كما يعلق كوالرد. "هذا يعني أيضًا أننا نبالغ في تقدير قدرات نظام الذكاء الاصطناعي ونضع ثقة كبيرة فيه، وبالتالي نصبح متساهلين." 

يمكن أن تؤدي الثقة المفرطة في الذكاء الاصطناعي التوليدي إلى جعل الأطفال يتخذون قرارات سيئة لأنهم قد لا يتحققون من المعلومات. "هذا يمكن أن يؤدي إلى المساومة على الدقة والعديد من النتائج السلبية المحتملة الأخرى"، كما تشرح. "عندما يعتمد الأطفال كثيرًا على صديقهم الذكاء الاصطناعي التوليدي، قد يصبحون متساهلين في تفكيرهم النقدي، وهذا يعني أيضًا أنهم قد يقللون من التفاعلات وجهًا لوجه مع الناس الحقيقيين." 

المعلومات الغير دقيقة والغير مناسبة على الرغم من تطورها، إلا أن بوتات الدردشة الذكية ليست معصومة من الخطأ. "عندما لا تكون متأكدة من كيفية الرد، قد تتخيل هذه الأدوات الذكية الإجابة بدلاً من القول ببساطة أنها لا تعرف"، كما تشرح كوالرد. قد يؤدي هذا إلى مشاكل طفيفة مثل إجابات واجبات غير صحيحة أو، بشكل أكثر خطورة، إعطاء القصر تشخيصًا خاطئًا عندما يشعرون بالمرض. 

"يتم تدريب أنظمة الذكاء الاصطناعي على معلومات تتضمن تحيزات، مما يعني أنها يمكن أن تعزز هذه التحيزات القائمة وتقدم معلومات مضللة، تؤثر على فهم الأطفال للعالم"، كما تؤكد. 

من منظور الأبوين، فإن أخطر خطر للذكاء الاصطناعي على الأطفال هو التعرض المحتمل للمواد الجنسية الضارة. "هذا يتراوح من أدوات الذكاء الاصطناعي التي يمكن أن تنشئ صورًا مزيفة عنهم أو التي يمكن أن تلاعب بهم وتستغل ضعفهم، وتؤثر عليهم ضمنيًا لكي يسلكوا بطرق ضارة"، كما تقول كوالرد. 

الأثر النفسي وانخفاض التفكير النقدي كما هو الحال مع معظم التقنيات الجديدة، فإن الاستخدام المفرط قد ينتج نتائج سيئة. "قد يؤدي الاستخدام المفرط لأدوات الذكاء الاصطناعي من قبل الأطفال والمراهقين إلى انخفاض التفاعلات الاجتماعية، فضلاً عن انخفاض التفكير النقدي"، كما تصرح كوالرد. "نحن نرى بالفعل هذه الآثار الجانبية النفسية السلبية عند الأطفال من خلال الاستخدام المفرط لتقنيات أخرى مثل وسائل التواصل الاجتماعي: ارتفاع القلق والاكتئاب والعدوان الاجتماعي وحرمان النوم وفقدان التفاعل ذي المعنى مع الآخرين." 

يعد التنقل في هذا العالم الجديء أمرًا صعبًا بالنسبة للأطفال والآباء والمعلمين، لكن كوالرد تعتقد أن صناع السياسات يلحقون بركب التطور. "في أوروبا، على الرغم من أنه لا يتعلق تحديدًا بالأطفال، فإن قانون الذكاء الاصطناعي يهدف إلى حماية حقوق الإنسان من خلال ضمان أمان أنظمة الذكاء الاصطناعي." 

حتى يتم وضع الضوابط المناسبة، سيحتاج الآباء إلى مراقبة استخدام أطفالهم للذكاء الاصطناعي ومعالجة آثاره السلبية من خلال إدخال بعض قواعد العائلة. "من خلال إعطاء الأولوية للعب والقراءة التي لا يقوم بها الأطفال على الشاشات، سيساعد الآباء في تعزيز ثقة أطفالهم بأنفسهم، وكذلك مهارات التفكير النقدي لديهم." 

زعتها APO Group نيابة عن KnowBe4.