ما الذي تشترك فيه مبادرات مثل التعلم الشخصي والتكيّفي، أو برامج الدردشة من أجل التعليم، أو المترجمين الآليين، أو استخدام تحليلات التعلم التنبؤية؟ إن جميعها مكوّنات "التعليم القائم على البيانات".
في العديد من البلدان، هناك اهتمام واضح بتوسيع دور التقنيات الرقمية في التعليم، الأمر الذي يؤدي حتماً إلى أنظمة تعليمية أكثر كثافة للبيانات. ومع تزايد الاهتمام بأنظمة التعليم الذكي التكيفي التي تتيح تفاعلًا باللغة الطبيعية، أو أدوات للتنبؤ بالتسرب من المدارس، أو أنظمة مؤتمتة جديدة لتعزيز تشغيل الطلاب، فمن المحتمل أن تزداد أهمية التقنيات كثيفة البيانات في التعليم خلال السنوات القادمة.
على الرغم من أن هذه الابتكارات الرقمية يمكن أن تحقق منافع جديدة، فمن المهم أيضًا أن نفهم أنها بوسعها أيضًا تحويل المشهد الحالي للتعليم في اتجاهات غير متوقعة. فقد حظي فقدان المعلومات الشخصية، أو الوصول إليها بدون إذن أو الكشف عنها، باهتمام وسائل الإعلام مؤخرًا، ولكن الافتقار إلى الشفافية أو التحيز التلقائي أو استخدام البيانات للتأثير على سلوك المستخدم، يعد أيضًا من التحديات شديدة الأهمية التي يجب موازنتها عند استكشاف هذه الاتجاهات.
لن يتطلب المشهد المتغير للتعليم أن يصبح الطلاب والمعلمون أكثر معرفة بالبيانات فحسب، بل أيضًا أن يُعدّ المنظمات التعليمية والإداريون بالضرورة إستراتيجية (أكثر) استباقية وشمولا عند التخطيط للأنظمة التعليمية كثيفة البيانات، وتشغيلها، والتفاعل معها بشكل متزايد.
فمع الأنظمة الذكية (المتقدمة) (على سبيل المثال، تلك القادرة على تحديد الأنماط أو التعرف على الأصوات أو الوجوه أو الصور أو النصوص أو حتى ضغطات المفاتيح)، ستكون هناك حاجة أكبر للتعليم في مجال محو الأمية الخوارزمية. هذا لن يعني فقط الاضطرار إلى توسيع بعض التعاريف الحالية لمحو الأمية الرقمية بما في ذلك ما هو متعلق باستخدام الذكاء الاصطناعي، لكن أيضًا إلى إعداد قدرات مؤسسية جديدة، ودعم المعلمين والإداريين لتبني هذه الأدوات بأساليب سالمة أخلاقية وشفافة.
إن الأهمية المتزايدة للأنظمة كثيفة البيانات تسمح بظهور تحديات (وأسئلة) جديدة من المتوقع أن تلعب دوراً حيويا خلال العقد القادم. فيما يلي بعض الأسئلة التي سيكون من المهم مراعاتها والإجابة عنها بشكل منهجي داخل المؤسسات التعليمية (وخارجها) حيث تتبنى البلدان المختلفة أدوات تتيح المزيد من الممارسات التعليمية المستندة إلى البيانات:
الخصوصية وحماية البيانات: من لديه بياناتي؟ هل البيانات آمنة؟ ما هي البيانات التي يتم الاحتفاظ بها، ومن لديه حق الوصول إليها؟ من يتعقبني؟ ما هي حقوقي؟ كيف أحمي خصوصيتي؟ أين يمكن الحصول على المساعدة ذات الصلة؟
الاستخدام الأخلاقي للبيانات: ما هي مخاطر الاعتماد على الأنظمة المؤتمتة؟ كيف يتسنى تبني الحلول التكنولوجية للتعليم دون تجاهل التبعات الأخلاقية؟ ما هي الإجراءات والظروف التي تكون فيها الأنظمة الكثيفة البيانات مناسبة للاستخدام؟
محاسبة البيانات: ما هو التقييم الذي أجري للاستخدام الأخلاقي للبيانات؟ هل تم التقاط البيانات بمعرفة وموافقة جميع الأطراف المعنية؟ إذا كان المقصود من البيانات الشخصية التي تم جمعها من قبل أن تستخدم لغرض جديد، فما الذي ينبغي عمله؟ ما هي آليات مراقبة الجودة التي تحتاج إلى تنفيذ لاستخدام أفضل البيانات الممكنة؟
محو الأمية الخوارزمية: ما الآثار الإيجابية والسلبية التي يمكن أن يحدثها استخدام الذكاء الاصطناعي في التعليم على الناس؟ كيف يمكن إجراء تقييم نقدي لنتائج استخدام أنظمة الذكاء الاصطناعي؟ إلى أي مدى ينبغي أن تتعامل الأطر الحالية لمحو الأمية الرقمية مع تعميق الفهم للتبعات الأخلاقية والاجتماعية الناجمة عن البيانات الضخمة؟
إمكانية التعبير عن الرأي والمسؤوليات: كيف يمكن إعداد الطلاب والمعلمين لحماية أنفسهم من الاستخدامات غير المقصودة للتكنولوجيا؟ هل يمكن أن يشارك المستخدم النهائي بنشاط أكبر في تصميم أو تطبيق أدوات كثيفة البيانات من أجل التعليم؟
الوعي بالتحيز: كيف يمكن الحد من تأثير التحيز على بعض المستخدمين أو المجموعات؟ ما هي مجموعات البيانات التي يجري/تم تدريب الخوارزمية عليها وما هي حدودها وتحيزاتها المحتملة؟
الشفافية: كيف يتم جمع بيانات الطلاب وتحليلها واستخدامها؟ كيف تتغلب على "مشكلة الصندوق الأسود"، عندما يكون تعقيد الخوارزمية غامضًا حتى لمطوريها؟ ما هي أفضل الممارسات للحفاظ على سياسة بيانات شفافة؟ كيف تحافظ على البيانات واضحة ومتسقة ومفهومة؟
القدرة على الشرح والتوضيح: ماذا يعني فتح "الصندوق الأسود" للذكاء الاصطناعي؟ كيف يمكن جعل الشروط والأحكام ذات الصلة أكثر سهولة في الاستخدام؟ (هذا مثال مثير للاهتمام على الشروط والأحكام المبسطة لوسائل التواصل الاجتماعي المختلفة.)
لا شك في أن هناك حاجة متزايدة لتضخيم وتنويع المفاهيم الحالية لما يعنيه أن تكون "معرفة القراءة والكتابة" في العصر الرقمي. ومع وضع أطر جديدة لتمكين مستويات أعلى من الشفافية والمساءلة، سيحتاج الأشخاص والمؤسسات إلى فهم هذه التحديات وتثقيف أنفسهم في كلتا الفرصتين وكذلك الآثار الاجتماعية لهذه الابتكارات.
وفقًا لتقرير صدر مؤخراً عن اليونسكو في هذا الموضوع ، هناك ستة تحديات رئيسية على الأقل، هي كالتالي:
- وضع رؤية شاملة للسياسة العامة بشأن الذكاء الاصطناعي من أجل التنمية المستدامة؛
- ضمان الإدماج والإنصاف في الذكاء الاصطناعي في التعليم؛
- إعداد المعلمين للتعليم المدعوم بالذكاء الاصطناعي؛
- إعداد نظم بيانات جيدة وشاملة؛
- تعزيز البحوث حول الذكاء الاصطناعي في التعليم؛
- التعامل مع الأخلاق والشفافية في جمع البيانات واستخدامها ونشرها.
يمكن أن يتيح الحجم المتزايد للبيانات التي يجري جمعها داخل نظام تعليمي ما لمحات عامة أكثر ثراءً وتطوراً عن كيفية تعلم الطلاب، وتقديم رؤى مفيدة حول كيفية دعمهم بشكل أفضل باستخدام التكنولوجيا. ومع ذلك، تظل العديد من الأسئلة الأساسية مرتبطة بالعواقب المحتملة على المدى الطويل لتتبع وتوصيف طلاب اليوم.
يمكن أن يساعد توفر البيانات الجيدة على اتخاذ قرارات جيدة. هذا صحيح في التعليم، كما هو الحال في القطاعات الأخرى. ولكن يمكن أن يحدث العكس أيضًا إذا لم يتم اتخاذ الإجراءات الصحيحة. إذا كنا ندخل في مرحلة "تحويل التعليم إلى بيانات"، فسوف تحتاج البلدان المعنية إلى تحديد القواعد والمبادئ التوجيهية لضمان أن يصبح التعليم المحسّن حاليا ومستقبلا تكنولوجيا مفيدة تخفض المخاطر وتخففها على طول الطريق. وعلى الرغم من أن الوقت مازال مبكرا للغاية للتنبؤ بالآثار المحتملة لاستخدام الذكاء الاصطناعي في التعليم، فليس من المبكر مناقشة كيفية الاستعداد بشكل أفضل للعالم القادم.
فيما يلي مجموعة من المبادرات والمصادر ذات الصلة التي يمكن أن تكون مفيدة لمن يرغب في معرفة المزيد حول هذا الموضوع:
- الذكاء الاصطناعي والتعليم (خدمة أبحاث الكونجرس، 2018)
- المبادئ التوجيهية العالمية للأخلاقيات في تحليلات التعلم (المجلس الدولي للتعليم المفتوح والتعليم عن بعد، 2019)
- مذكرة بشأن الذكاء الاصطناعي وحقوق الطفل (اليونيسيف للابتكار، مركز حقوق الإنسان، جامعة كاليفورنيا في بيركلي، 2019)
- أدوات ومعاونة اتخاذ القرار في أخلاقيات البيانات(جامعة أوتريخت، 2017)
- منصة ETICO لاستهداف القضايا الأخلاقية في التعليم (اليونيسكو - المعهد الدولي لتخطيط التعليم، غير مؤرخة)
- استعراض لسوق التعلم عبر الإنترنت والتعليم عبر الذكاء الاصطناعي (القسم البريطاني للتعليم، 2018)
- مقدمة أساسية للذكاء الاصطناعي (جامعة هلسنكي وريكتور، 2018)
قد تكون مهتمًا بالمقالات ذات الصلة التالية على مدونة تكنولوجيا التعليم EduTech:
- ما الذي تفعله البلدان النامية للمساعدة على الحفاظ على سلامة الأطفال على الإنترنت؟
- السلامة عبر الإنترنت للطلاب في البلدان النامية
- من يملك المحتوى والبيانات المنتجة في المدارس؟
ملاحظة: الصورة المستخدمة في الجزء العلوي من هذا المقال من Christa Dodoo على Unsplash. ويمكن استخدام جميع الصور المنشورة على Unsplash مجانًا.
انضم إلى النقاش