→ العودة إلى المدوّنة
على الأكاديميين أن يستيقظوا على الذكاء الاصطناعي، الجزء الثاني

على الأكاديميين أن يستيقظوا على الذكاء الاصطناعي، الجزء الثاني

إفصاح لأصدقائي على بلوسكاي: هذه المقالة مكتوبة بالكامل بقلم بشري (بمساعدة ملخصات ذكاء اصطناعي تم التحقق منها بشرياً لانتقاداتكم لمقالتي السابقة). الأخطاء البشرية واردة.

في وقت سابق من هذا الأسبوع، جادلت بأن على الأكاديميين أن يستيقظوا على الذكاء الاصطناعي وقدمت عشر أطروحات حول كيف يُغيِّر الذكاء الاصطناعي الوكيلي أبحاث العلوم الاجتماعية. انتشرت المقالة بشكل واسع، خاصة بعد أن كشفت أنها أُنشئت ونُشرت بالكامل بواسطة الذكاء الاصطناعي، مما أدى إلى تغطيات إخبارية، وأكثر من مليون مشاهدة، وأكثر من ألف رد (غاضب في أغلبه لكن أيضاً متحمس) عبر منصات التواصل الاجتماعي المختلفة.

بأثر رجعي، كان ينبغي أن أفعل بعض الأشياء بشكل مختلف. أولاً، الكشف عن أن كلود كتب المقالة الأصلية (حتى وإن كانت مبنية على كتاباتي السابقة على وسائل التواصل الاجتماعي) كمتابعة ظريفة كان خطأ. لقد صرف الانتباه عن الجوهر وأعطى النقاد سبباً سهلاً لرفض الحجج. بدلاً من ذلك، كان ينبغي أن أكون صريحاً بشأن إعدادي الأساسي.1 ثانياً، كان ينبغي أن أكون واضحاً بأن أدوات الذكاء الاصطناعي الوكيلي الحالية أفضل في تنفيذ معظم مهام البحث في العلوم الاجتماعية من الأساتذة على المستوى العالمي.2 هذا لا يعني أنك ستُستبدَل بالضرورة، لكنه يعني أن طبيعة عملك ستتغير. ثالثاً، كانت المقالة المولَّدة بالذكاء الاصطناعي تحتوي على أخطاء أسلوبية طفيفة وغريبة بعض الشيء كان التحرير البشري المُعزَّز سيلتقطها.

في هذا الصدد، أريد تسليط الضوء على مقالة سولومون ميسينغ وجوشوا تاكر في بروكينغز، المنشورة بعد مقالتي بوقت قصير، والتي تُقدِّم نسخة أكثر إقناعاً بكثير من كثير من حججي — مع أمثلة استخدام محددة، بدون استفزاز غير ضروري أو نص مولَّد بالذكاء الاصطناعي، ورؤية أكثر بنّاءً للمستقبل. إذا كانت مقالتي حادة جداً بالنسبة لك، فاقرأ مقالتهما بدلاً من ذلك.

كنت استفزازياً عمداً، وأنا متمسك بهذا الخيار. لقد أتى بنتائج عكسية في جانب لكنه نجح في جانب آخر: عشرات إن لم يكن مئات الأكاديميين يجربون الآن أدوات الذكاء الاصطناعي الوكيلي ولم يكونوا ليفعلوا ذلك بعد. بعد قراءة معظم الردود، غيّرت رأيي حقاً في بعض الأمور، لكنني لا أزال مقتنعاً بادعائي الأساسي بأنه بسبب أدوات الذكاء الاصطناعي الموجودة بالفعل، سيتعين تغيير سير عملنا البحثي سواء أعجبك ذلك أم لا. إليكم عشر أطروحات أخرى جاءت من تأملاتي.

11. البحث النوعي وجمع البيانات الجديدة سيزدادان قيمة نسبياً.

كان أقوى نقد موضوعي للجزء الأول هو أنه خلط بين “البحث” والمهام المحددة التي يتعامل معها الذكاء الاصطناعي بشكل جيد — مراجعات الأدبيات وتحليل البيانات والتركيب المفاهيمي. أشار عدة مستجيبين بحق إلى أن الذكاء الاصطناعي لا يستطيع إجراء بحث ميداني إثنوغرافي، أو مقابلة محتجزين في سجون غير قانونية، أو قضاء سنوات في بناء الثقة مع مجتمع ما. هم محقون تماماً. كانت أطروحاتي بشكل أساسي حول العمل الكمي والمفاهيمي (المهيمن حالياً) في العلوم الاجتماعية، وكان ينبغي أن أكون أوضح بشأن هذا النطاق.

لكن المعنى الضمني ليس أن الباحثين النوعيين يجب أن يسترخوا. بل إن القيمة النسبية لجمع البيانات الأصلية — العمل الميداني والمقابلات والعمل الأرشيفي والملاحظة بالمشاركة — على وشك الارتفاع. إذا كان الذكاء الاصطناعي يستطيع تركيب الأدبيات الموجودة وإجراء تحليلات الانحدار القياسية، فإن العلاوة تنتقل إلى الأشياء التي لا يستطيع الذكاء الاصطناعي فعلها: توليد بيانات جديدة لم تكن موجودة من قبل، خاصة من سياقات يصعب الوصول إليها. ينبغي للباحثين النوعيين والتجريبيين الميدانيين أن يروا في ذلك فرصة لمزيد من العمل المتميز الذي يتمتعون فيه بميزة نسبية بدلاً من تفريغ مقابلاتهم أو تجميع مراجعات الأدبيات.

12. بسبب “التعرج”، الآراء حول الذكاء الاصطناعي مستقطبة وفقاً للمعتقدات حول فائدته.

يصف إيثان موليك قدرات الذكاء الاصطناعي بأنها “حدود متعرجة” — خارقة في بعض المهام، ومُحرجة في أخرى، بطرق لا تتوافق مع الحدس البشري. يمكن للذكاء الاصطناعي كتابة مراجعة أدبيات مقبولة لكنه يعجز في لغز بصري بسيط. يمكنه تركيب نتائج عبر 500 ورقة لكنه يختلق الاسم الأول لمؤلف مشارك.

هذا التعرج يفسر لماذا نقاش الذكاء الاصطناعي في الأوساط الأكاديمية مستقطب جداً. النقاد يشيرون إلى الوديان؛ والمتحمسون يشيرون إلى القمم. كلاهما محق بشأن زاويته من الحدود. التداخل مع الانقسام بين النوعي والكمي في العلوم الاجتماعية يصعب تجاهله: الباحثون الذين يتضمن عملهم مهاماً يتعامل معها الذكاء الاصطناعي جيداً (تحليل البيانات وتركيب الأدبيات والتعرف على الأنماط) يميلون إلى أن يكونوا أكثر إيجابية، بينما أولئك الذين يتضمن عملهم مهاماً يتعامل معها الذكاء الاصطناعي بشكل سيئ (العمل الميداني والمقابلات والتفسير الأرشيفي) يميلون إلى أن يكونوا أكثر تشككاً.

لكنني لاحظت شيئاً يتجاوز مجرد الخلاف. مستخدمو بلوسكاي الذين يكرهون الذكاء الاصطناعي بشكل غريزي كانوا في الغالب أول من ينكر حقائق أساسية يمكن التحقق منها بسهولة — على سبيل المثال، أنه يمكنه إنتاج عروض تقديمية بشكل جيد. قليل جداً من المستجيبين اعترفوا بأن قدرات الذكاء الاصطناعي للبحث حقيقية لكنهم قلقون من عواقبها. إما أن يكرهوا الذكاء الاصطناعي وينكروا أي استخدام مُنتِج، أو يحبوه ويبالغوا في فائدته. بعض هذا تفكير ذو دوافع — التهديد الوجودي الصريح المتمثل في أن حاسوباً يقوم بأشياء أفضل منك. لكنني أظن أن الأمر يتعلق أكثر بمجرد الجهل بـ”الآخر.”

نظرية الاتصال حقيقية. إذا كنت تعتقد أن كلود كود شرير أو عديم الكفاءة، أتحداك أن تثبته وتستخدمه لتنظيم مجلدات بحثك أو إنشاء عروض تقديمية لمؤتمراتك القادمة. في وقت سابق شجعت الناس على “قضاء أسبوع مع كلود كود.” كان ينبغي أن أقول “اقضِ يوماً” (وهو ما ينبغي أن يكون كافياً).

13. خبرة المستخدم لا تزال تحدد جودة المخرجات بشكل كبير.

ربما ليس مفاجئاً أن كثيراً من الانتقادات على بلوسكاي لا تزال تفترض أن استخدام الذكاء الاصطناعي يعني النسخ واللصق من روبوت محادثة. هذا ببساطة ليس كيف يعمل الذكاء الاصطناعي الوكيلي. يعمل الذكاء الاصطناعي الوكيلي بشكل مستقل ضمن نظام ملفاتك، يقرأ ويكتب الشيفرة، ويستشير الوثائق، وينفذ سير عمل بحثي متعدد الخطوات — كل ذلك بتوجيه من تعليمات مفصلة تبنيها بمرور الوقت.

أحد أشكال إنكار الذكاء الاصطناعي الشائعة ذات الصلة يفترض أيضاً أنه لأن الأداة متاحة للجميع، فإن أي شخص يمكنه إنتاج نفس المخرجات. هذا أشبه بالقول إنه لأن الجميع لديهم فرن، فالجميع يستطيعون طبخ وجبة جيدة. هناك اختلافات واضحة في مهارات الطبخ والوصفات وجودة المكونات.

لكن السؤال ليس ما إذا كان الذكاء الاصطناعي أفضل من معظم الأساتذة في تنفيذ معظم مهام البحث المهمة (لا أزال أتمسك بالتأكيد أنه كذلك)، بل ما إذا كان الباحثون الجيدون مع الذكاء الاصطناعي أفضل من الباحثين الجيدين بدونه (هم كذلك بالتأكيد). بصراحة، أفضّل محتوى ذكاء اصطناعي مُوجَّه جيداً على محتوى بلوسكاي الرديء (مئات المستخدمين المجهولين يردون ai/dr كلما رأوا كلمة الذكاء الاصطناعي المخيفة بغض النظر عن أي مضمون) في أي يوم من أيام الأسبوع.

14. تأخر النشر يجعل انتقادات قدرات الذكاء الاصطناعي متقادمة بحلول وقت صدورها.

إليكم مشكلة لا يعترف بها تقريباً أحد في النقاش: الجداول الزمنية للنشر الأكاديمي والكتب غير متوافقة هيكلياً مع معدل تحسن الذكاء الاصطناعي. عندما يستشهد أحدهم بورقة بحثية من 2025 (بُدئت في 2024) توثق معدل الهلوسة في GPT-4 للمجادلة ضد استخدام الذكاء الاصطناعي في مارس 2026، فهو يستشهد بدليل حول نظام لم يعد موجوداً. أشبه بالاستشهاد بدراسة من 2005 حول قيود الهواتف القابلة للطي للمجادلة ضد الهواتف الذكية. لهذا ربما كتاب “خدعة الذكاء الاصطناعي” الجديد سيئ للغاية — متقادم بوضوح قبل أن يصل إلى الرفوف.

لا أرفض كل هذه الأبحاث بحد ذاتها. الدراسات غالباً ما تكون سليمة منهجياً. لكن قاعدة الأدلة تنتهي صلاحيتها أسرع مما يمكن نشرها ومراجعتها والاستشهاد بها. مقالة ميسينغ وتاكر في بروكينغز، المنشورة في مارس 2026 (والتي رُوجعت “بسرعة” في أسبوعين فقط)، توثق بالفعل قدرات كانت ستبدو تخمينية قبل ستة أشهر. بحلول وقت ظهور ورقة محكَّمة حول القيود الحالية للذكاء الاصطناعي في مجلة، من المرجح أن القيود التي توثقها ستكون قد أُصلحت. هذا ليس وضعاً مريحاً للأكاديميين الذين تدربوا على الاعتماد على الأدلة المنشورة. لكنه الوضع الذي نحن فيه.

15. معظم الأوراق البحثية تُقرأ بالفعل بشكل أساسي بواسطة الذكاء الاصطناعي وليس البشر.

إنه سر مكشوف في الأوساط الأكاديمية أن معظم الأوراق المنشورة لا يستشهد بها أو يقرأها أحد سوى المؤلفين والمراجعين وأحياناً المحرر. مع الانتشار القادم للأوراق المكتوبة بالذكاء الاصطناعي — سواء كانت رديئة تماماً أو لا — سيصبح من المستحيل على الباحثين مواكبة حتى مجالاتهم المتخصصة الضيقة. أحب أن أعتقد أنني مطلع على كل الأدبيات الجديدة حول مواقف الهجرة، لكنني على الأرجح أفتقد 80% مما يُنتَج خارج الولايات المتحدة وأوروبا والمجلات التخصصية الكبرى.

هذا يعني أن على الأكاديميين قبول أن جمهورهم الأساسي أصبح بشكل متزايد النماذج اللغوية الكبيرة. يتحدث تايلر كاون عن الكتابة من أجل النماذج اللغوية منذ فترة، لكن مع صعود الأدوات الوكيلية، ينطبق هذا على معظم الأكاديميين أيضاً — بمن فيهم الباحثون النوعيون الذين لا يمكن أتمتة عملهم ذاته. ليس لدي تصور واضح لما ينبغي أن يفعله المؤلفون حيال ذلك، لكن ضمان وجود نسخة قابلة للقراءة الآلية من ورقتك (من الأفضل بصيغة .md) يبدو خطوة أولى جيدة.

16. الذكاء الاصطناعي يكشف ما كان مكسوراً أصلاً في الأوساط الأكاديمية وخارجها.

في سياق ذي صلة، كان عدد كبير من الردود على الجزء الأول يرقى إلى: “إذا كان الذكاء الاصطناعي يستطيع إجراء بحثك، فبحثك لم يكن جيداً أبداً.” أوافق (هههه) — لكن هذه إدانة لكثير من العلوم الاجتماعية، وليست دفاعاً ضد الذكاء الاصطناعي أو هجوماً ذكياً عليّ شخصياً. أزمة التكرار وحشو الاستشهادات والتلاعب الإحصائي وإنتاج أوراق لا يقرأها أحد كانت كلها حالات موجودة مسبقاً.

المحتوى الأكاديمي الرديء المولَّد بشرياً كان منتشراً دائماً؛ الذكاء الاصطناعي يجعله مرئياً فحسب. صاغ ناثان سميث الأمر بشكل أكثر حِدة في إعادة نشره: المؤسسات الأكاديمية تكتنز رأس المال البشري، ونظام التثبيت يكافئ التأمل الجماعي في السُّرَر على حساب الأثر العام، ومعظم الأساتذة يمكنهم أن يكونوا أكثر فائدة في فعل شيء آخر. هذا تأطير قاسٍ. لكن إذا كانت نسبة صغيرة فقط من الأوراق المنشورة لها قيمة حقيقية، فإن النظام الذي يُعطله الذكاء الاصطناعي لم يكن يزدهر بالضبط.

17. ضمور المهارات خطر حقيقي، خاصة للجيل القادم من الباحثين.

هذا يقودنا إلى ما أعتبره ردة فعل قوية أخرى على مقالتي الأولى: أن إسناد العمليات المعرفية مثل “تقييم المصادر” و”ترميز البيانات” يُضر بفهم الباحث نفسه. كثيرون قلقون بحق من “اختزال عمليات معقدة مدفوعة بالتفكير إلى سلسلة من المهام المنفصلة للإسناد الخارجي، بينما هناك الكثير مما يحدث معرفياً بين الخطوات وبعدها.” يُشير ميسينغ وتاكر إلى نفس الخطر تحت مسمى “ضمور المهارات.”

آخذ هذا على محمل الجد، وأعترف بأن الخطر حقيقي — خاصة للطلاب والمتدربين الذين لم يستوعبوا بعد المهارات المعرفية التي قد يختصرها الذكاء الاصطناعي. الباحثون القلقون من ضمور المهارات محقون في أن شيئاً ما يُفقد. لكنهم يقللون من شأن ما يُكتسب: القدرة على العمل على مستوى أعلى من التجريد، واختبار فرضيات أكثر، والتكرار بشكل أسرع. بالنسبة للباحثين الراسخين، خطر الضمور منخفض لأن المهارات موجودة بالفعل. بالنسبة للطلاب والباحثين المستقبليين، نحتاج بشكل عاجل أن نجد حلاً لتحديث مناهج الدراسات العليا.

18. أدوات كشف الكتابة بالذكاء الاصطناعي ومعايير الإفصاح لا تعمل.

كانت أدوات كشف الكتابة بالذكاء الاصطناعي سيئة، ولا تزال سيئة، وستبقى على الأرجح سيئة. المقالة الأصلية التي أنتجها كلود اجتازت كل أدوات الكشف الرئيسية بتصنيف “100% بشري” بدون أي توجيه مفصل لتجنب ذلك من جانبي. كثير من منتقدي مقالتي الأولى قالوا إنهم “شعروا” فوراً أنها مكتوبة بالذكاء الاصطناعي. لكنهم قالوا هذا بعد أن كشفت عن سير العمل — حالة كلاسيكية من تحيز التأكيد. قبل الكشف، لم يُشر أحد إلى ذلك. بل في الواقع، اشتكى أحدهم من أنني لم أستخدم الذكاء الاصطناعي لكتابة مقالة تروّج للذكاء الاصطناعي.3

النقطة الأهم تتعلق بحوافز الإفصاح. يوصي ميسينغ وتاكر بتوحيد إعلانات استخدام الذكاء الاصطناعي عبر المجالات. أحترم تفكيرهم والدعوة للتوحيد (بدلاً من الفوضى التي نعيشها الآن)، لكنني أختلف في أن أي معيار إفصاح شامل لاستخدام الذكاء الاصطناعي يمكن أن يكون له أي فوائد في ضوء هيكل الحوافز الحالي.

لا تفهموني خطأ — ينبغي للأشخاص في مواقع السلطة مثل محرري المجلات أن يكونوا شفافين بشأن سير عملهم. لكن بالنسبة للمؤلفين العاديين، الإفصاح الطوعي يخلق نظاماً يُعاقَب فيه المستخدمون الصادقون ولا يواجه المستخدمون غير الصادقين أي عواقب. أفصحت عن سير عملي مع الذكاء الاصطناعي وتلقيت تهديدات وهجمات مهنية ومطالبات بفصلي. الحافز العقلاني هو الكذب. “إقرارات استخدام الذكاء الاصطناعي” تبدو معقولة، لكنها تنهار عند ملامسة الديناميكيات الاجتماعية الفعلية للحياة الأكاديمية في 2026. حتى تنخفض التكاليف المهنية للإفصاح، فإن معايير الإقرار الإلزامي ستنتقي لصالح عدم الأمانة.

هناك أيضاً مشكلة أعمق: معايير الإفصاح تطرح سؤال المساءلة بشكل معكوس. بالنسبة للبعض، يمكن أن يعمل الإفصاح عن الذكاء الاصطناعي كتهرب من المسؤولية — “لقد استخدمت الذكاء الاصطناعي، فالأمر عليك الآن لمعرفة ما إذا كان رديئاً.” لكن ينبغي للمؤلفين أن يتحملوا مسؤولية المنتج النهائي بغض النظر عن كيفية إنتاجه. إذا أدخل الذكاء الاصطناعي خطأ، فهذه مسؤولية المؤلف. المهم هو ما إذا كان العمل صحيحاً وقيِّماً، وليس ما إذا كان بشر أو آلة قد كتب الجمل.

19. بلوسكاي الأكاديمية ليست منبراً جاداً لهذا النقاش.

يجب أن أتناول هذا لأنه لوّن كل ما تلاه. ولّدت بلوسكاي ردوداً بنفس عدد تويتر تقريباً، لكنها كانت معادية بشكل ساحق وبأقل الطرق إنتاجية. كان الرد الأكثر شيوعاً نسخة من “إذا لم تكتبها أنت، لماذا عليّ قراءتها؟” أو “ai/dr.” تضمن كثير منها شتائم واتهامات بأنني مدفوع من شركات الذكاء الاصطناعي (؟)، ومطالبات بعدم الاستشهاد بأعمالي المنشورة السابقة (??) أو حتى فصلي (???) مع وسم جهة عملي لاستبدالي بالذكاء الاصطناعي بما أنني أدّعي أنه جيد جداً.

كانت مقالتي الأصلية استفزازية. لكنني لم أهاجم أحداً شخصياً. قدمت حججاً حول الذكاء الاصطناعي والأوساط الأكاديمية، بناءً على تجربتي الخاصة في المجال، والتي قد تتفقون أو تختلفون معها. مقابل ذلك، ردّ أكاديميون على بلوسكاي بتهديدات مهنية وهجمات شخصية وتكالب منظم. لدي جلد سميك وأمان وظيفي. يمكنني تحمل هذا.

لكن معظم الأشخاص الذين قد يشاركون آراء مخالفة حول الذكاء الاصطناعي في الأوساط الأكاديمية لا يملكون هذا الترف. إنهم طلاب دراسات عليا وأعضاء هيئة تدريس متعاقدون وباحثون مبتدئون (في الواقع، كنت أنا نفسي واحداً منهم قبل بضعة أشهر فقط!) يراقبون ما حدث لي ويستخلصون النتيجة الواضحة: أبقِ فمك مغلقاً. هذه هي التكلفة الحقيقية لثقافة التكالب — ليس على أشخاص مثلي، بل على التبادل الحر للأفكار الذي من المفترض أن تحميه الأوساط الأكاديمية. وبينما أقدّر كل الأشخاص المتعاطفين الذين تواصلوا عبر الرسائل الخاصة، أتمنى لو تتحدثون علناً. هذه هي الطريقة الوحيدة التي يمكن بها تغيير هذه الديناميكية المؤسفة.

20. يمكن للبحث أن يفتقر إلى “الروح” ومع ذلك يخدم الجمهور.

صاغ ماكس كاغان وعالج قلقاً شائعاً من مستخدمي بلوسكاي يتردد صداه لديّ أيضاً: فكرة أن البحث المُنتَج بواسطة أو بمساعدة الذكاء الاصطناعي يفتقر إلى شيء جوهري — سمِّه الروح أو الحرفية أو الانخراط الفكري الأصيل. عملية الكفاح مع سؤال والجلوس مع الغموض وبناء حجة ببطء هي عملية تحويلية شخصياً لكثير من الباحثين. هناك سبب لسعي الناس للحصول على الدكتوراه رغم فرص سوق العمل السيئة: العمل نفسه ذو معنى. عندما يضغط الذكاء الاصطناعي تلك العملية إلى ساعات، يُفقد شيء ذو قيمة حقيقية.

أشعر بجاذبية هذا. لكنني لست متأكداً أنه يصمد أمام سؤال من يدفع الثمن. معظم الأبحاث الأكاديمية ممولة حكومياً. دافعو الضرائب لا يموّلون الجامعات ليحقق الأساتذة ذواتهم. إنهم يموّلون الجامعات لإنتاج معرفة تفيد المجتمع. إذا كان البحث بمساعدة الذكاء الاصطناعي ينتج معرفة أكثر وأفضل بشكل أسرع، فإن حجة المصلحة العامة لتبنيه يصعب مقاومتها — حتى لو أصبحت التجربة الشخصية للبحث أقل رومانسية.


  1. أستخدم تطبيق كلود المكتبي على ويندوز، المتصل بمجلدات غيتهاب الخاصة بي عبر كلود كود (أوبوس 4.6، اشتراك ماكس بـ200 دولار/شهر)، بالإضافة إلى إضافة كلود لمتصفح كروم لمهام المتصفح. بالنسبة لمقالتي السابقة، طلبت منه تلخيص منشوراتي على وسائل التواصل الاجتماعي حول الذكاء الاصطناعي والأوساط الأكاديمية في شكل 10 أطروحات، متبعاً الإجراءات وأدلة الأسلوب التي بنيتها تدريجياً في ملفات تعليمات خاصة بالمشروع. لا توجد معرفة محظورة حقاً. 

  2. إذا افترضت أنني كنت أتحدث عن أساتذة أمريكيين في جامعات بحثية من المستوى الأول، فهذا عليك أنت. بصفتي شخصاً مطلعاً على أبحاث العلوم الاجتماعية السائدة في البلدان النامية والفضاء ما بعد السوفيتي، يمكنني أن أخبركم أن معظم العمل المُنتَج في مجلات من نوع MDPI ليس له قيمة تُذكر حتى عندما لا يكون سرقة أدبية صريحة. إنه في معظمه عمل كمي أساسي ومتكرر — إعادة تعريف المصطلحات وربط المتغيرات ببعضها — من النوع الشائع عبر العلوم الاجتماعية والذي يمكن للذكاء الاصطناعي بالفعل تنفيذه بكفاءة أعلى. 

  3. يطرح رايان بريغز نقطة عادلة: أدوات الكشف مُعايَرة لتقليل النتائج الإيجابية الكاذبة، لذا قد تظل مفيدة لكشف الطلاب الذين يغشون بشكل مفرط. لكن لأغراض البحث، لست متأكداً أن هذا مهم. 

نُشر في الأصل على Substack.
أُنتجت هذه الترجمة بمساعدة الذكاء الاصطناعي وقد لا تمثّل المحتوى الأصلي بالكامل. يُرجى الرجوع إلى النسخة الإنجليزية على Substack للنص المعتمد.
الاقتباس المقترح
Kustov, Alexander. 2026. "Academics Need to Wake Up on AI, Part II." Popular by Design, March 4, 2026. https://www.popularbydesign.org/p/academics-need-to-wake-up-on-ai-part