← Назад к Рассылке
Академикам пора проснуться в отношении ИИ, часть II

Академикам пора проснуться в отношении ИИ, часть II

Раскрытие информации для моих друзей с Bluesky: этот пост на 100% написан человеком (с использованием верифицированных человеком резюме ваших критических замечаний на мой предыдущий пост, созданных ИИ). Человеческие ошибки возможны.

Ранее на этой неделе я утверждал, что академикам пора проснуться в отношении ИИ, и предложил десять тезисов о том, как агентный ИИ меняет социальные исследования. Пост стал вирусным, особенно после того, как я раскрыл, что он был полностью сгенерирован и опубликован ИИ, что привело к новостным материалам, более миллиону просмотров и более чем тысяче (часто гневных, но также и восторженных) реакций на различных платформах социальных сетей.

Оглядываясь назад, мне следовало кое-что сделать иначе. Во-первых, раскрытие того, что Claude написал оригинальный пост (пусть и на основе моих более ранних публикаций в социальных сетях) в качестве шутливого продолжения, было ошибкой. Это отвлекло от сути и дало критикам лёгкий повод отмахнуться от аргументов. Вместо этого мне следовало сразу быть открытым относительно моей базовой рабочей схемы.1 Во-вторых, мне следовало ясно указать, что нынешние агентные инструменты ИИ лучше справляются с большинством задач социальных исследований, чем профессора в мировом масштабе.2 Это не означает, что вас обязательно заменят, но это означает, что характер вашей работы изменится. В-третьих, сгенерированный ИИ пост содержал мелкие, несколько странные стилистические ошибки, которые более тщательное редактирование с участием человека позволило бы выловить.

В этой связи хочу выделить статью Соломона Мессинга и Джошуа Такера для Brookings, опубликованную вскоре после моей, которая представляет гораздо более убедительную версию многих моих аргументов — с конкретными примерами использования, без ненужных провокаций или текста, сгенерированного ИИ, и с более конструктивным видением будущего. Если мой пост показался вам слишком резким, прочтите лучше их.

Я был намеренно провокативен и стою за этот выбор. В определённом смысле это дало обратный эффект, но в другом — сработало: десятки, если не сотни академиков теперь пробуют агентные инструменты ИИ, хотя иначе бы ещё долго к ним не обратились. Прочитав большинство реакций, я, безусловно, изменил своё мнение по ряду вопросов, но по-прежнему убеждён в своём основном тезисе: из-за уже существующих инструментов ИИ наш исследовательский процесс должен будет измениться, нравится вам это или нет. Вот ещё десять тезисов, родившихся из моих размышлений.

11. Качественные исследования и сбор новых данных вырастут в относительной ценности.

Наиболее весомая содержательная критика первой части заключалась в том, что она приравняла «исследования» к конкретным задачам, с которыми ИИ хорошо справляется — обзорам литературы, анализу данных, концептуальному синтезу. Несколько респондентов справедливо указали, что ИИ не может проводить этнографические полевые исследования, брать интервью у заключённых в нелегальных тюрьмах или годами выстраивать доверие с сообществом. Они абсолютно правы. Мои тезисы касались прежде всего (в настоящее время доминирующей) количественной и концептуальной работы в социальных науках, и мне следовало яснее обозначить эти рамки.

Но отсюда не следует, что качественным исследователям можно расслабиться. Следует, что относительная ценность оригинального сбора данных — полевых исследований, интервью, архивной работы, включённого наблюдения — вот-вот возрастёт. Если ИИ может синтезировать существующую литературу и запускать стандартные регрессии, то премия смещается к тому, чего ИИ не может: к генерированию новых данных, которых ранее не существовало, особенно из труднодоступных контекстов. Качественным исследователям и полевым экспериментаторам следует рассматривать это как возможность больше заниматься великолепной работой, в которой у них есть сравнительное преимущество, вместо того чтобы транскрибировать интервью или составлять обзоры литературы.

12. Из-за «зубчатости» мнения об ИИ поляризованы верой в его полезность.

Итан Моллик описывает возможности ИИ как «зубчатый фронтир» — сверхчеловеческий в одних задачах, обескураживающе плохой в других, причём распределение не соответствует человеческой интуиции. ИИ может написать приличный обзор литературы, но споткнуться на элементарной визуальной головоломке. Он может синтезировать результаты 500 статей, но выдумать имя соавтора.

Эта зубчатость объясняет, почему дискуссия об ИИ в академической среде настолько поляризована. Критики указывают на провалы; энтузиасты — на вершины. Обе стороны правы в отношении своего участка фронтира. Совпадение с разделением на качественные и количественные методы в социальных науках трудно проигнорировать: исследователи, чья работа включает задачи, с которыми ИИ хорошо справляется (анализ данных, синтез литературы, распознавание паттернов), как правило, настроены более позитивно, тогда как те, чья работа включает задачи, с которыми ИИ справляется плохо (полевая работа, интервью, интерпретация архивов), как правило, более скептичны.

Но я заметил нечто выходящее за рамки простого несогласия. Пользователи Bluesky, которые ненавидят ИИ нутром, часто первыми отрицали элементарные, легко проверяемые факты — например, что он может хорошо создавать презентации. Очень немногие респонденты признавали, что возможности ИИ для исследований реальны, но беспокоились об их последствиях. Люди либо не любят ИИ и отрицают любую его продуктивность, либо любят его и преувеличивают полезность. Отчасти это мотивированное рассуждение — явная экзистенциальная угроза от того, что компьютер делает что-то лучше тебя. Но я подозреваю, что в ещё большей мере это просто незнание «другого».

Контактная теория работает. Если вы считаете, что Claude Code — зло или некомпетентен, я вызываю вас: установите его и используйте для организации ваших исследовательских папок или создания презентаций к предстоящим конференциям. Ранее я призывал коллег «провести неделю с Claude Code». Правильнее было бы сказать «провести день» (чего должно быть достаточно).

13. Экспертиза пользователя по-прежнему в значительной мере определяет качество результатов.

Неудивительно, что значительная часть критики на Bluesky по-прежнему исходит из предположения, что использование ИИ означает копирование и вставку из чат-бота. Агентный ИИ работает совершенно иначе. Агентный ИИ работает автономно в вашей файловой системе, читает и пишет код, обращается к документации и выполняет многоступенчатые исследовательские рабочие процессы — всё это направляется детализированными инструкциями, которые вы выстраиваете со временем.

Ещё одна распространённая форма отрицания ИИ также предполагает, что раз инструмент доступен всем, любой может получить тот же результат. Это всё равно что утверждать, что раз у всех есть плита, все могут приготовить хорошее блюдо. Очевидно, что существуют различия в навыках приготовления, рецептах и качестве ингредиентов.

Но вопрос не в том, лучше ли ИИ большинства профессоров в выполнении большинства важных исследовательских задач (я по-прежнему утверждаю, что да), а в том, лучше ли хорошие исследователи с ИИ, чем хорошие исследователи без ИИ (безусловно, лучше). Если честно, я бы предпочёл качественно направленный ИИ-шлак шлаку Bluesky (сотни анонимных пользователей, отвечающих «ии/нч» всякий раз, когда видят пугающее ключевое слово «ИИ», вне зависимости от сути) в любой день недели.

14. Задержка публикаций делает критику возможностей ИИ устаревшей к моменту выхода.

Вот проблема, которую почти никто в этой дискуссии не признаёт: сроки академических и книжных публикаций структурно несовместимы с темпами улучшения ИИ. Когда кто-то цитирует статью 2025 года (начатую в 2024-м), документирующую частоту галлюцинаций GPT-4, в качестве аргумента против использования ИИ в марте 2026 года, он цитирует данные о системе, которой больше не существует. Это всё равно что цитировать исследование 2005 года об ограничениях кнопочных телефонов, споря против смартфонов. Вероятно, поэтому новая книга «AI Con» настолько плоха — очевидно устаревшая ещё до появления на полках.

Я не отвергаю сами эти исследования. Они часто методологически добротны. Но доказательная база устаревает быстрее, чем может быть опубликована, отрецензирована и процитирована. Статья Мессинга и Такера для Brookings, опубликованная в марте 2026 года (и отрецензированная «быстро» всего за две недели), уже документирует возможности, которые полгода назад казались бы спекулятивными. К тому времени, как рецензированная статья о текущих ограничениях ИИ появится в журнале, описанные в ней ограничения, скорее всего, будут уже устранены. Это некомфортная ситуация для академиков, приученных опираться на опубликованные данные. Но такова ситуация, в которой мы находимся.

15. Большинство статей уже по большей части читаются ИИ, а не людьми.

Ни для кого не секрет в академической среде, что большинство опубликованных статей никогда не цитируются и не читаются никем, кроме авторов, рецензентов и, иногда, редактора. С грядущим потоком статей, написанных ИИ — будь то откровенный шлак или нет — для исследователей станет невозможно угнаться даже за собственной узкой областью. Мне нравится думать, что я знаком со всей новой литературой об отношении к иммиграции, но я, вероятно, пропускаю 80% того, что выходит за пределами США, Европы и ведущих дисциплинарных журналов.

Это означает, что академикам следует принять тот факт, что их основная аудитория — всё чаще LLM. Тайлер Коуэн уже давно говорит о том, чтобы писать для LLM, но с подъёмом агентных инструментов это касается и большинства академиков — включая качественных исследователей, чью саму работу невозможно автоматизировать. У меня нет чёткого понимания того, что авторам следует с этим делать, но обеспечение машиночитаемой версии вашей статьи (в идеале в формате .md) кажется хорошим первым шагом.

16. ИИ обнажает то, что уже было сломано в академии и за её пределами.

К слову, большое количество реакций на первую часть сводилось к: «Если ИИ может делать ваши исследования, ваши исследования никогда не были хорошими». Согласен (ха!) — но это обвинительный приговор значительной части социальных наук, а не защита от ИИ или остроумный выпад лично против меня. Кризис воспроизводимости, накрутка цитирований, подтасовка p-значений и производство статей, которые никто не читает, — всё это были уже существующие проблемы.

Академический шлак человеческого производства всегда был повсеместен; ИИ просто делает его видимым. Натан Смит выразил это ещё жёстче в своём репосте: академические институты накапливают человеческий капитал, система постоянных позиций поощряет коллективное самосозерцание в ущерб общественному влиянию, и большинство профессоров могли бы принести больше пользы, занимаясь чем-то другим. Это жёсткая формулировка. Но если лишь небольшой процент опубликованных статей имеет подлинную ценность, система, которую ИИ разрушает, и так не особенно процветала.

17. Атрофия навыков — реальный риск, особенно для будущего поколения учёных.

Это подводит нас к тому, что я считаю ещё одной сильной реакцией на мой первоначальный пост: что аутсорсинг когнитивных процессов вроде «оценки источников» и «кодирования данных» подрывает собственное понимание исследователя. Многие справедливо беспокоятся о «сведении сложных, движимых мыслью процессов к серии дискретных задач для аутсорсинга, тогда как в когнитивном плане между этапами и после них происходит очень многое». Мессинг и Такер обозначают тот же риск термином «атрофия навыков».

Я отношусь к этому серьёзно и признаю, что риск реален — особенно для студентов и стажёров, которые ещё не интернализировали когнитивные навыки, которые ИИ может замкнуть накоротко. Исследователи, обеспокоенные атрофией навыков, правы в том, что что-то теряется. Но они недооценивают то, что приобретается: способность работать на более высоком уровне абстракции, проверять больше гипотез, быстрее итерировать. Для состоявшихся исследователей риск атрофии невелик, потому что навыки уже сформированы. Для студентов и будущих исследователей нам срочно нужно что-то придумать с обновлением программ аспирантуры.

18. Детекторы ИИ-текста и нормы раскрытия не работают.

Инструменты обнаружения текстов ИИ были плохими, остаются плохими и, вероятно, останутся плохими. Оригинальный пост, созданный Claude, прошёл все основные детекторы ИИ как «100% человеческий» без какого-либо специального промптинга с моей стороны, направленного на это. Многие критики моего первоначального поста сказали, что сразу «почувствовали», что он написан ИИ. Но они сказали это после того, как я раскрыл свой рабочий процесс — классический случай предвзятости подтверждения. До раскрытия никто не заподозрил. Более того, кто-то даже упрекнул меня в том, что я не использовал ИИ для написания поста, продвигающего ИИ.3

Более важный момент — об инцентивах к раскрытию. Мессинг и Такер рекомендуют стандартизировать декларации об использовании ИИ во всех областях. Я уважаю их аргументацию и призыв к стандартизации (вместо нынешнего хаоса), но не согласен с тем, что любой развёрнутый стандарт декларирования ИИ может иметь какие-либо достоинства при текущей структуре стимулов.

Не поймите меня неправильно — люди на руководящих позициях, такие как редакторы журналов, должны быть прозрачны в отношении своего рабочего процесса. Но для обычных авторов добровольное раскрытие создаёт систему, где честные пользователи наказываются, а нечестные не несут последствий. Я раскрыл свой рабочий процесс с ИИ и получил угрозы, профессиональные нападки и призывы меня уволить. Рациональный стимул — лгать. «Подтверждения использования ИИ» звучат разумно, но рассыпаются при столкновении с реальной социальной динамикой академической жизни в 2026 году. Пока профессиональные издержки раскрытия не снизятся, обязательные нормы признания будут отбирать в пользу нечестности.

Есть и более глубокая проблема: нормы раскрытия ставят вопрос об ответственности с ног на голову. Для некоторых декларация об использовании ИИ может даже функционировать как отмазка — «Я использовал ИИ, так что теперь разбирайтесь сами, шлак это или нет». Но авторы должны нести ответственность за конечный продукт вне зависимости от того, как он был произведён. Если ИИ вносит ошибку, это ответственность автора. Важно, является ли работа правильной и ценной, а не то, набрал ли предложения человек или машина.

19. Академический Bluesky — несерьёзная площадка для этой дискуссии.

Мне приходится затронуть этот вопрос, потому что он окрасил всё последующее. Bluesky сгенерировал почти столько же реакций, сколько Twitter, но они были подавляюще враждебными — и в наименее продуктивном ключе. Самым распространённым ответом была та или иная вариация «Если вы это не писали, зачем мне это читать?» или «ии/нч». Многие включали ругательства, обвинения в том, что мне платят компании, занимающиеся ИИ (?), и призывы не цитировать мои ранее опубликованные работы (??) или даже уволить меня (???) с тегированием моего работодателя, чтобы заменить меня на ИИ, раз я утверждаю, что он так хорош.

Мой оригинальный пост был провокативен. Но я ни на кого не нападал лично. Я выдвигал аргументы об ИИ и академической среде, основанные на моём собственном опыте работы в профессии, с которыми вы можете соглашаться или не соглашаться. За это академики на Bluesky ответили профессиональными угрозами, переходом на личности и скоординированными нападками толпой. У меня толстая кожа и гарантия занятости. Я могу это выдержать.

Но большинство тех, кто мог бы разделять неортодоксальные взгляды на ИИ в академии, такой роскоши лишены. Это аспиранты, преподаватели на временных контрактах и молодые исследователи (собственно, я и сам был таковым всего пару месяцев назад!), которые наблюдают за тем, что произошло со мной, и делают очевидный вывод: молчи. Вот в чём реальная цена культуры травли — не для таких, как я, а для открытого обмена идеями, который академическая среда призвана защищать. И хотя я ценю всех сочувствующих, кто написал мне в личные сообщения, я хотел бы, чтобы вы высказывались публично. Только так можно изменить эту прискорбную динамику.

20. Исследования могут не иметь «души» и всё же служить обществу.

Макс Каган сформулировал и ответил на часто звучавшее на Bluesky опасение, которое находит отклик и у меня: идею о том, что исследованиям, произведённым с помощью ИИ или при его участии, не хватает чего-то сущностного — назовите это душой, мастерством или подлинной интеллектуальной вовлечённостью. Процесс борьбы с вопросом, пребывания в неопределённости и медленного выстраивания аргумента лично трансформирует многих учёных. Есть причина, по которой люди идут в аспирантуру, несмотря на ужасные перспективы на рынке труда: сама работа наполнена смыслом. Когда ИИ сжимает этот процесс до нескольких часов, нечто подлинно ценное утрачивается.

Я чувствую притяжение этого аргумента. Но я не уверен, что он выдерживает столкновение с вопросом о том, кто за это платит. Большая часть академических исследований финансируется из государственных средств. Налогоплательщики финансируют университеты не для того, чтобы профессора занимались самоактуализацией. Они финансируют университеты для производства знаний, приносящих пользу обществу. Если исследования с помощью ИИ производят больше и лучше знаний быстрее, аргумент общественного интереса в пользу их принятия трудно оспорить — даже если личный опыт исследовательской работы станет менее романтичным.


  1. Я использую настольное приложение Claude для Windows, подключённое к моим папкам на GitHub через Claude Code (Opus 4.6, подписка Max за $200/месяц), плюс расширение Claude для Chrome для задач в браузере. Для моего предыдущего поста я попросил его обобщить мои публикации в социальных сетях об ИИ и академической среде в форме 10 тезисов, следуя процедурам и руководствам по стилю, которые я постепенно выстроил в файлах инструкций для конкретных проектов. Никакого тайного знания, по сути. 

  2. Если вы предположили, что я говорю о профессорах в США в ведущих исследовательских университетах, это ваше предположение. Как человек, знакомый с основной массой исследований в социальных науках в развивающихся странах и на постсоветском пространстве, могу сказать, что большая часть работ, публикуемых в журналах типа MDPI, имеет мало ценности, даже когда не является откровенным плагиатом. Это преимущественно примитивная, повторяющаяся количественная работа — переопределение терминов и корреляция переменных — того типа, который распространён в социальных науках и с которым ИИ уже справляется более компетентно. 

  3. Райан Бриггс высказывает справедливое замечание: детекторы ИИ настроены на минимизацию ложноположительных срабатываний, поэтому они всё ещё могут быть полезны для выявления студентов, которые слишком полагаются на списывание. Для исследовательских целей, впрочем, я не уверен, что это имеет значение. 

Первоначально опубликовано на Substack.
Этот перевод выполнен с помощью ИИ и может не полностью отражать оригинальное содержание. Пожалуйста, обращайтесь к английской версии на Substack как к авторитетному тексту.
Рекомендуемая ссылка
Kustov, Alexander. 2026. "Academics Need to Wake Up on AI, Part II." Popular by Design, March 4, 2026. https://www.popularbydesign.org/p/academics-need-to-wake-up-on-ai-part