← Voltar ao Boletim
Acadêmicos Precisam Acordar para a IA, Parte II

Acadêmicos Precisam Acordar para a IA, Parte II

Aviso para meus amigos do Bluesky: Esta publicação é 100% escrita por humano (assistida por resumos de IA verificados por humanos das suas críticas ao meu post anterior). Erros humanos são possíveis.

No início desta semana, argumentei que acadêmicos precisam acordar para a IA e ofereci dez teses sobre como a IA agêntica está mudando a pesquisa em ciências sociais. A publicação viralizou, especialmente depois que revelei que foi inteiramente gerada e publicada por IA, levando a reportagens, mais de um milhão de visualizações e mais de mil respostas (frequentemente furiosas mas também entusiastas) em diversas plataformas de redes sociais.

Em retrospecto, eu deveria ter feito algumas coisas de forma diferente. Primeiro, revelar que o Claude escreveu a publicação original (mesmo baseado nos meus escritos anteriores em redes sociais) como um follow-up provocativo foi um erro. Isso desviou a atenção da substância e deu aos críticos um motivo fácil para descartar os argumentos. Deveria ter sido transparente sobre minha configuração básica desde o início.1 Segundo, deveria ter sido claro que as ferramentas de IA agêntica atuais são melhores em fazer a maioria das tarefas de pesquisa em ciências sociais do que os professores globalmente.2 Isso não significa que você necessariamente será substituído, mas significa que a natureza do seu trabalho vai mudar. Terceiro, a publicação gerada por IA tinha erros estilísticos menores e um tanto estranhos que uma edição humana mais cuidadosa teria detectado.

Nesse sentido, quero destacar o artigo de Solomon Messing e Joshua Tucker na Brookings, publicado pouco depois do meu, que faz uma versão muito mais persuasiva de muitos dos meus argumentos — com exemplos concretos de uso, sem provocação desnecessária ou texto gerado por IA, e uma visão mais construtiva para o futuro. Se minha publicação foi áspera demais para você, leia a deles.

Fui deliberadamente provocativo, e mantenho essa escolha. Saiu pela culatra em certo sentido, mas funcionou em outro: dezenas, se não centenas, de acadêmicos estão agora experimentando ferramentas de IA agêntica que de outra forma não teriam ainda. Depois de ler a maioria das respostas, certamente mudei de ideia em algumas coisas, mas continuo convicto da minha alegação central de que, por causa das ferramentas de IA já existentes, nosso fluxo de trabalho de pesquisa terá que mudar, quer você goste ou não. Aqui estão mais dez teses que vieram das minhas reflexões.

11. A pesquisa qualitativa e a coleta de dados originais aumentarão em valor relativo.

A crítica substantiva mais forte da Parte I foi que ela confundiu “pesquisa” com as tarefas específicas que a IA executa bem — revisões de literatura, análise de dados, síntese conceitual. Vários respondentes apontaram corretamente que a IA não pode conduzir trabalho de campo etnográfico, entrevistar detidos em prisões ilegais ou passar anos construindo confiança com uma comunidade. Eles estão absolutamente certos. Minhas teses eram principalmente sobre o trabalho quantitativo e conceitual (atualmente dominante) nas ciências sociais, e eu deveria ter sido mais claro sobre esse escopo.

Mas a implicação não é que os pesquisadores qualitativos devam relaxar. É que o valor relativo da coleta de dados originais — trabalho de campo, entrevistas, trabalho de arquivo, observação participante — está prestes a subir. Se a IA pode sintetizar a literatura existente e rodar regressões padrão, então o prêmio se desloca para as coisas que a IA não pode fazer: gerar novos dados que não existiam anteriormente, especialmente de contextos de difícil acesso. Pesquisadores qualitativos e experimentalistas de campo deveriam ver isso como uma oportunidade para fazer mais do excelente trabalho em que têm vantagem comparativa, em vez de transcrever suas entrevistas ou compilar revisões de literatura.

12. Devido à “irregularidade”, as opiniões sobre IA são polarizadas pelas crenças em sua utilidade.

Ethan Mollick descreve as capacidades da IA como uma “fronteira irregular” — sobre-humana em algumas tarefas, constrangedoramente ruim em outras, de formas que não se mapeiam à intuição humana. A IA pode escrever uma revisão de literatura aceitável mas se atrapalhar com um quebra-cabeça visual básico. Pode sintetizar descobertas de 500 artigos mas alucinar o primeiro nome de um coautor.

Essa irregularidade explica por que o debate sobre IA na academia é tão polarizado. Críticos apontam para os vales; entusiastas apontam para os picos. Ambos estão certos sobre seu canto da fronteira. A sobreposição com a divisão qualitativo-quantitativo nas ciências sociais é difícil de ignorar: pesquisadores cujo trabalho envolve tarefas que a IA executa bem (análise de dados, síntese de literatura, reconhecimento de padrões) tendem a ser mais positivos, enquanto aqueles cujo trabalho envolve tarefas que a IA executa mal (trabalho de campo, entrevistas, interpretação de arquivos) tendem a ser mais céticos.

Mas percebi algo além de mera discordância. Usuários do Bluesky que desprezam a IA visceralmente eram frequentemente os primeiros a negar fatos básicos e facilmente verificáveis — por exemplo, que ela pode produzir apresentações de slides bem. Muito poucos respondentes reconheceram que as capacidades da IA para pesquisa são reais mas se preocuparam com suas consequências. As pessoas ou não gostam da IA e negam qualquer uso produtivo, ou gostam dela e exageram sua utilidade. Parte disso é raciocínio motivado — a ameaça existencial explícita de um computador fazer coisas melhor do que você. Mas suspeito que ainda mais é simplesmente ignorância sobre “o outro”.

A teoria do contato é real. Se você acredita que o Claude Code é maligno ou incompetente, desafio você a instalá-lo e usá-lo para organizar suas pastas de pesquisa ou criar apresentações de slides para suas próximas conferências. Antes, encorajei as pessoas a “passar uma semana com o Claude Code.” Deveria ter sido “passe um dia” (o que deveria ser suficiente).

13. A expertise do usuário ainda determina vastamente a qualidade do resultado.

Talvez não surpreendentemente, muitas das críticas no Bluesky ainda assumem que usar IA significa copiar e colar de um chatbot. Simplesmente não é assim que a IA agêntica funciona. A IA agêntica opera autonomamente dentro do seu sistema de arquivos, lê e escreve código, consulta documentação e executa fluxos de trabalho de pesquisa em múltiplas etapas — tudo guiado por instruções detalhadas que você constrói ao longo do tempo.

Uma forma comum e relacionada de negação da IA também assume que, porque a ferramenta é acessível, qualquer um poderia produzir o mesmo resultado. Isso é como argumentar que porque todos têm acesso a um fogão, todos podem cozinhar uma boa refeição. Há diferenças óbvias em habilidades culinárias, receitas e qualidade dos ingredientes.

Mas a questão não é se a IA é melhor do que a maioria dos professores em fazer a maioria das tarefas importantes de pesquisa (ainda mantenho a afirmação de que é), mas se bons pesquisadores com IA são melhores do que bons pesquisadores sem IA (absolutamente são). Honestamente, eu prefiro o produto medíocre da IA bem direcionada ao produto medíocre do Bluesky (centenas de usuários anônimos respondendo ia/nl toda vez que veem a temida palavra-chave IA independentemente de qualquer substância) qualquer dia da semana.

14. O atraso de publicação torna as críticas sobre capacidades da IA obsoletas antes mesmo de serem publicadas.

Aqui está um problema que quase ninguém no debate reconhece: os prazos de publicação acadêmica e de livros são estruturalmente incompatíveis com a taxa de melhoria da IA. Quando alguém cita um artigo de 2025 (iniciado em 2024) documentando a taxa de alucinação do GPT-4 para argumentar contra o uso de IA em março de 2026, está citando evidências sobre um sistema que não existe mais. É como citar um estudo de 2005 sobre as limitações dos celulares flip para argumentar contra smartphones. Provavelmente é por isso que o novo livro “AI Con” é tão ruim — claramente desatualizado antes mesmo de chegar às prateleiras.

Não estou descartando toda essa pesquisa em si. Os estudos são frequentemente metodologicamente sólidos. Mas a base de evidências expira mais rápido do que pode ser publicada, revisada e citada. O artigo de Messing e Tucker na Brookings, publicado em março de 2026 (e revisado “rapidamente” em apenas duas semanas), já documenta capacidades que teriam parecido especulativas seis meses antes. Quando um artigo revisado por pares sobre as limitações atuais da IA aparece em um periódico, as limitações que documenta provavelmente já terão sido corrigidas. Esta não é uma situação confortável para acadêmicos treinados para confiar em evidências publicadas. Mas é a situação em que nos encontramos.

15. A maioria dos artigos já é majoritariamente lida por IA, não por humanos.

É um segredo aberto na academia que a maioria dos artigos publicados nunca é citada ou lida por ninguém além dos autores, revisores e às vezes o editor. Com a proliferação vindoura de artigos escritos por IA — sejam de baixa qualidade completa ou não — se tornará impossível para pesquisadores acompanhar até mesmo seus próprios campos de nicho. Gosto de pensar que estou ciente de toda a nova literatura sobre atitudes em relação à imigração, mas provavelmente estou perdendo 80% do que é produzido fora dos EUA, Europa e dos principais periódicos disciplinares.

Isso significa que os acadêmicos devem aceitar que seu público principal é cada vez mais os LLMs. Tyler Cowen vem falando sobre escrever para LLMs há algum tempo, mas com a ascensão das ferramentas agênticas, isso se aplica à maioria dos acadêmicos também — incluindo pesquisadores qualitativos cujo trabalho em si não pode ser automatizado. Não tenho uma noção firme do que os autores devem fazer a respeito, mas garantir que uma versão legível por máquina do seu artigo exista (idealmente em formato .md) parece um bom primeiro passo.

16. A IA expõe o que já estava quebrado na academia e além.

Relacionado, um grande número de respostas à Parte I se resumiu a: “Se a IA pode fazer sua pesquisa, sua pesquisa nunca foi boa.” Concordo (risos) — mas isso é uma acusação contra grande parte das ciências sociais, não uma defesa contra a IA ou um ataque inteligente contra mim pessoalmente. A crise de replicação, inflação de citações, p-hacking e a produção de artigos que ninguém lê eram todas condições pré-existentes.

O produto medíocre acadêmico gerado por humanos sempre foi generalizado; a IA apenas o torna visível. Nathan Smith colocou isso mais diretamente em seu restack: instituições acadêmicas acumulam capital humano, o sistema de titularidade recompensa a contemplação coletiva do próprio umbigo em vez de impacto público, e a maioria dos professores poderia ser mais útil fazendo outra coisa. É um enquadramento duro. Mas se apenas uma pequena porcentagem dos artigos publicados tem valor genuíno, o sistema que a IA está perturbando não estava exatamente prosperando.

17. A atrofia de habilidades é um risco real, especialmente para a futura geração de acadêmicos.

Isso nos leva ao que considero outra reação forte à minha publicação inicial: que terceirizar processos cognitivos como “avaliar fontes” e “codificar dados” danifica a compreensão do próprio pesquisador. Muitas pessoas corretamente se preocupam com “reduzir processos complexos e impulsionados pelo pensamento a uma série de tarefas discretas a serem terceirizadas, quando há tanto acontecendo cognitivamente tanto entre quanto após as etapas”. Messing e Tucker sinalizam o mesmo risco sob “atrofia de habilidades.”

Levo isso a sério, e concedo que o risco é real — especialmente para estudantes e trainees que ainda não internalizaram as habilidades cognitivas que a IA pode atalhar. Os pesquisadores que se preocupam com a atrofia de habilidades estão certos de que algo se perde. Mas eles subestimam o que se ganha: a capacidade de operar em um nível mais alto de abstração, testar mais hipóteses, iterar mais rápido. Para pesquisadores estabelecidos, o risco de atrofia é baixo porque as habilidades já existem. Para estudantes e futuros pesquisadores, precisamos urgentemente descobrir algo para atualizar nosso currículo de pós-graduação.

18. Detectores de escrita por IA e normas de divulgação não funcionam.

Ferramentas de detecção de escrita por IA eram ruins, continuam ruins e provavelmente continuarão ruins. A publicação original produzida pelo Claude passou em todos os principais detectores de IA como “100% humana” sem nenhuma elaboração especial de prompts da minha parte para evitar isso. Muitos críticos da minha publicação inicial disseram que imediatamente “sentiram” que era escrita por IA. Mas disseram isso depois que revelei o fluxo de trabalho — um caso clássico de viés de confirmação. Antes da revelação, ninguém a sinalizou. Na verdade, alguém até reclamou que eu não usei IA para escrever uma publicação promovendo a IA.3

O ponto mais importante é sobre incentivos de divulgação. Messing e Tucker recomendam padronizar declarações de uso de IA entre os campos. Respeito seu raciocínio e o apelo à padronização (em vez do caos que temos agora), mas discordo que qualquer padrão expansivo de declaração de IA possa ter méritos dada a estrutura de incentivos atual.

Não me entenda mal — pessoas em posições de autoridade como editores de periódicos devem ser transparentes sobre seu fluxo de trabalho. Mas para autores regulares, a divulgação voluntária cria um sistema onde usuários honestos são punidos e usuários desonestos não enfrentam consequências. Divulguei meu fluxo de trabalho com IA e recebi ameaças, ataques profissionais e pedidos para me demitirem. O incentivo racional é mentir. “Declarações de uso de IA” parecem razoáveis, mas colapsam ao contato com as dinâmicas sociais reais da vida acadêmica em 2026. Até que os custos profissionais da divulgação caiam, normas obrigatórias de declaração selecionarão por desonestidade.

Há também um problema mais profundo: as normas de divulgação invertem a questão da responsabilidade. Para alguns, a divulgação de IA pode funcionar como uma desculpa — “Usei IA, então agora é problema seu descobrir se é produto medíocre.” Mas os autores devem responsabilizar-se pelo produto final independentemente de como foi produzido. Se a IA introduz um erro, é responsabilidade do autor. O que importa é se o trabalho é correto e valioso, não se um humano ou uma máquina digitou as frases.

19. O Bluesky acadêmico não é um local sério para esse debate.

Preciso abordar isso porque coloriu tudo que se seguiu. O Bluesky gerou quase tantas reações quanto o Twitter, mas foram esmagadoramente hostis da forma menos produtiva possível. A resposta mais comum foi alguma versão de “Se você não escreveu, por que eu deveria ler?” ou “ia/nl.” Muitas incluíam xingamentos, acusações de ser pago por empresas de IA (?), e pedidos para não citar meu trabalho publicado anteriormente (??) ou até para me demitirem (???) com pessoas marcando meu empregador para me substituir por IA já que estou dizendo que é tão boa.

Minha publicação original foi provocativa. Mas não ataquei ninguém pessoalmente. Fiz argumentos sobre IA e academia, baseados na minha própria experiência no campo, com os quais você pode concordar ou discordar. Por isso, acadêmicos no Bluesky responderam com ameaças profissionais, ataques ad hominem e linchamento virtual coordenado. Tenho casca grossa e segurança de emprego. Posso absorver isso.

Mas a maioria das pessoas que podem compartilhar visões heterodoxas sobre IA na academia não tem esse luxo. São estudantes de pós-graduação, docentes contingentes e pesquisadores juniores (na verdade, eu mesmo era um há apenas alguns meses!) que observam o que aconteceu comigo e tiram a conclusão óbvia: fique de boca fechada. Esse é o verdadeiro custo da cultura de linchamento — não para pessoas como eu, mas para a troca aberta de ideias que a academia deveria proteger. E embora eu tenha apreciado todas as pessoas solidárias que entraram em contato por mensagem privada, gostaria que vocês se manifestassem publicamente. Essa é a única forma de essa dinâmica infeliz mudar.

20. A pesquisa pode carecer de “alma” e ainda servir ao público.

Max Kagan articulou e abordou uma preocupação comum das pessoas do Bluesky que ressoa comigo também: a ideia de que a pesquisa produzida por ou com IA carece de algo essencial — chame de alma, ofício ou engajamento intelectual autêntico. O processo de lutar com uma questão, conviver com a ambiguidade e lentamente construir um argumento é pessoalmente transformador para muitos acadêmicos. Há uma razão pela qual as pessoas buscam doutorados apesar das perspectivas terríveis no mercado de trabalho: o trabalho em si é significativo. Quando a IA comprime esse processo em horas, algo genuinamente valioso se perde.

Sinto esse apelo. Mas não tenho certeza se ele sobrevive ao contato com a questão de quem paga por isso. A maioria da pesquisa acadêmica é financiada publicamente. Os contribuintes não financiam universidades para que professores se autorrealizem. Eles financiam universidades para produzir conhecimento que beneficie a sociedade. Se a pesquisa assistida por IA produz mais e melhor conhecimento mais rápido, o argumento do interesse público para abraçá-la é difícil de resistir — mesmo que a experiência privada da pesquisa se torne menos romântica.


  1. Uso o aplicativo de desktop do Claude no Windows, conectado às minhas pastas do GitHub via Claude Code (Opus 4.6, assinatura Max de $200/mês), mais a extensão Chrome do Claude para tarefas no navegador. Para minha publicação anterior, pedi a ele que resumisse minhas publicações em redes sociais sobre IA e academia na forma de 10 teses, seguindo procedimentos e guias de estilo que construí gradualmente em arquivos de instrução específicos do projeto. Nenhum conhecimento proibido, na verdade. 

  2. Se você assumiu que eu estava falando de professores dos EUA em universidades R1, a culpa é sua. Como alguém familiarizado com a pesquisa mainstream em ciências sociais em países em desenvolvimento e no espaço pós-soviético, posso dizer que a maioria do trabalho produzido em periódicos estilo MDPI tem pouco valor mesmo quando não é plágio flagrante. É trabalho quantitativo na maior parte básico e repetitivo — redefinindo termos e correlacionando variáveis — do tipo que é comum nas ciências sociais e que a IA já pode fazer com mais competência. 

  3. Ryan Briggs faz um ponto justo: os detectores de IA são calibrados para reduzir falsos positivos, então ainda podem ser úteis para detectar estudantes que trapaceiam demais. Para fins de pesquisa, porém, não tenho certeza se isso importa. 

Publicado originalmente no Substack.
Esta tradução foi produzida com assistência de IA e pode não representar totalmente o conteúdo original. Consulte a versão em inglês no Substack para o texto oficial.
Citação sugerida
Kustov, Alexander. 2026. "Academics Need to Wake Up on AI, Part II." Popular by Design, March 4, 2026. https://www.popularbydesign.org/p/academics-need-to-wake-up-on-ai-part