← Powrót do Biuletynu
Naukowcy muszą się obudzić w kwestii AI

Naukowcy muszą się obudzić w kwestii AI

Ten tekst jest inspirowany falą niedawnych publikacji na temat AI autorstwa osób, które szanuję: Dana Williamsa, Alexa Imasa, Bena Ansella, Tibora Rutara, scotta cunninghama, Kevina Mungera, Hollis Robbins, Claude’a (tak!) Blattmana, Kevina Bryana, Andy’ego Halla, Kelsey Piper, Seana Westwooda i wielu innych. Kontynuuję więc tradycję pisania opinii, które są niewygodne, ale potrzebne.

Zajmuję się imigracją i opinią publiczną, nie AI. Ale przez ostatnie kilka miesięcy obserwowałem, jak AI przekształca mój własny warsztat badawczy, i mam kilka rzeczy do powiedzenia kolegom po fachu. Po raz pierwszy w życiu naprawdę nie wiem, jak będzie wyglądać świat akademicki za pięć lat.1 Nawet gdyby postęp całkowicie się zatrzymał i utknęlibyśmy na zawsze z obecnymi modelami, zmiany już będące w toku przekształcą moją dziedzinę badań naukowych i publikacji nie do poznania. Status quo jest nie do utrzymania. Może to potrwać, bo środowisko akademickie jest najbardziej z natury konserwatywną instytucją na świecie. Ale zmiany nadejdą.

Oto dziesięć tez dla moich kolegów, z których większość wciąż wydaje się niczego nieświadoma.

1. AI już potrafi prowadzić badania w naukach społecznych lepiej niż większość profesorów.

To nie jest przesada. Tibor Rutar opisał niedawno, jak wygenerował pełny artykuł naukowy wyłącznie za pomocą promptów AI, tworząc pracę, którą uważa za nadającą się do publikacji w czasopismach pierwszego kwartyla. Paul Novosad podobno osiągnął porównywalne rezultaty w 2-3 godziny. Yascha Mounk twierdzi, że Claude potrafi wyprodukować artykuł z teorii politycznej o jakości publikacyjnej w niecałe dwie godziny przy minimalnym nadzorze. Scott Cunningham szacuje, że stworzenie manuskryptu kosztuje teraz w zasadzie około 100 dolarów za usługi redakcyjne plus subskrypcja Claude’a.

I to wykracza daleko poza analizę liczb czy uruchamianie gotowego kodu w Stacie. Tak, twierdzę tu, że LLM-y produkują znakomite przeglądy literatury i generują owocne rekombinacje istniejących idei. Bądźmy szczerzy: naukowcy nigdy nie byli specjalnie dobrzy w pisaniu, a AI może uczynić wasze pomysły znacznie bardziej dostępnymi dla osób, które ich naprawdę potrzebują. Jednak efektywne wykorzystanie wymaga inwestycji: Aziz Sunderji opisuje stworzenie pliku instrukcji o około 200 liniach, kodującego jego proces badawczy, decyzje merytoryczne i reguły postępowania. To wymaga umiejętności.

2. Artykuł naukowy to format żywego trupa.

Sean Westwood ujął to bez ogródek: „AI robi przeglądy literatury lepiej. AI będzie recenzować prace. Użytkownicy będą przeglądać streszczenia AI. Prawdziwa nauka to pytanie badawcze, plan pre-analizy i analiza. Trzydziestostronicowy artykuł to po prostu szczątkowe opakowanie.” Został za to zjechany na Bluesky. Ale ma całkowitą rację, a ta fala krytyki tylko potwierdza jego tezę: środowisko nie jest w stanie nawet przedyskutować oczywistości bez zwarcia szeregów. Arthur Spirling ma również rację, że potrzebujemy rozmów o tym, czym jest artykuł, co oznacza „recenzja” i jaka jest właściwa rola generatywnej AI. Być może byłoby dobrze, gdyby AI wreszcie skłoniło nas do odejścia od systemu, w którym uniwersytety wydają pieniądze podatników, żeby płacić komercyjnym wydawcom za bardzo powolne produkowanie zamkniętych za paywallem plików PDF2 z nieaktualnymi wynikami publicznie finansowanych badań.

3. Komercyjny system czasopism może tego nie przetrwać.

Najnowszy tekst Cunninghama przedstawia matematykę tego zjawiska. Jeśli tworzenie manuskryptu spadnie do kilku godzin i około 100 dolarów, liczba zgłoszeń może wzrosnąć pięciokrotnie, podczas gdy liczba miejsc w czasopismach pozostanie stała. Wskaźniki odrzucenia na wstępie wzrosną z około 50% do około 90%. Model przychodowy się załamie. Recenzje naukowe, już teraz przeciążone, staną się niemożliwe w takiej skali. Kevin Munger postuluje opłaty za zgłoszenia, płatnych recenzentów, recenzje post-publikacyjne i przesiewanie wspomagane przez LLM. Pytanie brzmi, czy czasopisma się dostosują, czy zostaną ominięte. Obstawiam, że większość zostanie ominięta.

4. Naukowcy stosują wobec AI absurdalne podwójne standardy.

Halucynowanie treści jest niepokojące i badacze powinni zawsze weryfikować swoje źródła. Ale tak jak w przypadku autonomicznych samochodów, potrzebujemy punktu odniesienia: ludzcy autorzy od lat powierzchownie cytują artykuły na podstawie samego abstraktu. Czasopisma już teraz publikują badania z błędami w danych, oszukanymi wartościami p i niereplikowalnymi wynikami w zastraszającym tempie. Według jednego szacunku udział naprawdę użytecznych opublikowanych prac wynosi około 4%. LLM, który okazjonalnie halucynuje cytowanie, konkuruje z systemem, który rutynowo produkuje pseudonaukę ubraną w wystarczająco dużo żargonu, żeby przejść recenzję. Gdybyśmy stosowali ten sam sceptycyzm wobec badań produkowanych przez ludzi, co wobec wyników AI, zamknęlibyśmy połowę czasopism z dnia na dzień.

5. Młodzi naukowcy stoją w obliczu największych zaburzeń i największych szans.

To prawdopodobnie zła wiadomość dla młodych pracowników naukowych próbujących rozwijać kariery w środku tego przewrotu. Jason Fletcher argumentuje, że strategiczna logika tenure się nie zmieniła — najpierw przeżyj selekcję — ale AI fundamentalnie zmienia sposób, w jaki się do niego dochodzi. Koszty przygotowania do zajęć maleją. Czyszczenie danych i debugowanie deleguje się AI. Wąskie gardło przesuwa się z wykonania na weryfikację i oryginalne myślenie.

Gauti Eggertsson zauważa, że zwroty z myślenia konceptualnego i oryginalnych pomysłów są teraz relatywnie wyższe w porównaniu z techniczną czarną robotą. Młody naukowiec z dobrymi pomysłami i Claude Code może teraz produkować badania w tempie, które jeszcze kilka lat temu wymagałoby całego laboratorium. Ale to samo może każdy inny, a kryteria oceny jeszcze za tym nie nadążyły.3

6. Nie widzę już roli asystenta badawczego w moim warsztacie pracy.

Nadal uważam, że posiadanie podopiecznych i współautorów jest bezcenne. Ale ich rola szybko się zmienia. Nie zamierzam zatrudniać kogoś do czyszczenia danych, prowadzenia regresji czy pisania przeglądów literatury, skoro AI robi to wszystko szybciej i za znikomy koszt. Od współpracowników oczekuję oryginalnego myślenia, wiedzy dziedzinowej i intelektualnego wyzwania. To prawdziwa strata dla tradycyjnego modelu terminowania naukowego i nie mam czystej odpowiedzi na pytanie, jak go zastąpić. Komplementarny model Fletchera — AI tworzy wstępne analizy, a ludzcy badacze niezależnie replikują je od zera — wskazuje obiecujący kierunek. Ale jest jasne, że trend rosnącej wieloautorskości w naukach społecznych może się bardzo szybko odwrócić.

7. Duża część oporu wobec AI to obrona statusu przebrana za zasady.

Zastanawiałem się niedawno na Twitterze, ile z niechęci do charakterystycznych śladów AI jest w gruncie rzeczy nową wersją policji gramatycznej — ludzie egzekwujący znaczniki statusu poprzez strażnictwo językowe. Kevin Bryan powiedział wprost: „Rozumiem pragnienie rzemieślniczych, ręcznie robionych badań, z macierzami odwracanymi ręcznie. Ale naszym zadaniem jest przesuwanie granic wiedzy, a nie samorealizacja.”

Dan Williams pisał przekonująco o tym, jak elitarna dezinformacja kwitnie wewnątrz instytucji, w których niemal wszyscy podzielają te same uprzedzenia. Myślę, że coś podobnego dzieje się z zaprzeczaniem AI. Wielu naukowców — zwłaszcza tych skupionych na Bluesky4 i, podejrzewam, tych całkowicie offline — tkwi w kompletnym zaprzeczeniu wobec tego, co już się dzieje. Chris Blattman przeszedł od sceptyka Claude Code do zbudowania całego zestawu narzędzi opartego na AI w ciągu kilku tygodni. Robert Wright niedawno gościł Alex Hannę i Emily Bender, argumentujące, że LLM-y są bezużyteczne. Mądre osoby twierdzące, że narzędzie, które miliony uznają za użyteczne, jest zasadniczo zepsute. Ta zarozumiała postawa jest dokładnie tym, dlaczego populiści wygrywają, i odnosi się do zaprzeczania AI w takim samym stopniu, co do polityki.

8. Produktywne obawy dotyczą bezpieczeństwa i weryfikacji.

Moje wyzwanie dla każdego, kto odrzuca możliwości AI: spędźcie tydzień sam na sam z Claude Code lub Codex. Nie chatbotem — agentem. Większość ludzi wciąż myśli o AI jak o wyszukiwarce, która czasem wymyśla rzeczy. Nie mają pojęcia, co potrafią agentowe systemy AI.

Skupianie się na tym, czy LLM-y „naprawdę rozumieją” czy produkują „prawdziwą” wiedzę, to filozoficzny luksus, który odciąga uwagę od rzeczy wartych zmartwienia. Jak weryfikować twierdzenia generowane przez AI na dużą skalę? Jak zapobiegać oszukiwaniu na wartościach p? Zespół Andy’ego Halla odkrył, że agenty AI są zaskakująco odporne na sycofanckie manipulowanie wartościami p — ale mogą zostać złamane przy umiarkowanym wysiłku. Jak chronić wrażliwe dane, gdy narzędzia AI uzyskują dostęp do repozytoriów instytucjonalnych? Jak zapewnić, że respondenci ankiet internetowych są prawdziwymi osobami? To rozwiązywalne problemy inżynieryjne i instytucjonalne, takie, które Hollis Robbins nazywa wyzwaniami „ostatniej mili” — rzeczy żyjące na krawędziach ekspertyzy, w tym co kontekstualne i nieustalone. Debatowanie, czy Claude jest „naprawdę” inteligentny, jest jak debatowanie, czy kalkulator „naprawdę” liczy, podczas gdy konkurent kończy zadanie.

9. Czeka nas znacznie lepsza nauka.

Są jednak pewne jasne strony. Na moim własnym gruncie, imigracji: możemy teraz automatycznie katalogować zmiany polityk i opinii w różnych krajach oraz sugerować poprawki w czasie rzeczywistym. Możemy budować algorytmy lepiej dopasowujące uchodźców i migrantów do społeczności docelowych. Możemy zadbać o to, by badania i dowody naukowe były dostępne dla decydentów politycznych i wyborców, którzy nigdy nie przeczytają czasopisma naukowego.

Bardziej konkretnie, Yamil Velez i Patrick Liu budują projekty eksperymentalne generowane przez AI od 2022 roku; spersonalizowane eksperymenty w Qualtrics mogą być teraz tworzone w 15 minut za pomocą promptów. Praca Veleza wskazuje na coś jeszcze większego: AI nie tylko przyspiesza istniejące metody ankietowe, ale umożliwia zupełnie nowe formy interaktywnych, adaptacyjnych badań ankietowych — projekty, których ręczne zaprogramowanie byłoby niepraktyczne. David Yanagizawa-Drott poszedł jeszcze dalej, uruchamiając projekt mający na celu wyprodukowanie 1000 artykułów z ekonomii za pomocą AI — nie jako popis, ale jako test obciążeniowy tego, co się stanie, gdy koszt generowania badań spadnie do niemal zera.

Osoby, dla których angielski nie jest językiem ojczystym, również ogromnie na tym skorzystają: badacze w Kairze, Sao Paulo i Dżakarcie mogą teraz tworzyć teksty czytające się równie dobrze jak cokolwiek wychodzące z Cambridge czy Stanfordu. Eggertsson podejrzewa, że AI osłabi monopol, jakim od dawna cieszą się czołowe amerykańskie uczelnie, ponieważ ich przewaga opierała się częściowo na transmisji wiedzy, która teraz jest niemal natychmiastowa. Jeśli zależy wam na demokratyzacji nauki, to ma to większe znaczenie niż większość rzeczy, na które uniwersytety wydają pieniądze.

10. Pomijając scenariusze zagłady, AI jest naprawdę ekscytujące.

Tak, istnieją realne zagrożenia. Utrata miejsc pracy przez niektórych naukowców (i większość pozostałych osób) nie jest hipotetyczna. Obawy dotyczące wyrównania i bezpieczeństwa AI są uzasadnione, nawet jeśli jest mało prawdopodobne, by ziściły się najgorsze scenariusze. Traktuję je poważnie i w pewnym stopniu obawiam się naszej niepewnej przyszłości.

Ale oto, do czego wciąż wracam: AI jest użyteczne i sprawia frajdę. Mam wrażenie, że obóz „agentowa AI nas ogłupia” ma prawdopodobnie rację w niektórych kwestiach. Ale zauważyłem też, że mój próg prokrastynacji wzrósł. Zamiast bezmyślnego scrollowania, teraz obijam się, próbując projektów pobocznych w Claude Code. Być może to najbardziej produktywna forma nie-pracy, jaka istnieje. Przez ostatnich kilka tygodni vibecodowałem kilka całkiem ekscytujących projektów. Bądźcie czujni.

Mądry Yiqing Xu radzi, żebyśmy wszyscy zrobili miesięczną przerwę, by ponownie ocenić i przeprojektować swój warsztat pracy, a potem wrócili do działania. Zgadzam się. Zysk będzie duży. Zamknijcie się w pokoju z Claude Code i zobaczcie, co się stanie.


P.S. Ten post został w całości wygenerowany i opublikowany na Substacku przez agentowe AI z wykorzystaniem mojego nowego przepływu pracy w Claude Code (Opus 4.6). Zróbcie z tym, co chcecie.

P.P.S. To znaczy w całości wygenerowany na podstawie moich rzemieślniczych, ręcznie tworzonych ludzkich postów w mediach społecznościowych i przemyśleń na ten temat. Więc kto go tak naprawdę napisał? Powiedzcie mi wy.


  1. Matthew Yglesias niedawno opisał, jak niepewność związana z AI wywołała u niego blokadę twórczą, ponieważ każda średnioterminowa analiza polityki przekształca się teraz w dyskusje o trajektorii AI. Rozpoznaję to uczucie. 

  2. Oczywiście teraz wiemy, że powinniśmy używać Markdowna, a nie PDF-ów. 

  3. Na pokrewny temat: obecnie rekrutuję postdoca na Uniwersytecie Notre Dame. Ogłoszenie wyraźnie wymienia zainteresowanie agentowymi narzędziami AI. Podejrzewam, że w ciągu kilku lat stanie się to standardem w kryteriach rekrutacji. 

  4. Przepraszam, ale muszę oddać sprawiedliwość Nate’owi Silverowi — blueskyizm jest jak najbardziej realny. 

Pierwotnie opublikowano na Substack.
To tłumaczenie zostało wykonane z pomocą AI i może nie w pełni oddawać oryginalne treści. Proszę odnieść się do angielskiej wersji na Substack jako tekstu wzorcowego.
Sugerowany sposób cytowania
Kustov, Alexander. 2026. "Academics Need to Wake Up on AI." Popular by Design, March 2, 2026. https://www.popularbydesign.org/p/academics-need-to-wake-up-on-ai