← Powrót do Biuletynu
Naukowcy muszą się obudzić w kwestii AI, część II

Naukowcy muszą się obudzić w kwestii AI, część II

Oświadczenie dla moich znajomych z Bluesky: Ten post jest w 100% napisany przez człowieka (wspomagany zweryfikowanymi przez człowieka streszczeniami AI waszych krytyk mojego wcześniejszego tekstu). Ludzkie błędy są możliwe.

Na początku tego tygodnia argumentowałem, że naukowcy muszą się obudzić w kwestii AI i zaproponowałem dziesięć tez o tym, jak agentowa AI zmienia badania w naukach społecznych. Post stał się viralowy, zwłaszcza po tym, jak ujawniłem, że został w pełni wygenerowany i opublikowany przez AI, co doprowadziło do artykułów prasowych, ponad miliona wyświetleń i ponad tysiąca (często gniewnych, ale też entuzjastycznych) reakcji na różnych platformach mediów społecznościowych.

Z perspektywy czasu powinienem był kilka rzeczy zrobić inaczej. Po pierwsze, ujawnienie, że Claude napisał oryginalny post (nawet w oparciu o moje wcześniejsze wpisy w mediach społecznościowych) jako żartobliwy dopisek, było błędem. Odciągnęło uwagę od meritum i dało krytykom łatwy powód do odrzucenia argumentów. Zamiast tego powinienem był od początku otwarcie przedstawić mój podstawowy sposób pracy.1 Po drugie, powinienem był jasno powiedzieć, że obecne agentowe narzędzia AI są lepsze w wykonywaniu większości zadań badawczych w naukach społecznych niż profesorowie na świecie.2 To nie znaczy, że musisz zostać zastąpiony, ale oznacza, że charakter twojej pracy się zmieni. Po trzecie, post wygenerowany przez AI miał drobne, nieco dziwne błędy stylistyczne, które lepsza redakcja z udziałem człowieka by wyłapała.

W tym kontekście chcę zwrócić uwagę na tekst Solomona Messinga i Joshuy Tuckera dla Brookings, opublikowany krótko po moim, który przedstawia znacznie bardziej przekonującą wersję wielu moich argumentów — z konkretnymi przykładami zastosowań, bez zbędnej prowokacji czy tekstu generowanego przez AI i z bardziej konstruktywną wizją przyszłości. Jeśli mój post był dla ciebie zbyt agresywny, przeczytaj ich tekst.

Byłem celowo prowokacyjny i podtrzymuję ten wybór. Odbiło się to w pewnym sensie rykoszetem, ale w innym sensie zadziałało: dziesiątki, jeśli nie setki naukowców wypróbowuje teraz agentowe narzędzia AI, które w innym wypadku jeszcze by tego nie zrobiły. Po przeczytaniu większości reakcji z pewnością zmieniłem zdanie w kilku kwestiach, ale wciąż jestem przekonany co do mojej głównej tezy, że ze względu na już istniejące narzędzia AI nasz warsztat badawczy będzie musiał się zmienić, czy ci się to podoba, czy nie. Oto dziesięć kolejnych tez wynikających z moich refleksji.

11. Badania jakościowe i oryginalne zbieranie danych zyskają na relatywnej wartości.

Najsilniejsza merytoryczna krytyka Części I polegała na tym, że utożsamiłem „badania” z konkretnymi zadaniami, które AI wykonuje dobrze — przeglądami literatury, analizą danych, syntezą konceptualną. Wielu respondentów słusznie zwróciło uwagę, że AI nie jest w stanie prowadzić etnograficznych badań terenowych, przeprowadzać wywiadów z osadzonymi w nielegalnych więzieniach ani spędzić lat na budowaniu zaufania w społeczności. Mają całkowitą rację. Moje tezy dotyczyły przede wszystkim (obecnie dominujących) prac ilościowych i konceptualnych w naukach społecznych i powinienem był wyraźniej określić ten zakres.

Ale wniosek nie jest taki, że badacze jakościowi mogą odetchnąć. Chodzi o to, że relatywna wartość oryginalnego zbierania danych — badań terenowych, wywiadów, pracy archiwalnej, obserwacji uczestniczącej — wkrótce wzrośnie. Jeśli AI potrafi syntetyzować istniejącą literaturę i prowadzić standardowe regresje, to premia przesuwa się na rzeczy, których AI nie potrafi: generowanie nowych danych, które wcześniej nie istniały, zwłaszcza z trudno dostępnych kontekstów. Badacze jakościowi i eksperymentatorzy terenowi powinni postrzegać to jako szansę na więcej znakomitej pracy, w której mają przewagę komparatywną, zamiast transkrybować wywiady czy kompilować przeglądy literatury.

12. Ze względu na „poszarpaność” frontu, opinie o AI są spolaryzowane przez przekonania o jego użyteczności.

Ethan Mollick opisuje możliwości AI jako „poszarpany front” — nadludzkie w niektórych zadaniach, żenująco słabe w innych, w sposób niemożliwy do przewidzenia na podstawie ludzkiej intuicji. AI potrafi napisać przyzwoity przegląd literatury, ale mieć problem z podstawową zagadką wizualną. Potrafi zsyntetyzować ustalenia z 500 artykułów, ale zmyślić imię współautora.

Ta poszarpaność wyjaśnia, dlaczego debata o AI w środowisku akademickim jest tak spolaryzowana. Krytycy wskazują na doliny; entuzjaści wskazują na szczyty. Jedni i drudzy mają rację w swoim obszarze frontu. Pokrywanie się tego z podziałem na badaczy jakościowych i ilościowych w naukach społecznych trudno zignorować: badacze, których praca obejmuje zadania, które AI wykonuje dobrze (analiza danych, synteza literatury, rozpoznawanie wzorców), są bardziej pozytywnie nastawieni, podczas gdy ci, których praca obejmuje zadania, które AI wykonuje słabo (badania terenowe, wywiady, interpretacja archiwalna), są bardziej sceptyczni.

Ale zauważyłem coś wykraczającego poza zwykły spór. Użytkownicy Bluesky, którzy viscerálnie nienawidzą AI, często jako pierwsi zaprzeczali podstawowym, łatwo weryfikowalnym faktom — na przykład, że potrafi dobrze tworzyć prezentacje slajdowe. Bardzo niewielu respondentów przyznawało, że możliwości AI w badaniach są realne, ale martwiło się ich konsekwencjami. Ludzie albo nie lubią AI i zaprzeczają jakiejkolwiek produktywnej funkcji, albo je lubią i wyolbrzymiają jego użyteczność. Część z tego to rozumowanie motywowane — jawne egzystencjalne zagrożenie ze strony komputera robiącego rzeczy lepiej niż ty. Ale podejrzewam, że jeszcze więcej z tego to po prostu niewiedza o „tym drugim.”

Teoria kontaktu działa. Jeśli wierzysz, że Claude Code jest zły lub niekompetentny, wyzywam cię — zainstaluj go i użyj do uporządkowania swoich folderów badawczych lub stworzenia prezentacji slajdowych na nadchodzące konferencje. Wcześniej zachęcałem ludzi do „spędzenia tygodnia z Claude Code.” Powinno być „spędź jeden dzień” (powinno wystarczyć).

13. Ekspertyza użytkownika wciąż w ogromnym stopniu determinuje jakość wyników.

Być może nie zaskakuje, że duża część krytyki na Bluesky wciąż zakłada, że korzystanie z AI oznacza kopiowanie i wklejanie z chatbota. Tak po prostu nie działa agentowe AI. Agentowe AI działa autonomicznie w twoim systemie plików, czyta i pisze kod, konsultuje dokumentację i realizuje wieloetapowe przepływy badawcze — wszystko kierowane szczegółowymi instrukcjami, które budujesz z czasem.

Jedna pokrewna, powszechna forma zaprzeczania AI zakłada również, że skoro narzędzie jest dostępne, każdy mógłby uzyskać taki sam wynik. To tak, jakby twierdzić, że skoro każdy ma dostęp do kuchenki, każdy potrafi ugotować dobry posiłek. Istnieją oczywiste różnice w umiejętnościach kulinarnych, przepisach i jakości składników.

Ale pytanie nie brzmi, czy AI jest lepsze od większości profesorów w wykonywaniu większości ważnych zadań badawczych (wciąż podtrzymuję twierdzenie, że tak), lecz czy dobrzy badacze z AI są lepsi niż dobrzy badacze bez AI (zdecydowanie tak). Szczerze mówiąc, wolę dobrze spromptowany slop AI od slopu z Bluesky (setek anonimowych użytkowników odpowiadających ai/dr za każdym razem, gdy zobaczą budzące strach słowo kluczowe AI, niezależnie od jakiejkolwiek treści merytorycznej) każdego dnia tygodnia.

14. Opóźnienia publikacyjne sprawiają, że krytyki możliwości AI dezaktualizują się, zanim się ukazują.

Oto problem, którego niemal nikt w tej debacie nie dostrzega: harmonogramy publikacji akademickich i książkowych są strukturalnie niezgodne z tempem postępu AI. Kiedy ktoś cytuje artykuł z 2025 roku (rozpoczęty w 2024) dokumentujący wskaźnik halucynacji GPT-4, argumentując przeciwko używaniu AI w marcu 2026, cytuje dowody dotyczące systemu, który już nie istnieje. To jak cytowanie badania z 2005 roku o ograniczeniach telefonów z klapką, by argumentować przeciwko smartfonom. Prawdopodobnie dlatego nowa książka „AI Con” jest tak słaba — wyraźnie przestarzała, zanim trafiła na półki.

Nie odrzucam samych tych badań. Są często metodologicznie solidne. Ale baza dowodowa przeterminowuje się szybciej, niż może zostać opublikowana, zrecenzowana i zacytowana. Tekst Messinga i Tuckera dla Brookings, opublikowany w marcu 2026 (i zrecenzowany „błyskawicznie” w zaledwie dwa tygodnie), już dokumentuje możliwości, które pół roku wcześniej wydawałyby się spekulatywne. Zanim zrecenzowany artykuł o aktualnych ograniczeniach AI ukaże się w czasopiśmie, ograniczenia, które dokumentuje, prawdopodobnie zostaną naprawione. To nie jest komfortowa sytuacja dla naukowców wyszkolonych do polegania na opublikowanych dowodach. Ale w takiej sytuacji się znajdujemy.

15. Większość artykułów naukowych jest już czytana głównie przez AI, nie przez ludzi.

Jest tajemnicą poliszynela w środowisku akademickim, że większość opublikowanych artykułów nigdy nie jest cytowana ani czytana przez nikogo poza autorami, recenzentami i czasem redaktorem. Wraz z nadchodzącą proliferacją artykułów pisanych przez AI — czy to kompletnego slopu, czy nie — stanie się niemożliwe dla badaczy nadążanie nawet za własną niszową dziedziną. Lubię myśleć, że jestem na bieżąco z całą nową literaturą dotyczącą postaw wobec imigracji, ale prawdopodobnie pomijam 80% tego, co powstaje poza USA, Europą i czołowymi czasopismami dyscyplinarnymi.

To oznacza, że naukowcy powinni zaakceptować, że ich głównym odbiorcą są coraz częściej LLM-y. Tyler Cowen od jakiegoś czasu mówi o pisaniu dla LLM-ów, ale wraz z rozwojem narzędzi agentowych dotyczy to również większości naukowców — w tym badaczy jakościowych, których sama praca nie może być zautomatyzowana. Nie mam jasnego obrazu tego, co autorzy powinni z tym zrobić, ale zapewnienie, by istniała wersja artykułu czytelna maszynowo (najlepiej w formacie .md), wydaje się dobrym pierwszym krokiem.

16. AI odsłania to, co w środowisku akademickim (i nie tylko) już wcześniej nie działało.

Duża liczba reakcji na Część I sprowadzała się do: „Jeśli AI potrafi zrobić twoje badania, twoje badania nigdy nie były dobre.” Zgadzam się (LOL) — ale to oskarżenie dużej części nauk społecznych, a nie obrona przed AI ani sprytny osobisty atak na mnie. Kryzys replikacji, napompowywanie cytowań, manipulowanie wartościami p i produkcja artykułów, których nikt nie czyta, to wszystko preistniejące schorzenia.

Ludzki akademicki slop był zawsze powszechny; AI po prostu czyni go widocznym. Nathan Smith ujął to dosadniej w swoim restacku: instytucje akademickie gromadzą kapitał ludzki, system tenure nagradza zbiorowe kontemplowanie własnego pępka kosztem publicznego wpływu, a większość profesorów mogłaby być bardziej użyteczna robiąc coś innego. To ostra ocena. Ale jeśli tylko niewielki odsetek opublikowanych artykułów ma autentyczną wartość, system, który AI rozbija, nie był w najlepszej formie.

17. Atrofia umiejętności jest realnym zagrożeniem, zwłaszcza dla przyszłego pokolenia badaczy.

To prowadzi nas do tego, co uważam za kolejną mocną reakcję na mój początkowy post: że outsourcowanie procesów poznawczych takich jak „ocena źródeł” i „kodowanie danych” szkodzi własnemu rozumieniu badacza. Wiele osób słusznie martwi się o „redukowanie złożonych, opartych na myśleniu procesów do serii dyskretnych zadań do zlecenia na zewnątrz, kiedy tyle dzieje się poznawczo zarówno pomiędzy krokami, jak i po nich.” Messing i Tucker sygnalizują to samo ryzyko pod hasłem „atrofia umiejętności.”

Traktuję to poważnie i przyznaję, że ryzyko jest realne — zwłaszcza dla studentów i doktorantów, którzy nie zdążyli jeszcze zinternalizować umiejętności poznawczych, które AI może obejść na skróty. Badacze martwiący się atrofią umiejętności mają rację, że coś się traci. Ale niedoceniają tego, co się zyskuje: zdolność działania na wyższym poziomie abstrakcji, testowania większej liczby hipotez, szybszego iterowania. Dla doświadczonych badaczy ryzyko atrofii jest niskie, bo umiejętności już istnieją. Dla studentów i przyszłych badaczy musimy pilnie coś wymyślić w kwestii aktualizacji programów studiów doktoranckich.

18. Detektory pisania AI i normy ujawniania nie działają.

Narzędzia do wykrywania tekstu pisanego przez AI były słabe, nadal są słabe i prawdopodobnie takie pozostaną. Oryginalny post napisany przez Claude’a przeszedł każdy główny detektor AI jako „w 100% ludzki” bez jakiegokolwiek wyrafinowanego promptowania, by tego uniknąć, z mojej strony. Wielu krytyków mojego pierwotnego posta twierdziło, że od razu „wyczuli”, iż był napisany przez AI. Ale mówili to po tym, jak ujawniłem swój sposób pracy — podręcznikowy przypadek efektu potwierdzenia. Przed ujawnieniem nikt tego nie zasygnalizował. Co więcej, ktoś nawet narzekał, że nie użyłem AI do napisania posta promującego AI.3

Ważniejsza kwestia dotyczy motywacji do ujawniania. Messing i Tucker zalecają standaryzację deklaracji dotyczących używania AI w różnych dziedzinach. Szanuję ich rozumowanie i postulat standaryzacji (zamiast chaosu, który mamy teraz), ale nie zgadzam się, że jakikolwiek rozbudowany standard deklaracji o AI może mieć jakiekolwiek zalety przy obecnej strukturze zachęt.

Nie zrozumcie mnie źle — osoby na stanowiskach autorytetu, takie jak redaktorzy czasopism, powinny być transparentne co do swojego warsztatu pracy. Ale dla zwykłych autorów dobrowolne ujawnianie tworzy system, w którym uczciwi użytkownicy są karani, a nieuczciwi nie ponoszą żadnych konsekwencji. Ujawniłem swój sposób pracy z AI i otrzymałem groźby, ataki zawodowe i wezwania do zwolnienia mnie. Racjonalna zachęta to kłamanie. „Podziękowania za użycie AI” brzmią rozsądnie, ale rozpadają się w zetknięciu z faktyczną dynamiką społeczną życia akademickiego w 2026 roku. Dopóki zawodowe koszty ujawniania nie spadną, obowiązkowe normy deklaracyjne będą selekcjonować w kierunku nieuczciwości.

Jest też głębszy problem: normy ujawniania odwracają kwestię odpowiedzialności do góry nogami. Dla niektórych ujawnienie użycia AI może nawet funkcjonować jako wymówka — „użyłem AI, więc teraz to na tobie, żebyś ustalił, czy to slop.” Ale autorzy powinni odpowiadać za produkt końcowy niezależnie od tego, jak został wyprodukowany. Jeśli AI wprowadzi błąd, jest to odpowiedzialność autora. Liczy się to, czy praca jest poprawna i wartościowa, a nie to, czy zdania napisał człowiek, czy maszyna.

19. Akademickie Bluesky nie jest poważnym forum dla tej debaty.

Muszę się do tego odnieść, bo to zabarwiło wszystko, co nastąpiło potem. Bluesky wygenerowało niemal tyle samo reakcji co Twitter, ale były one przytłaczająco wrogie w najmniej produktywny możliwy sposób. Najczęstszą odpowiedzią była jakaś wersja „Skoro tego nie napisałeś, dlaczego miałbym to czytać?” lub „ai/dr”. Wiele zawierało przekleństwa, oskarżenia o bycie opłacanym przez firmy AI (?), wezwania do niecytowania moich wcześniej opublikowanych prac (??) czy wręcz do zwolnienia mnie (???) — ludzie tagowali mojego pracodawcę, by zastąpił mnie AI, skoro twierdzę, że jest takie dobre.

Mój oryginalny post był prowokacyjny. Ale nikogo nie zaatakowałem osobiście. Przedstawiłem argumenty dotyczące AI i środowiska akademickiego, oparte na moim własnym doświadczeniu w tej dziedzinie, z którymi możesz się zgadzać lub nie. W odpowiedzi na to naukowcy na Bluesky zareagowali groźbami zawodowymi, atakami ad hominem i skoordynowanymi nagonkami. Mam grubą skórę i stabilne zatrudnienie. Mogę to wytrzymać.

Ale większość osób, które mogłyby podzielić się heterodoksyjnymi poglądami na AI w nauce, nie ma tego luksusu. To doktoranci, pracownicy na umowach i młodzi badacze (w istocie sam byłem jednym z nich jeszcze kilka miesięcy temu!), którzy obserwują, co mi się przydarzyło, i wyciągają oczywisty wniosek: trzymaj gębę na kłódkę. To jest prawdziwy koszt kultury nagonki — nie dla ludzi takich jak ja, ale dla otwartej wymiany idei, którą nauka powinna chronić. I choć doceniłem wszystkie współczujące osoby, które odezwały się w prywatnych wiadomościach, chciałbym, żebyście wypowiadali się publicznie. To jedyny sposób, by ta niefortunna dynamika mogła się zmienić.

20. Badania mogą nie mieć „duszy” i nadal służyć społeczeństwu.

Max Kagan wyartykułował i odniósł się do powszechnej obawy wyrażanej na Bluesky, która rezonuje również ze mną: że badania produkowane przez AI lub z jego pomocą pozbawione są czegoś istotnego — nazwijmy to duszą, rzemiosłem czy autentycznym intelektualnym zaangażowaniem. Proces zmagania się z pytaniem, siedzenia z niejasnością i powolnego budowania argumentacji jest osobiście transformujący dla wielu badaczy. Jest powód, dla którego ludzie robią doktoraty mimo fatalnych perspektyw na rynku pracy: sama praca ma sens. Kiedy AI kompresuje ten proces do godzin, traci się coś naprawdę wartościowego.

Czuję siłę tego argumentu. Ale nie jestem pewien, czy przetrwa on zderzenie z pytaniem, kto za to płaci. Większość badań akademickich jest finansowana ze środków publicznych. Podatnicy nie finansują uniwersytetów po to, by profesorowie mogli się samorealizować. Finansują je po to, by produkować wiedzę, która przynosi korzyści społeczeństwu. Jeśli badania wspomagane AI produkują więcej i lepszej wiedzy szybciej, argument interesu publicznego za ich przyjęciem trudno odeprzeć — nawet jeśli osobiste doświadczenie badań staje się mniej romantyczne.


  1. Używam aplikacji desktopowej Claude na Windowsie, połączonej z moimi folderami na GitHubie przez Claude Code (Opus 4.6, subskrypcja Max za 200 dolarów miesięcznie), plus rozszerzenie Claude do Chrome do zadań przeglądarkowych. Przy moim poprzednim poście poprosiłem go o podsumowanie moich wpisów w mediach społecznościowych na temat AI i nauki w formie 10 tez, zgodnie z procedurami i przewodnikami stylistycznymi, które stopniowo budowałem w plikach instrukcji specyficznych dla projektu. Żadnej zakazanej wiedzy, naprawdę. 

  2. Jeśli założyłeś, że mówię o amerykańskich profesorach na uczelniach R1, to twoja sprawa. Jako osoba zaznajomiona z głównym nurtem badań w naukach społecznych w krajach rozwijających się i przestrzeni postsowieckiej, mogę powiedzieć, że większość prac publikowanych w czasopismach typu MDPI ma niewielką wartość, nawet kiedy nie jest jawnym plagiatem. To głównie podstawowa, powtarzalna praca ilościowa — redefiniowanie terminów i korelowanie zmiennych — tego rodzaju, która jest powszechna w naukach społecznych i którą AI już potrafi wykonywać kompetentniej. 

  3. Ryan Briggs słusznie zwraca uwagę: detektory AI są kalibrowane tak, by ograniczać fałszywe alarmy, więc wciąż mogą być przydatne do wykrywania studentów, którzy nadmiernie oszukują. Jednak do celów badawczych nie jestem pewien, czy to ma znaczenie. 

Pierwotnie opublikowano na Substack.
To tłumaczenie zostało wykonane z pomocą AI i może nie w pełni oddawać oryginalne treści. Proszę odnieść się do angielskiej wersji na Substack jako tekstu wzorcowego.
Sugerowany sposób cytowania
Kustov, Alexander. 2026. "Academics Need to Wake Up on AI, Part II." Popular by Design, March 4, 2026. https://www.popularbydesign.org/p/academics-need-to-wake-up-on-ai-part