← Zurück zum Newsletter
Wissenschaftler müssen in Sachen KI aufwachen

Wissenschaftler müssen in Sachen KI aufwachen

Dieser Beitrag ist inspiriert von einer Welle jüngerer KI-bezogener Texte von Personen, die ich schätze: Dan Williams, Alex Imas, Ben Ansell, Tibor Rutar, scott cunningham, Kevin Munger, Hollis Robbins, Claude (ja!) Blattman, Kevin Bryan, Andy Hall, Kelsey Piper, Sean Westwood und viele andere. Daher setze ich hier die Tradition fort, die Einschätzungen zu formulieren, die aufregen, aber nötig sind.

Ich erforsche Einwanderung und öffentliche Meinung, nicht KI. Aber ich habe in den letzten Monaten beobachtet, wie KI meinen eigenen Forschungsworkflow transformiert, und ich habe meinen Kolleginnen und Kollegen einiges zu sagen. Zum ersten Mal in meinem Leben weiß ich tatsächlich nicht, wie die Wissenschaft in fünf Jahren aussehen wird.1 Selbst wenn der Fortschritt vollständig ins Stocken gerät und wir für immer mit den aktuellen Modellen feststecken, werden die bereits in Gang gesetzten Veränderungen mein Feld der akademischen Forschung und des Publizierens bis zur Unkenntlichkeit verwandeln. Der Status quo ist unhaltbar. Es mag Zeit brauchen, weil die Wissenschaft die konservativste Institution auf dem Planeten ist, was ihre Grundhaltung betrifft. Aber sie wird sich verändern.

Hier sind zehn Thesen für meine Kolleginnen und Kollegen, von denen die meisten noch immer ahnungslos zu sein scheinen.

1. KI kann sozialwissenschaftliche Forschung bereits besser betreiben als die meisten Professorinnen und Professoren.

Das ist keine Übertreibung. Tibor Rutar beschrieb kürzlich, wie er allein mit KI-Prompts einen vollständigen Forschungsartikel erzeugte und dabei Arbeit produzierte, die er für publizierbar in Zeitschriften des ersten Quartils hält. Paul Novosad soll Vergleichbares in 2-3 Stunden erreicht haben. Yascha Mounk behauptet, dass Claude einen Aufsatz in politischer Theorie von publizierbarer Qualität in unter zwei Stunden mit minimalem Feedback produzieren kann. Scott Cunningham schätzt, dass die Erstellung eines Manuskripts mittlerweile im Grunde etwa 100 Dollar für Lektoratsdienste plus ein Claude-Abonnement kostet.

Und das geht weit über das Auswerten von Zahlen oder das Ausführen von bestehendem Stata-Code hinaus. Ja, was ich hier behaupte, ist, dass LLMs hervorragende Literaturrecherchen erstellen und fruchtbare Rekombinationen bestehender Ideen generieren. Seien wir ehrlich: Akademikerinnen und Akademiker waren auch nicht gerade herausragend im Schreiben, und KI kann Ihre Ideen für die Menschen, die sie tatsächlich brauchen, wesentlich zugänglicher machen. Effektive Nutzung erfordert jedoch Investition: Aziz Sunderji beschreibt die Erstellung einer etwa 200-zeiligen Instruktionsdatei, die seinen Forschungsworkflow, Urteilsentscheidungen und Verhaltensregeln kodiert. Das erfordert Können.

2. Der akademische Aufsatz ist ein totes Format auf Abruf.

Sean Westwood drückte es unverblümt aus: „KI macht Literaturrecherchen besser. KI wird Peer-Review übernehmen. Nutzer werden KI-Zusammenfassungen überfliegen. Die eigentliche Wissenschaft ist die Fragestellung, der Prä-Analyse-Plan und die Analyse. Der 30-seitige Aufsatz ist nur ein überflüssiges Überbleibsel.” Dafür wurde er auf Bluesky scharf kritisiert. Aber er hat vollkommen recht, und die Gegenreaktion beweist seinen Punkt: Das Feld kann nicht einmal das Offensichtliche diskutieren, ohne die Reihen zu schließen. Arthur Spirling hat ebenfalls recht, dass wir Gespräche darüber brauchen, was ein Aufsatz ist, was „Review” bedeutet und welche Rolle generative KI spielen soll. Vielleicht wäre es sogar gut, wenn KI uns endlich dazu bringt, von einem System wegzukommen, in dem Universitäten Steuergelder ausgeben, um kommerzielle Verlage dafür zu bezahlen, dass sie sehr langsam zugangsbeschränkte PDFs2 mit veralteten Ergebnissen öffentlich finanzierter Forschung produzieren.

3. Das kommerzielle Zeitschriftensystem überlebt das möglicherweise nicht.

Cunninghams neuester Beitrag modelliert die Mathematik dahinter. Wenn die Manuskripterstellung auf ein paar Stunden und etwa 100 Dollar sinkt, könnten die Einreichungen um das Fünffache steigen, während die Zeitschriftenplätze gleich bleiben. Desk-Rejection-Raten würden von ~50 % auf ~90 % steigen. Das Geschäftsmodell bricht zusammen. Peer-Review, bereits überlastet, wird in dieser Größenordnung unmöglich. Kevin Munger plädiert für Einreichungsgebühren, bezahlte Gutachterinnen und Gutachter, Post-Publication-Review und LLM-gestütztes Screening. Die Frage ist, ob sich Zeitschriften anpassen oder übergangen werden. Meine Vermutung: Die meisten werden übergangen.

4. Wissenschaftlerinnen und Wissenschaftler legen an KI absurde Doppelstandards an.

Halluzinierte Inhalte sind besorgniserregend, und Forschende sollten ihre Quellen stets überprüfen. Aber genau wie bei selbstfahrenden Autos brauchen wir einen Referenzpunkt: Menschliche Autoren zitieren seit jeher oberflächlich Arbeiten auf Grundlage des Abstracts. Zeitschriften publizieren bereits Studien mit Datenfehlern, p-gehackten Ergebnissen und nicht replizierbaren Befunden in alarmierendem Ausmaß. Eine Schätzung beziffert den Anteil wirklich nützlicher publizierter Arbeiten auf rund 4 %. Ein LLM, das gelegentlich eine Quellenangabe halluziniert, konkurriert mit einem System, das routinemäßig Pseudowissenschaft produziert, die in genügend Fachjargon gekleidet ist, um den Review-Prozess zu passieren. Würden wir menschlich produzierte Forschung mit derselben Skepsis betrachten, die wir auf KI-Ergebnisse anwenden, müssten wir morgen die Hälfte aller Zeitschriften einstellen.

5. Nachwuchswissenschaftlerinnen und -wissenschaftler stehen vor der größten Disruption und Chance.

Das sind wahrscheinlich schlechte Nachrichten für junge Akademikerinnen und Akademiker, die mitten in diesem Umbruch ihre Karriere vorantreiben wollen. Jason Fletcher argumentiert, dass sich die strategische Logik der Verbeamtung nicht verändert hat — zuerst die Hürde überwinden —, aber KI verändert grundlegend den Weg dorthin. Die Kosten für Lehrvorbereitung sinken. Datenbereinigung und Fehlersuche werden an KI delegiert. Der Engpass verschiebt sich von der Ausführung zur Verifikation und zum originären Denken.

Gauti Eggertsson beobachtet, dass die Rendite auf konzeptionelles Denken und originelle Ideen nun relativ höher ist im Vergleich zu technischer Routinearbeit. Eine Nachwuchsforscherin oder ein Nachwuchsforscher mit guten Ideen und Claude Code kann heute Forschung in einem Tempo produzieren, das vor einigen Jahren ein ganzes Labor erfordert hätte. Aber das können alle anderen auch, und die Bewertungskriterien sind noch nicht aufgeholt.3

6. Ich sehe in meinem Workflow keine Rolle mehr für eine Forschungsassistenz.

Ich halte es nach wie vor für unschätzbar wertvoll, Mentees und Mitautorinnen und Mitautoren zu haben. Aber ihre Rolle verändert sich rasant. Ich werde niemanden einstellen, um Daten zu bereinigen, Regressionen zu rechnen oder Literaturrecherchen zu entwerfen, wenn KI all das schneller und zu vernachlässigbaren Kosten erledigt. Was ich von Mitarbeitenden will, ist originelles Denken, Fachkompetenz und intellektuelle Herausforderung. Das ist ein echter Verlust für das traditionelle Lehrlings-Modell, und ich habe keine saubere Antwort darauf, wie man es ersetzen kann. Fletchers komplementärer Rahmen — KI erstellt erste Analysen, menschliche Forschende replizieren unabhängig von Grund auf — weist in eine vielversprechende Richtung. Aber es ist klar, dass der Trend zu immer mehr Ko-Autorschaft in den Sozialwissenschaften sich sehr bald umkehren könnte.

7. Ein Großteil des Widerstands gegen KI ist als Prinzip verkleideter Statusschutz.

Ich habe kürzlich auf Twitter die Frage gestellt, wie viel von der Abneigung gegen verräterische KI-Merkmale im Grunde eine neue Version der Grammatikpolizei ist — Menschen, die Statusmarker durch sprachliche Zugangskontrolle durchsetzen. Kevin Bryan hat es offen gesagt: „Ich verstehe den Wunsch nach handwerklich gefertigter, in Handarbeit hergestellter Forschung, mit von Hand invertierten Matrizen. Aber unser Job ist es, die Grenzen des Wissens zu verschieben, nicht Selbstverwirklichung.”

Dan Williams hat überzeugend darüber geschrieben, wie elitäre Desinformation innerhalb von Institutionen gedeiht, in denen nahezu alle dieselben Vorurteile teilen. Ich glaube, etwas Ähnliches geschieht bei der KI-Verleugnung. Viele Akademikerinnen und Akademiker — besonders jene, die sich auf Bluesky konzentrieren4 und, wie ich vermute, jene, die völlig offline sind — befinden sich in völliger Verleugnung dessen, was bereits passiert. Chris Blattman wandelte sich innerhalb weniger Wochen vom Claude-Code-Skeptiker zum Erbauer eines ganzen KI-Workflow-Toolkits. Robert Wright moderierte kürzlich eine Sendung, in der Alex Hanna und Emily Bender argumentierten, LLMs seien nutzlos. Kluge Menschen behaupten, ein Werkzeug, das Millionen als nützlich empfinden, sei grundlegend kaputt. Diese selbstgefällige Haltung ist genau der Grund, warum Populisten gewinnen, und sie gilt für KI-Verleugnung genauso wie für die Politik.

8. Die produktiven Sorgen betreffen Sicherheit und Verifikation.

Meine Herausforderung an alle, die KI-Fähigkeiten abtun: Verbringen Sie eine Woche allein in einem Raum mit Claude Code oder Codex. Nicht den Chatbot — den Agenten. Die meisten Menschen halten KI immer noch für eine Suchmaschine, die manchmal Dinge erfindet. Sie haben keine Ahnung, was agentische KI-Systeme leisten können.

Sich darauf zu konzentrieren, ob LLMs „wirklich verstehen” oder „echtes” Wissen produzieren, ist ein philosophischer Luxus, der von den Dingen ablenkt, über die man sich tatsächlich Sorgen machen sollte. Wie verifizieren wir KI-generierte Behauptungen in großem Maßstab? Wie verhindern wir P-Hacking? Andy Halls Team stellte fest, dass KI-Agenten überraschend resistent gegen sycophantisches P-Hacking sind — aber mit mäßigem Aufwand manipuliert werden können. Wie schützen wir sensible Daten, wenn KI-Tools auf institutionelle Repositorien zugreifen? Wie stellen wir sicher, dass die Befragten in Online-Umfragen echte Menschen sind? Das sind lösbare ingenieurtechnische und institutionelle Gestaltungsprobleme, die Art, die Hollis Robbins als „Letzte-Meile”-Herausforderungen bezeichnet — Dinge, die an den Rändern der Expertise leben, im Kontextuellen und Ungeklärten. Darüber zu debattieren, ob Claude „wirklich” intelligent ist, ist, als würde man debattieren, ob ein Taschenrechner „wirklich” rechnet, während der Konkurrent die Aufgabenserie bereits abschließt.

9. Wir werden bald deutlich bessere Wissenschaft bekommen.

Es gibt allerdings auch Lichtblicke. Auf meinem eigenen Terrain, der Einwanderung: Wir können jetzt automatisch politische Veränderungen und Meinungswandel über Länder hinweg katalogisieren und Verbesserungen in Echtzeit vorschlagen. Wir können Algorithmen entwickeln, um Geflüchtete und Migrantinnen und Migranten besser mit Zielgemeinden zusammenzubringen. Wir können sicherstellen, dass Forschung und Evidenz für politische Entscheidungsträger und Wählerinnen und Wähler zugänglich sind, die nie eine akademische Zeitschrift lesen.

Konkreter: Yamil Velez und Patrick Liu bauen seit 2022 KI-generierte Experimentaldesigns; maßgeschneiderte Qualtrics-Experimente können nun in 15 Minuten per Prompts erstellt werden. Velez’ Arbeit weist auf etwas noch Größeres hin: KI beschleunigt nicht nur bestehende Umfragemethoden, sie ermöglicht völlig neue Formen interaktiver, adaptiver Umfragen — Designs, die manuell zu programmieren unpraktikabel gewesen wären. David Yanagizawa-Drott ist noch einen Schritt weitergegangen und hat ein Projekt gestartet, um 1.000 volkswirtschaftliche Aufsätze mit KI zu produzieren — nicht als Publicity-Stunt, sondern als Stresstest dessen, was passiert, wenn die Kosten der Forschungsgenerierung gegen null sinken.

Nicht-Muttersprachlerinnen und -Muttersprachler des Englischen werden ebenfalls enorm profitieren: Forschende in Kairo, São Paulo und Jakarta können jetzt Prosa produzieren, die sich genauso gut liest wie alles, was aus Cambridge oder Stanford kommt. Eggertsson vermutet, dass KI das Monopol untergraben wird, das US-Spitzenuniversitäten lange genossen haben, da ihr Vorteil zum Teil auf Wissenstransmission beruhte, die jetzt nahezu instantan erfolgt. Wenn Ihnen die Demokratisierung der Wissenschaft am Herzen liegt, ist das wichtiger als das meiste, wofür Universitäten Geld ausgeben.

10. Abgesehen von den Weltuntergangsszenarien ist KI wirklich aufregend.

Ja, es gibt reale Risiken. Die Verdrängung von Arbeitsplätzen für einige Akademikerinnen und Akademiker (und die meisten anderen Menschen) ist nicht hypothetisch. Die Bedenken hinsichtlich Alignment und Sicherheit sind berechtigt, auch wenn die schlimmsten Szenarien unwahrscheinlich sind. Ich nehme diese ernst und fürchte unsere ungewisse Zukunft ein wenig.

Aber was mich immer wieder beschäftigt, ist Folgendes: KI ist nützlich und macht Spaß. Mein Eindruck ist, dass die Fraktion „Agentische KI macht uns dumm” wahrscheinlich in einigen Punkten recht hat. Aber ich habe auch bemerkt, dass meine Prokrastinationsschwelle gestiegen ist. Anstatt endlos durch soziale Medien zu scrollen, verbringe ich meine Mußestunden jetzt damit, Nebenprojekte in Claude Code auszuprobieren. Vielleicht die produktivste Form der Nicht-Arbeit, die es gibt. Ich habe in den letzten Wochen einige ziemlich spannende Projekte durch Vibecoding realisiert. Bleiben Sie dran.

Der weise Yiqing Xu rät, dass wir alle einen Monat innehalten sollten, um unseren Workflow neu zu bewerten und umzugestalten, und dann weitermachen. Ich stimme zu. Der Ertrag wird groß sein. Schließen Sie sich in einem Raum mit Claude Code ein und schauen Sie, was passiert.


P.S. Dieser Beitrag wurde vollständig von agentischer KI unter Verwendung meines neuen Claude-Code-Workflows (Opus 4.6) generiert und auf Substack veröffentlicht. Machen Sie damit, was Sie wollen.

P.P.S. Das heißt, vollständig generiert auf der Grundlage meiner handwerklich gefertigten, menschlichen Social-Media-Beiträge und Gedanken zum Thema. Wer hat es also wirklich geschrieben? Sagen Sie es mir.


  1. Matthew Yglesias beschrieb kürzlich, wie die KI-Unsicherheit ihm eine Schreibblockade beschert hat, weil jede mittelfristige politische Analyse nun in Argumenten über die KI-Entwicklung zusammenbricht. Ich kenne das Gefühl. 

  2. Natürlich wissen wir jetzt, dass wir Markdown verwenden sollten, nicht PDF. 

  3. In diesem Zusammenhang: Ich stelle derzeit einen Postdoc an der University of Notre Dame ein. Die Ausschreibung fragt explizit nach Interesse an agentischen KI-Tools. Ich vermute, dass dies innerhalb weniger Jahre zum Standard in Einstellungskriterien wird. 

  4. Entschuldigung, aber ich muss Nate Silver recht geben — Blueskyismus ist absolut real. 

Ursprünglich auf Substack veröffentlicht.
Diese Übersetzung wurde mit KI-Unterstützung erstellt und gibt möglicherweise nicht den vollständigen Originalinhalt wieder. Bitte beziehen Sie sich auf die englische Version auf Substack für den maßgeblichen Text.
Empfohlene Zitierweise
Kustov, Alexander. 2026. "Academics Need to Wake Up on AI." Popular by Design, March 2, 2026. https://www.popularbydesign.org/p/academics-need-to-wake-up-on-ai