← Torna al Blog
Gli accademici devono svegliarsi sull'IA, Parte II

Gli accademici devono svegliarsi sull'IA, Parte II

Nota per i miei amici di Bluesky: questo post è al 100% scritto da un essere umano (assistito da riassunti dell’IA verificati dall’uomo delle vostre critiche al mio post precedente). Errori umani sono possibili.

All’inizio di questa settimana ho sostenuto che gli accademici devono svegliarsi sull’IA e ho offerto dieci tesi su come l’IA agentiva stia cambiando la ricerca nelle scienze sociali. Il post è diventato virale, specialmente dopo aver rivelato che era stato interamente generato e pubblicato dall’IA, portando a servizi giornalistici, oltre un milione di visualizzazioni e oltre un migliaio di risposte (spesso arrabbiate ma anche entusiaste) sulle varie piattaforme social.

Col senno di poi, avrei dovuto fare alcune cose diversamente. In primo luogo, rivelare che Claude ha scritto il post originale (anche se basato sui miei precedenti scritti sui social media) come rivelazione maliziosa è stato un errore. Ha distratto dalla sostanza e ha dato ai critici una ragione facile per liquidare gli argomenti. Piuttosto, avrei dovuto essere trasparente fin dall’inizio sulla mia configurazione di base.1 In secondo luogo, avrei dovuto chiarire che gli attuali strumenti di IA agentiva sono migliori nel fare la maggior parte dei compiti di ricerca nelle scienze sociali rispetto ai professori a livello globale.2 Questo non significa che verrete necessariamente sostituiti, ma significa che la natura del vostro lavoro cambierà. In terzo luogo, il post generato dall’IA aveva errori stilistici minori e un po’ bizzarri che un editing migliore con supporto umano avrebbe colto.

A questo proposito, voglio evidenziare l’articolo di Solomon Messing e Joshua Tucker per Brookings, pubblicato poco dopo il mio, che presenta una versione molto più persuasiva di molti dei miei argomenti — con esempi di utilizzo concreti, nessuna provocazione inutile o testo generato dall’IA, e una visione più costruttiva per il futuro. Se il mio post era troppo abrasivo per voi, leggete il loro.

Sono stato deliberatamente provocatorio e confermo quella scelta. Si è ritorta contro in un certo senso ma ha funzionato in un altro: decine se non centinaia di accademici stanno ora provando strumenti di IA agentiva che non l’avrebbero ancora fatto altrimenti. Dopo aver letto la maggior parte delle risposte, ho certamente cambiato idea su alcune cose, ma resto convinto della mia tesi centrale che, a causa degli strumenti di IA già esistenti, il nostro flusso di lavoro di ricerca dovrà cambiare che vi piaccia o no. Ecco dieci ulteriori tesi nate dalle mie riflessioni.

11. La ricerca qualitativa e la raccolta dati originale aumenteranno di valore relativo.

La critica sostanziale più forte alla Parte I era che confondeva la “ricerca” con i compiti specifici che l’IA gestisce bene — rassegne della letteratura, analisi dei dati, sintesi concettuale. Diversi rispondenti hanno giustamente fatto notare che l’IA non può condurre ricerca etnografica, intervistare detenuti in prigioni illegali o passare anni a costruire fiducia con una comunità. Hanno assolutamente ragione. Le mie tesi riguardavano principalmente il lavoro quantitativo e concettuale (attualmente dominante) nelle scienze sociali, e avrei dovuto essere più chiaro riguardo a quel perimetro.

Ma l’implicazione non è che i ricercatori qualitativi possano rilassarsi. È che il valore relativo della raccolta dati originale — lavoro sul campo, interviste, ricerca d’archivio, osservazione partecipante — sta per aumentare. Se l’IA può sintetizzare la letteratura esistente ed eseguire regressioni standard, allora il premio si sposta sulle cose che l’IA non può fare: generare nuovi dati che prima non esistevano, specialmente da contesti difficili da raggiungere. I ricercatori qualitativi e gli sperimentalisti sul campo dovrebbero vedere questo come un’opportunità per fare più lavoro eccellente in cui hanno un vantaggio comparativo invece di trascrivere le loro interviste o compilare rassegne della letteratura.

12. A causa della “frastagliatura”, le opinioni sull’IA sono polarizzate dalla convinzione nella loro utilità.

Ethan Mollick descrive le capacità dell’IA come una “frontiera frastagliata” — sovrumana in alcuni compiti, imbarazzantemente scarsa in altri, in modi che non corrispondono all’intuizione umana. L’IA può scrivere una rassegna della letteratura accettabile ma avere difficoltà con un puzzle visivo di base. Può sintetizzare risultati da 500 articoli ma allucinare il nome di un coautore.

Questa frastagliatura spiega perché il dibattito sull’IA nel mondo accademico è così polarizzato. I critici indicano le valli; gli entusiasti indicano i picchi. Entrambi hanno ragione nel loro angolo della frontiera. La sovrapposizione con la divisione qualitativo-quantitativo nelle scienze sociali è difficile da ignorare: i ricercatori il cui lavoro coinvolge i compiti che l’IA gestisce bene (analisi dei dati, sintesi della letteratura, riconoscimento di pattern) tendono ad essere più positivi, mentre quelli il cui lavoro coinvolge i compiti che l’IA gestisce male (lavoro sul campo, interviste, interpretazione archivistica) tendono ad essere più scettici.

Ma ho notato qualcosa che va oltre il semplice disaccordo. Gli utenti di Bluesky che disprezzano visceralmente l’IA erano spesso i primi a negare fatti basilari e facilmente verificabili — ad esempio, che può produrre bene delle presentazioni in slide. Pochissimi rispondenti hanno riconosciuto che le capacità dell’IA per la ricerca sono reali ma preoccupandosi delle loro conseguenze. Le persone o detestano l’IA e negano qualsiasi uso produttivo, o la apprezzano e ne esagerano l’utilità. Una parte di questo è ragionamento motivato — la minaccia esistenziale esplicita di un computer che fa le cose meglio di te. Ma sospetto che ancora di più sia semplicemente ignoranza riguardo “all’altro”.

La teoria del contatto è reale. Se credete che Claude Code sia malvagio o incompetente, vi sfido a installarlo e usarlo per organizzare le vostre cartelle di ricerca o creare presentazioni in slide per le vostre prossime conferenze. Prima ho incoraggiato le persone a “trascorrere una settimana con Claude Code”. Avrebbe dovuto essere “trascorrere un giorno” (che dovrebbe essere sufficiente).

13. La competenza dell’utente determina ancora vastamente la qualità dell’output.

Forse non sorprendentemente, gran parte della critica su Bluesky presuppone ancora che usare l’IA significhi copiare e incollare da un chatbot. Semplicemente non è così che funziona l’IA agentiva. L’IA agentiva opera autonomamente all’interno del vostro file system, legge e scrive codice, consulta documentazione ed esegue flussi di lavoro di ricerca multi-fase — il tutto guidato da istruzioni dettagliate che costruite nel tempo.

Una forma correlata e comune di negazionismo dell’IA presuppone anche che, poiché lo strumento è accessibile, chiunque potrebbe produrre lo stesso output. È come sostenere che, poiché tutti hanno accesso a un fornello, tutti possano cucinare un buon pasto. Ci sono ovvie differenze nelle abilità di cucina, nelle ricette e nella qualità degli ingredienti.

Ma la domanda non è se l’IA sia migliore della maggior parte dei professori nel fare la maggior parte dei compiti di ricerca importanti (confermo ancora l’affermazione che lo sia), ma se i buoni ricercatori con l’IA siano migliori dei buoni ricercatori senza IA (lo sono assolutamente). Onestamente, prenderei la produzione approssimativa di un’IA ben guidata piuttosto che la produzione approssimativa di Bluesky (centinaia di utenti anonimi che rispondono ai/dr ogni volta che vedono la temuta parola chiave IA indipendentemente da qualsiasi sostanza) qualsiasi giorno della settimana.

14. Il ritardo nella pubblicazione rende le critiche sulle capacità dell’IA obsolete prima che escano.

Ecco un problema che quasi nessuno nel dibattito riconosce: i tempi di pubblicazione accademici e di libri sono strutturalmente incompatibili con il ritmo di miglioramento dell’IA. Quando qualcuno cita un articolo del 2025 (avviato nel 2024) che documenta il tasso di allucinazione di GPT-4 per argomentare contro l’uso dell’IA nel marzo 2026, sta citando evidenze su un sistema che non esiste più. È come citare uno studio del 2005 sui limiti dei cellulari a conchiglia per argomentare contro gli smartphone. Ecco probabilmente perché il nuovo libro “AI Con” è così scadente — chiaramente superato prima ancora di arrivare sugli scaffali.

Non sto liquidando tutta questa ricerca in sé. Gli studi sono spesso metodologicamente solidi. Ma la base di evidenze scade più velocemente di quanto possa essere pubblicata, revisionata e citata. L’articolo di Messing e Tucker per Brookings, pubblicato nel marzo 2026 (e revisionato “rapidamente” in sole due settimane), documenta già capacità che sarebbero sembrate speculative sei mesi prima. Quando un articolo sottoposto a revisione tra pari sulle attuali limitazioni dell’IA appare in una rivista, le limitazioni che documenta saranno probabilmente risolte. Non è una situazione confortevole per gli accademici che sono formati a basarsi sulle evidenze pubblicate. Ma è la situazione in cui ci troviamo.

15. La maggior parte degli articoli sono già letti principalmente dall’IA, non dagli umani.

È un segreto di Pulcinella nel mondo accademico che la maggior parte degli articoli pubblicati non viene mai citata o letta da nessuno oltre agli autori, ai revisori e a volte all’editore. Con la prossima proliferazione di articoli scritti dall’IA — che siano spazzatura completa o meno — diventerà impossibile per i ricercatori tenere il passo anche solo con il proprio campo di nicchia. Mi piace pensare di essere al corrente di tutta la nuova letteratura sugli atteggiamenti verso l’immigrazione, ma probabilmente mi sfugge l’80% di ciò che viene prodotto fuori dagli Stati Uniti, dall’Europa e dalle principali riviste disciplinari.

Ciò significa che gli accademici dovrebbero accettare che il loro pubblico primario sono sempre più i modelli linguistici. Tyler Cowen parla di scrivere per i modelli linguistici da un po’, ma con l’ascesa degli strumenti agentivi, questo si applica anche alla maggior parte degli accademici — inclusi i ricercatori qualitativi il cui lavoro stesso non può essere automatizzato. Non ho un’idea precisa di cosa gli autori dovrebbero fare al riguardo, ma assicurarsi che esista una versione leggibile dalla macchina del proprio articolo (idealmente in formato .md) sembra un buon primo passo.

16. L’IA mette in luce ciò che era già rotto nel mondo accademico e oltre.

In relazione a ciò, un gran numero di risposte alla Parte I equivaleva a: “Se l’IA può fare la tua ricerca, la tua ricerca non è mai stata buona.” Sono d’accordo (LOL) — ma è un atto d’accusa verso gran parte delle scienze sociali, non una difesa contro l’IA o un attacco intelligente contro di me personalmente. La crisi della replicabilità, il citation padding, il p-hacking e la produzione di articoli che nessuno legge erano tutti problemi preesistenti.

La spazzatura accademica generata dall’uomo è sempre stata pervasiva; l’IA la rende semplicemente visibile. Nathan Smith lo ha messo più brutalmente nel suo restack: le istituzioni accademiche accaparrano capitale umano, il sistema del ruolo premia il contemplarsi l’ombelico collettivo rispetto all’impatto pubblico, e la maggior parte dei professori potrebbe essere più utile facendo qualcos’altro. È un inquadramento duro. Ma se solo una piccola percentuale degli articoli pubblicati ha un genuino valore, il sistema che l’IA sta sconvolgendo non prosperava esattamente.

17. L’atrofia delle competenze è un rischio reale, specialmente per la futura generazione di studiosi.

Questo ci porta a quella che considero un’altra reazione forte al mio post iniziale: che esternalizzare processi cognitivi come “valutare le fonti” e “codificare i dati” danneggia la comprensione dello stesso ricercatore. Molte persone si preoccupano giustamente di “ridurre processi complessi e guidati dal pensiero a una serie di compiti discreti da esternalizzare, quando c’è così tanto che accade cognitivamente sia tra sia dopo i passaggi”. Messing e Tucker segnalano lo stesso rischio sotto la voce “atrofia delle competenze”.

Lo prendo sul serio e ammetto che il rischio è reale — specialmente per studenti e apprendisti che non hanno ancora interiorizzato le competenze cognitive che l’IA potrebbe cortocircuitare. I ricercatori che si preoccupano dell’atrofia delle competenze hanno ragione che qualcosa si perde. Ma sottovalutano ciò che si guadagna: la capacità di operare a un livello superiore di astrazione, di testare più ipotesi, di iterare più velocemente. Per i ricercatori affermati, il rischio di atrofia è basso perché le competenze esistono già. Per gli studenti e i futuri ricercatori, dobbiamo urgentemente capire qualcosa nell’aggiornamento del nostro curriculum di dottorato.

18. I rilevatori di scrittura IA e le norme di divulgazione non funzionano.

Gli strumenti di rilevamento della scrittura IA erano scadenti, sono ancora scadenti e probabilmente rimarranno scadenti. Il post originale prodotto da Claude ha superato ogni principale rilevatore di IA come “100% umano” senza alcun prompt elaborato per evitarlo da parte mia. Molti critici del mio post iniziale hanno detto di aver immediatamente “percepito” che era scritto dall’IA. Ma l’hanno detto dopo che ho rivelato il flusso di lavoro — un caso da manuale di bias di conferma. Prima della rivelazione, nessuno lo ha segnalato. Anzi, qualcuno si è persino lamentato che non avessi usato l’IA per scrivere un post a favore dell’IA.3

Il punto più importante riguarda gli incentivi alla divulgazione. Messing e Tucker raccomandano di standardizzare le dichiarazioni di utilizzo dell’IA nei vari campi. Rispetto il loro ragionamento e l’appello alla standardizzazione (invece del caos che abbiamo ora), ma non sono d’accordo che qualsiasi standard espansivo di dichiarazione dell’IA possa avere meriti data l’attuale struttura degli incentivi.

Non fraintendetemi — le persone in posizioni di autorità come i direttori di riviste dovrebbero essere trasparenti riguardo al loro flusso di lavoro. Ma per gli autori comuni, la divulgazione volontaria crea un sistema in cui gli utenti onesti vengono puniti e gli utenti disonesti non affrontano conseguenze. Ho divulgato il mio flusso di lavoro con l’IA e ho ricevuto minacce, attacchi professionali e richieste di licenziarmi. L’incentivo razionale è mentire. I “riconoscimenti dell’uso dell’IA” sembrano ragionevoli, ma crollano a contatto con le reali dinamiche sociali della vita accademica nel 2026. Finché i costi professionali della divulgazione non diminuiranno, le norme di riconoscimento obbligatorio selezioneranno per la disonestà.

C’è anche un problema più profondo: le norme di divulgazione invertono la questione della responsabilità. Per alcuni, la divulgazione dell’IA può persino funzionare come una scappatoia — “Ho usato l’IA, quindi ora tocca a te capire se è spazzatura.” Ma gli autori dovrebbero rispondere del prodotto finale indipendentemente da come è stato prodotto. Se l’IA introduce un errore, quella è la responsabilità dell’autore. Ciò che conta è se il lavoro è corretto e di valore, non se un umano o una macchina ha digitato le frasi.

19. Il Bluesky accademico non è un luogo serio per questo dibattito.

Devo affrontare questo punto perché ha colorato tutto ciò che è seguito. Bluesky ha generato quasi tante reazioni quanto Twitter, ma erano prevalentemente ostili nel modo meno produttivo possibile. La risposta più comune era qualche variante di “Se non l’hai scritto tu, perché dovrei leggerlo?” o “ai/dr.” Molte includevano imprecazioni, accuse di essere pagato da aziende di IA (?), e richieste di non citare i miei lavori pubblicati precedentemente (??) o addirittura di licenziarmi (???) con persone che taggavano il mio datore di lavoro per sostituirmi con l’IA dato che sto affermando che è così buona.

Il mio post originale era provocatorio. Ma non ho attaccato nessuno personalmente. Ho presentato argomenti sull’IA e il mondo accademico, basati sulla mia esperienza nel campo, con cui si può concordare o meno. Per questo, gli accademici su Bluesky hanno risposto con minacce professionali, attacchi ad hominem e pile-on coordinati. Ho la pelle dura e la sicurezza occupazionale. Posso assorbire tutto questo.

Ma la maggior parte delle persone che potrebbero condividere opinioni eterodosse sull’IA nel mondo accademico non ha quel lusso. Sono studenti di dottorato, docenti a contratto e giovani ricercatori (in effetti, ero uno anch’io fino a un paio di mesi fa!) che guardano ciò che è successo a me e traggono la conclusione ovvia: tieni la bocca chiusa. Quello è il vero costo della cultura del pile-on — non per persone come me, ma per il libero scambio di idee che il mondo accademico dovrebbe proteggere. E sebbene abbia apprezzato tutte le persone solidali che mi hanno scritto in privato, vorrei che parlaste apertamente in pubblico. È l’unico modo in cui questa sfortunata dinamica può cambiare.

20. La ricerca può mancare di “anima” e comunque servire il pubblico.

Max Kagan ha articolato e affrontato una preoccupazione comune dalla gente di Bluesky che risuona anche con me: l’idea che la ricerca prodotta dall’IA o con l’IA manchi di qualcosa di essenziale — chiamatela anima, mestiere o autentico impegno intellettuale. Il processo di lottare con una domanda, restare nell’ambiguità e costruire lentamente un argomento è personalmente trasformativo per molti studiosi. C’è un motivo per cui le persone perseguono i dottorati nonostante le terribili prospettive sul mercato del lavoro: il lavoro stesso è significativo. Quando l’IA comprime quel processo in ore, qualcosa di genuinamente prezioso si perde.

Sento questo richiamo. Ma non sono sicuro che sopravviva al confronto con la domanda di chi paga per tutto ciò. La maggior parte della ricerca accademica è finanziata pubblicamente. I contribuenti non finanziano le università affinché i professori si autorealizzino. Finanziano le università per produrre conoscenza che benefici la società. Se la ricerca assistita dall’IA produce più e migliore conoscenza più velocemente, l’argomento dell’interesse pubblico per abbracciarla è difficile da resistere — anche se l’esperienza privata della ricerca diventa meno romantica.


  1. Uso l’app desktop Claude su Windows, connessa alle mie cartelle GitHub tramite Claude Code (Opus 4.6, abbonamento Max da 200$/mese), più l’estensione Chrome di Claude per i compiti del browser. Per il mio post precedente, gli ho chiesto di riassumere i miei post sui social media sull’IA e il mondo accademico sotto forma di 10 tesi, seguendo procedure e guide di stile che ho gradualmente costruito in file di istruzioni specifici per progetto. Nessun sapere proibito, davvero. 

  2. Se avete presupposto che stessi parlando di professori americani nelle università R1, la responsabilità è vostra. Come qualcuno che ha familiarità con la ricerca mainstream nelle scienze sociali nei paesi in via di sviluppo e nello spazio post-sovietico, posso dirvi che la maggior parte del lavoro prodotto nelle riviste in stile MDPI ha poco valore anche quando non è plagio vero e proprio. È principalmente lavoro quantitativo di base e ripetitivo — ridefinire termini e correlare variabili — del tipo che è comune nelle scienze sociali e che l’IA sa già fare in modo più competente. 

  3. Ryan Briggs fa un’osservazione giusta: i rilevatori di IA sono calibrati per ridurre i falsi positivi, quindi potrebbero comunque essere utili per individuare studenti che copiano troppo. Per scopi di ricerca però, non sono sicuro che questo conti. 

Pubblicato originariamente su Substack.
Questa traduzione è stata prodotta con l'assistenza dell'IA e potrebbe non rappresentare completamente il contenuto originale. Si prega di fare riferimento alla versione inglese su Substack per il testo autorevole.
Citazione suggerita
Kustov, Alexander. 2026. "Academics Need to Wake Up on AI, Part II." Popular by Design, March 4, 2026. https://www.popularbydesign.org/p/academics-need-to-wake-up-on-ai-part