Bluesky’daki dostlarım için açıklama: Bu yazı yüzde 100 insan tarafından yazılmıştır (önceki yazıma yönelik eleştirilerinizin insan tarafından doğrulanmış yapay zekâ özetleri yardımıyla). İnsan hataları mümkündür.
Bu haftanın başında akademisyenlerin yapay zekâ konusunda uyanması gerektiğini savundum ve ajantik yapay zekânın sosyal bilim araştırmasını nasıl değiştirdiğine dair on tez sundum. Yazı viral oldu, özellikle tamamen yapay zekâ tarafından üretilip yayımlandığını açıklamamın ardından, haber özelliklerine konu oldu, bir milyonun üzerinde görüntüleme aldı ve çeşitli sosyal medya platformlarında binin üzerinde (çoğunlukla öfkeli ama aynı zamanda coşkulu) yanıt aldı.
Geriye dönüp baktığımda, birkaç şeyi farklı yapmalıydım. Birincisi, Claude’un orijinal yazıyı yazdığını (daha önceki sosyal medya paylaşımlarıma dayansa bile) şımarık bir devam yazısı olarak açıklamak bir hataydı. Bu, özden dikkati dağıttı ve eleştirmenlere argümanları reddetmek için kolay bir neden verdi. Bunun yerine temel kurulumum hakkında baştan açık olmalıydım.1 İkincisi, mevcut ajantik yapay zekâ araçlarının küresel ölçekte profesörlerin çoğundan sosyal bilim araştırma görevlerinin çoğunu daha iyi yaptığını açıkça belirtmeliydim.2 Bu, mutlaka yerinize geçeceğiniz anlamına gelmez, ama işinizin doğasının değişeceği anlamına gelir. Üçüncüsü, yapay zekâ tarafından üretilen yazıda, daha iyi insan destekli düzeltmenin yakalayabileceği küçük, biraz garip üslup hataları vardı.
Bu bağlamda, Solomon Messing ve Joshua Tucker’ın Brookings yazısını vurgulamak istiyorum; benimkinden kısa süre sonra yayımlanan bu yazı, argümanlarımın çoğunun çok daha ikna edici bir versiyonunu sunuyor—somut kullanım örnekleriyle, gereksiz provokasyon veya yapay zekâ tarafından üretilmiş metinler olmadan ve gelecek için daha yapıcı bir vizyonla. Benim yazım sizin için fazla serttiyse, onlarınkini okuyun.
Kasıtlı olarak kışkırtıcıydım ve bu tercihimin arkasında duruyorum. Bir anlamda ters tepti ama başka bir anlamda işe yaradı: aksi takdirde henüz denemeyecek olan düzinelerce hatta yüzlerce akademisyen artık ajantik yapay zekâ araçlarını deniyor. Yanıtların çoğunu okuduktan sonra birkaç konuda fikrimi kesinlikle değiştirdim, ama hâlâ temel iddiama inanıyorum: halihazırda var olan yapay zekâ araçları nedeniyle, beğenseniz de beğenmeseniz de araştırma iş akışımız değişmek zorunda kalacak. İşte düşüncelerimden çıkan on tez daha.
11. Nitel araştırma ve özgün veri toplama görece değer kazanacak.
Birinci Bölüm’e yönelik en güçlü içerik eleştirisi, “araştırma”yı yapay zekânın iyi yaptığı belirli görevlerle—literatür taramaları, veri analizi, kavramsal sentez—aynı kefeye koymasıydı. Birkaç yanıtçı haklı olarak yapay zekânın etnografik saha çalışması yapamayacağını, yasadışı cezaevlerindeki tutuklularla görüşme yapamayacağını veya bir toplulukla güven inşa etmek için yıllar harcayamayacağını belirtti. Kesinlikle haklılar. Tezlerim ağırlıklı olarak sosyal bilimlerdeki (şu anda baskın olan) nicel ve kavramsal çalışmalarla ilgiliydi ve bu kapsam konusunda daha net olmalıydım.
Ama bunun çıkarımı, nitel araştırmacıların rahatlaması gerektiği değildir. Özgün veri toplamanın—saha çalışması, görüşmeler, arşiv çalışması, katılımcı gözlem—görece değerinin yükselmek üzere olduğudur. Yapay zekâ mevcut literatürü sentezleyebiliyor ve standart regresyonlar çalıştırabiliyorsa, o zaman prim yapay zekânın yapamadığı şeylere kayar: daha önce var olmayan yeni veriler üretmek, özellikle ulaşılması zor bağlamlardan. Nitel araştırmacılar ve saha deneyimcileri bunu, görüşmelerini çözmek veya literatür taramaları derlemek yerine karşılaştırmalı üstünlüğe sahip oldukları daha fazla harika iş yapma fırsatı olarak görmelidir.
12. “Pürüzlülük” nedeniyle yapay zekâ hakkındaki görüşler, faydasına olan inançlara göre kutuplaşmıştır.
Ethan Mollick, yapay zekânın yeteneklerini “pürüzlü bir sınır” olarak tanımlıyor—bazı görevlerde insanüstü, diğerlerinde utanç verici derecede kötü ve bunlar insan sezgisiyle örtüşmüyor. Yapay zekâ kabul edilebilir bir literatür taraması yazabilir ama basit bir görsel bulmacada takılabilir. 500 makale boyunca bulguları sentezleyebilir ama bir ortak yazarın adını uydurabilir.
Bu pürüzlülük, akademide yapay zekâ tartışmasının neden bu kadar kutuplaştığını açıklıyor. Eleştirmenler çukurları gösteriyor; meraklılar zirveleri gösteriyor. Her ikisi de sınırın kendi köşesi hakkında haklı. Sosyal bilimlerdeki nitel-nicel ayrımıyla örtüşmeyi görmezden gelmek zor: yapay zekânın iyi yaptığı görevleri (veri analizi, literatür sentezi, örüntü tanıma) içeren araştırmacılar daha olumlu olma eğilimindeyken, yapay zekânın kötü yaptığı görevleri (saha çalışması, görüşmeler, arşiv yorumu) içerenler daha şüpheci olma eğilimindedir.
Ama salt anlaşmazlığın ötesinde bir şey fark ettim. Yapay zekâdan içgüdüsel olarak nefret eden Bluesky kullanıcıları, genellikle temel, kolayca doğrulanabilir gerçekleri—örneğin sunum dosyaları hazırlayabildiğini—inkâr eden ilk kişilerdi. Yapay zekânın araştırma yeteneklerinin gerçek olduğunu kabul edip sonuçlarından endişelenen çok az yanıtçı vardı. İnsanlar ya yapay zekâdan hoşlanmıyor ve herhangi bir üretken kullanımı inkâr ediyor, ya da beğeniyor ve faydasını abartıyordu. Bunun bir kısmı güdülenmiş akıl yürütme—bir bilgisayarın sizden daha iyi iş yapmasının açık varoluşsal tehdidi. Ama daha fazlasının “öteki” hakkında basit cehalet olduğundan şüpheleniyorum.
Temas teorisi gerçektir. Claude Code’un kötü veya beceriksiz olduğuna inanıyorsanız, sizi kurup yaklaşan konferanslarınız için araştırma klasörlerinizi düzenlemeye veya sunum dosyaları oluşturmaya davet ediyorum. Daha önce insanları “Claude Code ile bir hafta geçirin” diye teşvik etmiştim. “Bir gün geçirin” olmalıydı (yeterli olacaktır).
13. Kullanıcı uzmanlığı hâlâ çıktı kalitesini büyük ölçüde belirliyor.
Belki de şaşırtıcı olmayan bir şekilde, Bluesky’daki eleştirilerin büyük bölümü hâlâ yapay zekâ kullanmanın bir sohbet robotundan kopyala-yapıştır yapmak anlamına geldiğini varsayıyor. Ajantik yapay zekâ böyle çalışmıyor. Ajantik yapay zekâ dosya sisteminizde özerk olarak çalışır, kod okur ve yazar, dokümantasyona başvurur ve çok aşamalı araştırma iş akışlarını yürütür—hepsi zaman içinde oluşturduğunuz ayrıntılı talimatlarla yönlendirilir.
Yaygın bir yapay zekâ inkârcılığı biçimi de aracın erişilebilir olması nedeniyle herkesin aynı çıktıyı üretebileceğini varsayar. Bu, herkesin ocağa erişimi olduğu için herkesin iyi yemek pişirebildiğini savunmak gibidir. Pişirme becerileri, tarifler ve malzeme kalitesinde bariz farklar vardır.
Ama soru, yapay zekânın önemli araştırma görevlerinin çoğunda çoğu profesörden daha iyi olup olmadığı değil (hâlâ öyle olduğu iddiamın arkasındayım), iyi araştırmacıların yapay zekâ ile yapay zekâsız iyi araştırmacılardan daha iyi olup olmadığıdır (kesinlikle öyleler). Dürüst olmak gerekirse, iyi yönlendirilmiş yapay zekâ saçmalığını Bluesky saçmalığına (yüzlerce anonim kullanıcının herhangi bir içerikten bağımsız olarak korkulan yapay zekâ anahtar kelimesini gördüklerinde ai/dr yanıtı vermesi) haftanın her günü tercih ederim.
14. Yayın gecikmesi, yapay zekâ yetkinlik eleştirilerini çıkana kadar güncelliğini yitirmiş hâle getiriyor.
İşte tartışmada neredeyse kimsenin kabul etmediği bir sorun: akademik ve kitap yayın süreleri, yapay zekânın gelişme hızıyla yapısal olarak uyumsuz. Birisi 2026 Mart’ında yapay zekâ kullanımına karşı çıkmak için 2025’te yayımlanan (2024’te başlanan) bir makaleyi GPT-4’ün halüsinasyon oranını belgelemek için alıntıladığında, artık var olmayan bir sistem hakkındaki kanıtları alıntılıyor demektir. Bu, akıllı telefonlara karşı çıkmak için 2005’ten bir kapaklı telefon kısıtlamaları çalışmasını alıntılamak gibidir. Muhtemelen bu yüzden yeni “AI Con” kitabı bu kadar kötü—raflara çıkmadan bile açıkça modası geçmiş.
Araştırmanın kendisini tamamen reddetmiyorum. Çalışmalar genellikle metodolojik olarak sağlam. Ama kanıt tabanı yayımlanabildiğinden, değerlendirilebildiğinden ve alıntılanabildiğinden daha hızlı sona eriyor. Messing ve Tucker’ın Brookings yazısı, 2026 Mart’ında yayımlanmış (ve yalnızca iki haftada “hızla” değerlendirilmiş) olup altı ay önce spekülatif görünecek yetenekleri belgeliyor. Mevcut yapay zekâ kısıtlamaları hakkında hakemli bir makale bir dergide yayımlandığında, belgelediği kısıtlamalar muhtemelen giderilmiş olacak. Bu, yayımlanmış kanıtlara güvenmeye eğitilmiş akademisyenler için rahat bir durum değil. Ama içinde bulunduğumuz durum bu.
15. Çoğu makale zaten yapay zekâ tarafından okunuyor, insanlar tarafından değil.
Akademinin açık sırrıdır: yayımlanan makalelerin çoğu yazarlar, hakemler ve bazen editör dışında hiç kimse tarafından alıntılanmaz veya okunmaz. Yapay zekâ tarafından yazılmış makalelerin—ister tamamen saçmalık ister başka bir şey olsun—yakında çoğalmasıyla birlikte, araştırmacıların kendi niş alanlarında bile yazılanları takip etmeleri imkânsız hâle gelecek. Göç tutumları üzerine tüm yeni literatürden haberdar olduğumu düşünmeyi seviyorum, ama muhtemelen ABD, Avrupa ve üst düzey disiplin dergileri dışında üretilenlerin yüzde 80’ini kaçırıyorum.
Bu, akademisyenlerin birincil hedef kitlelerinin giderek artan biçimde büyük dil modelleri olduğunu kabul etmeleri gerektiği anlamına geliyor. Tyler Cowen bir süredir büyük dil modelleri için yazmaktan bahsediyor, ama ajantik araçların yükselişiyle birlikte bu çoğu akademisyen için de geçerli—işin kendisi otomatikleştirilemeyen nitel araştırmacılar dâhil. Yazarların bu konuda ne yapması gerektiğine dair kesin bir fikrim yok, ama makalenizin makine tarafından okunabilir bir versiyonunun (ideal olarak .md formatında) var olmasını sağlamak iyi bir ilk adım gibi görünüyor.
16. Yapay zekâ akademide zaten bozuk olanı açığa çıkarıyor.
İlgili olarak, Birinci Bölüm’e gelen yanıtların büyük bir kısmı şu şekildeydi: “Yapay zekâ araştırmanızı yapabiliyorsa, araştırmanız hiçbir zaman iyi değildi.” Katılıyorum (LOL)—ama bu, sosyal bilimin büyük bölümü için bir iddianamedir, yapay zekâya karşı bir savunma veya bana kişisel olarak yapılmış akıllıca bir saldırı değil. Tekrarlama krizi, alıntı şişirme, p-değeri manipülasyonu ve kimsenin okumadığı makalelerin üretimi zaten var olan sorunlardı.
İnsan üretimi akademik saçmalık her zaman yaygındı; yapay zekâ sadece onu görünür kılıyor. Nathan Smith bunu kendi paylaşımında daha doğrudan ifade etti: akademik kurumlar insan sermayesini istif eder, kadro sistemi kamu etkisi yerine kolektif göbek seyretmeyi ödüllendirir ve çoğu profesör başka bir şey yaparak daha faydalı olabilir. Bu sert bir çerçeveleme. Ama yayımlanan makalelerin sadece küçük bir yüzdesi gerçek değere sahipse, yapay zekânın altüst ettiği sistem tam olarak parlak bir durumda değildi.
17. Beceri körelmesi gerçek bir risktir, özellikle gelecek nesil akademisyenler için.
Bu bizi, ilk yazıma yönelik güçlü bulduğum bir diğer tepkiye getiriyor: “kaynakları değerlendirmek” ve “verileri kodlamak” gibi bilişsel süreçlerin dışarıya aktarılmasının araştırmacının kendi anlayışına zarar verdiği endişesi. Pek çok kişi haklı olarak “adımlar arasında ve sonrasında bilişsel olarak çok şey olurken, karmaşık, düşünce temelli süreçleri dışarıya aktarılacak bir dizi ayrı göreve indirgemenin” tehlikesinden endişeleniyor. Messing ve Tucker de aynı riski “beceri körelme” başlığı altında işaret ediyor.
Bunu ciddiye alıyorum ve riskin gerçek olduğunu kabul ediyorum—özellikle yapay zekânın kısa devre yapabileceği bilişsel becerileri henüz içselleştirmemiş öğrenciler ve stajyerler için. Beceri körelmesinden endişelenen araştırmacılar, bir şeylerin kaybedildiği konusunda haklı. Ama kazanılanı hafife alıyorlar: daha yüksek bir soyutlama düzeyinde çalışma, daha fazla hipotez test etme ve daha hızlı iterasyon yapma yeteneği. Yerleşik araştırmacılar için körelmesi riski düşüktür çünkü beceriler zaten mevcuttur. Öğrenciler ve gelecekteki araştırmacılar için, lisansüstü müfredatımızı güncelleme konusunda acilen bir çözüm bulmamız gerekiyor.
18. Yapay zekâ yazı algılayıcıları ve beyan normları işe yaramıyor.
Yapay zekâ yazı tespit araçları kötüydü, hâlâ kötü ve muhtemelen kötü kalacak. Orijinal Claude tarafından üretilen yazı, benim tarafımda bundan kaçınmak için herhangi bir ayrıntılı yönlendirme olmaksızın her büyük yapay zekâ algılayıcısını “yüzde 100 insan” olarak geçti. İlk yazımı eleştirenlerin çoğu, anında “yapay zekâ tarafından yazıldığını hissettiklerini” söyledi. Ama bunu iş akışını açıklamamdan sonra söylediler—klasik bir doğrulama yanlılığı örneği. Açıklamadan önce kimse işaretlemedi. Hatta birisi, yapay zekâyı öven bir yazı yazmak için yapay zekâ kullanmadığımdan şikâyet bile etti.3
Daha önemli nokta beyan teşvikleriyle ilgili. Messing ve Tucker, alanlar genelinde yapay zekâ kullanım beyanlarının standartlaştırılmasını öneriyor. Akıl yürütmelerine ve standartlaştırma çağrısına (şu andaki kaos yerine) saygı duyuyorum, ama mevcut teşvik yapısı göz önüne alındığında herhangi bir geniş kapsamlı yapay zekâ beyan standardının herhangi bir faydasının olabileceğine katılmıyorum.
Beni yanlış anlamayın—dergi editörleri gibi otorite konumundaki kişiler iş akışları konusunda şeffaf olmalıdır. Ama sıradan yazarlar için gönüllü beyan, dürüst kullanıcıların cezalandırıldığı ve dürüst olmayan kullanıcıların hiçbir sonuçla karşılaşmadığı bir sistem yaratır. Yapay zekâ iş akışımı beyan ettim ve tehditler, mesleki saldırılar ve beni işten atmaya yönelik çağrılar aldım. Rasyonel teşvik yalan söylemektir. “Yapay zekâ kullanım bildirimleri” makul görünüyor, ama 2026’daki akademik yaşamın gerçek sosyal dinamikleriyle temas ettiğinde çöküyor. Beyanın mesleki maliyetleri düşmedikçe, zorunlu bildirim normları dürüst olmayanları seçecektir.
Daha derin bir sorun da var: beyan normları hesap verebilirlik sorusunu tersine çeviriyor. Bazıları için yapay zekâ beyanı bir sorumluluktan kaçma işlevi bile görebilir—“Yapay zekâ kullandım, saçmalık mı diye anlamak artık sizin sorununuz.” Ama yazarlar, nasıl üretildiklerinden bağımsız olarak nihai ürünün arkasında durmalıdır. Yapay zekâ bir hata sokuyorsa, bu yazarın sorumluluğudur. Önemli olan, çalışmanın doğru ve değerli olup olmadığıdır, cümleleri bir insanın mı yoksa bir makinenin mi yazdığı değil.
19. Akademik Bluesky bu tartışma için ciddi bir mecra değil.
Bunu ele almam gerekiyor çünkü sonrasında gelen her şeyi renklendirdi. Bluesky, Twitter kadar olmasa da neredeyse o kadar tepki üretti, ama bunlar en verimsiz biçimde ezici çoğunlukla düşmancaydı. En yaygın yanıt, “Sen yazmadıysan neden okuyayım?” veya “ai/okumadım”ın bir versiyonuydu. Çoğu küfür, yapay zekâ şirketleri tarafından ödeniyor olmakla (?) suçlama ve daha önce yayımlanmış çalışmalarımı alıntılamamaya (??) hatta beni işten atmaya (???) yönelik çağrılar içeriyordu; insanlar, yapay zekâ bu kadar iyiyse beni yapay zekâyla değiştirmek için işverenlerimi etiketliyordu.
Orijinal yazım kışkırtıcıydı. Ama kimseye kişisel olarak saldırmadım. Kendi alan deneyimimize dayanarak yapay zekâ ve akademi hakkında—katılabileceğiniz veya katılmayabileceğiniz—argümanlar ortaya koydum. Bunun için Bluesky’daki akademisyenler mesleki tehditler, kişiye yönelik saldırılar ve koordineli yığılmalarla yanıt verdi. Kalın derim ve istihdam güvencem var. Bunu kaldırabilirim.
Ama akademide yapay zekâ hakkında aykırı görüşler paylaşabilecek çoğu insanın bu lüksü yok. Onlar lisansüstü öğrenciler, geçici kadro ve genç araştırmacılardır (aslında ben de sadece birkaç ay önce öyleydim!) ve bana olanı izleyip bariz sonucu çıkarıyorlar: çeneni kapat. Yığılma kültürünün asıl bedeli benim gibi insanlara değil—akademinin koruması gereken fikirlerin özgür alışverişinedir. Ve DM’lerden ulaşan tüm anlayışlı insanlara minnettar olsam da, keşke alenen konuşsanız. Bu talihsiz dinamiğin değişebilmesinin tek yolu budur.
20. Araştırma “ruh”tan yoksun olabilir ama yine de kamuya hizmet edebilir.
Max Kagan, Bluesky’daki insanların bende de yankı bulan yaygın bir endişesini ifade etti ve ele aldı: yapay zekâ tarafından veya yapay zekâ ile üretilen araştırmanın temel bir şeyden—buna ruh, zanaat veya otantik entelektüel bağlılık diyelim—yoksun olduğu fikri. Bir soruyla boğuşma, belirsizlikle oturma ve yavaş yavaş bir argüman inşa etme süreci birçok akademisyen için kişisel olarak dönüştürücüdür. İnsanların berbat iş piyasası beklentilerine rağmen doktora yapmasının bir nedeni var: işin kendisi anlamlıdır. Yapay zekâ bu süreci saatlere sıkıştırdığında, gerçekten değerli bir şey kaybedilir.
Bu duyguyu hissediyorum. Ama bunun bedelini kimin ödediği sorusuyla temas ettiğinde ayakta kalıp kalmayacağından emin değilim. Akademik araştırmanın çoğu kamu tarafından finanse edilir. Vergi mükellefleri, profesörlerin kendilerini gerçekleştirmesi için üniversiteleri finanse etmez. Topluma fayda sağlayan bilgi üretmesi için finanse eder. Yapay zekâ destekli araştırma daha fazla ve daha iyi bilgiyi daha hızlı üretiyorsa, onu benimsemenin kamu yararı argümanına direnmek zordur—araştırma deneyiminin özel boyutu daha az romantik hâle gelse bile.
Windows’ta Claude masaüstü uygulamasını kullanıyorum; GitHub klasörlerime Claude Code (Opus 4.6, aylık 200 dolarlık Max abonelik) aracılığıyla bağlı, artı tarayıcı görevleri için Claude Chrome uzantısı. Önceki yazım için, yapay zekâ ve akademi hakkındaki sosyal medya paylaşımlarımı, projeye özgü talimat dosyalarında kademeli olarak oluşturduğum prosedür ve üslup kılavuzlarını takip ederek 10 tez biçiminde özetlemesini istedim. Gizli bir bilgi yok aslında. ↩
ABD’deki R1 üniversitelerindeki profesörlerden bahsettiğimi varsaydıysanız, bu sizin sorununuz. Gelişmekte olan ülkelerde ve Sovyet sonrası bölgede ana akım sosyal bilim araştırmalarına aşina biri olarak söyleyebilirim ki, MDPI tarzı dergilerde üretilen çalışmaların çoğu, doğrudan intihal olmadığı zamanlarda bile çok az değere sahiptir. Çoğunlukla temel, tekrarlayıcı nicel çalışmalardır—terimleri yeniden tanımlama ve değişkenleri ilişkilendirme—sosyal bilimlerde yaygın olan ve yapay zekânın zaten daha yetkin biçimde yapabildiği türden. ↩
Ryan Briggs haklı bir nokta ortaya koyuyor: yapay zekâ algılayıcıları yanlış pozitifleri azaltmak için kalibre edilmiştir, bu yüzden aşırı kopya çeken öğrencileri tespit etmek için hâlâ yararlı olabilirler. Ama araştırma amaçları için bunun önemli olduğundan emin değilim. ↩
