Blueskyの友人たちへの開示:この投稿は100%人間が書いたものです(前回の投稿への皆さんの批判について、人間が検証したAI要約の助けを借りています)。人間のミスはありえます。
今週初め、学者はAIについて目を覚ますべきだと主張し、エージェント型AIが社会科学研究をいかに変えつつあるかについて10のテーゼを提示しました。この投稿はバイラルになりました。特にAIが完全に生成し投稿したことを明かした後、ニュース記事になり、100万回以上の閲覧があり、さまざまなソーシャルメディアプラットフォームで1000件以上の(多くは怒りに満ちたが、熱狂的なものもある)反応がありました。
振り返ると、いくつかのことを変えるべきでした。第一に、Claudeが元の投稿を書いたこと(私の以前のソーシャルメディア投稿に基づいているとはいえ)をちゃっかりした後出しとして明かしたのは間違いでした。内容から注意をそらし、批判者に議論を無視する簡単な口実を与えてしまいました。むしろ、基本的なセットアップについて最初から率直であるべきでした。1 第二に、現在のエージェント型AIツールはグローバルに見て教授のほとんどよりも、社会科学研究のほとんどのタスクを上手にこなせるということを明確にすべきでした。2 これは必ずしもあなたが置き換えられるということではありませんが、あなたの仕事の性質が変わるということを意味します。第三に、AI生成の投稿には、より良い人間による編集で防げたであろう、軽微でやや奇妙な文体上のエラーがありました。
この点で、私の投稿の直後に公開されたSolomon MessingとJoshua TuckerのBrookings論文を紹介したいと思います。これは私の多くの議論のはるかに説得力のあるバージョンを——具体的な使用例、不必要な挑発やAI生成テキストなし、より建設的な将来ビジョンとともに——提示しています。私の投稿が刺激的すぎた方は、代わりにこちらをお読みください。
意図的に挑発的に書きましたし、その選択を支持します。ある意味では裏目に出ましたが、別の意味では効果がありました。何十人、いや何百人もの学者が、そうでなければまだ試さなかったであろうエージェント型AIツールを試しています。ほとんどの反応を読んだ後、いくつかの点では確かに考えを改めましたが、すでに存在するAIツールのために好むと好まざるとにかかわらず研究ワークフローを変えざるを得ないという核心的な主張には依然として確信を持っています。以下は省察から生まれた10の追加テーゼです。
11. 質的研究と新規データ収集の相対的価値が高まる。
パートIに対する最も強力な実質的批判は、「研究」をAIが得意とする特定のタスク——文献レビュー、データ分析、概念的統合——と混同しているというものでした。複数の回答者が正しく指摘したように、AIはエスノグラフィーのフィールドワークを行うことも、違法な刑務所の被収容者にインタビューすることも、コミュニティとの信頼を何年もかけて構築することもできません。彼らは全くの正論です。私のテーゼは主に社会科学における(現在主流の)量的・概念的研究についてのものであり、その範囲についてもっと明確にすべきでした。
しかし、その含意は質的研究者が安心してよいということではありません。オリジナルのデータ収集——フィールドワーク、インタビュー、アーカイブ調査、参与観察——の相対的価値がこれから上昇するということです。AIが既存の文献を統合し、標準的な回帰分析を実行できるなら、プレミアムはAIにできないこと、すなわち以前には存在しなかった新しいデータの生成、特にアクセスが困難な文脈からのデータ生成に移行します。質的研究者やフィールド実験主義者は、インタビューの文字起こしや文献レビューの編纂の代わりに、自分たちが比較優位を持つより多くの優れた仕事をする機会としてこれを捉えるべきです。
12. 「凸凹(ジャギッドネス)」により、AIへの意見はその有用性への信念によって二極化している。
Ethan MollickはAIの能力を「凸凹のフロンティア」と表現しています——あるタスクでは超人的だが、別のタスクでは驚くほど出来が悪く、しかもそれが人間の直感に沿わない形で現れます。AIは使える文献レビューを書けますが、基本的な視覚パズルには苦戦します。500本の論文にまたがる知見を統合できますが、共著者のファーストネームをでっち上げることもあります。
この凸凹が、アカデミアにおけるAI議論がこれほど二極化している理由を説明しています。批判者は谷を指し、熱狂者は頂点を指します。両者ともフロンティアの自分の側については正しいのです。社会科学における質的・量的研究の分断との重複を無視するのは困難です。AIが得意とするタスク(データ分析、文献統合、パターン認識)に関わる研究者はより肯定的になりがちであり、AIが苦手とするタスク(フィールドワーク、インタビュー、アーカイブの解釈)に関わる研究者はより懐疑的になりがちです。
しかし、単なる意見の相違を超えた何かに気づきました。AIを本能的に嫌悪するBlueskyユーザーこそが、基本的で容易に確認可能な事実——たとえばAIがスライドデッキをうまく作成できるということ——を最初に否定する人々であることが多かったのです。AIの研究能力は現実だが、その帰結が心配だと認める回答者はごくわずかでした。AIが嫌いでいかなる生産的利用も否定するか、AIが好きでその有用性を誇張するかのどちらかです。その一部は動機づけられた推論——コンピューターが自分よりもうまく物事をこなすという明白な存在的脅威——です。しかし、それ以上に多くは単に「もう一方」についての無知なのだろうと思います。
接触仮説は現実のものです。Claude Codeが悪質であるか無能であると信じるなら、インストールして研究フォルダの整理や今後の学会用スライドデッキの作成に使ってみることを勧めます。 以前は「Claude Codeと1週間過ごしてみてください」と言いました。「1日過ごしてみてください」とすべきでした(それで十分なはずです)。
13. ユーザーの専門性が依然として出力の質を大きく左右する。
おそらく驚くことではありませんが、Blueskyでの批判の多くはまだ、AIを使うことはチャットボットからコピー&ペーストすることだと想定しています。エージェント型AIの仕組みは全くそうではありません。エージェント型AIはファイルシステム内で自律的に動作し、コードを読み書きし、ドキュメントを参照し、複数ステップの研究ワークフローを実行します——すべてあなたが時間をかけて構築する詳細な指示に導かれて。
関連して、よくあるAI否認の一形態は、ツールが誰でも利用可能だから誰でも同じ出力を生み出せるはずだと想定するものです。それは、誰でもコンロにアクセスできるから誰でも美味しい料理が作れるはずだと主張するようなものです。料理のスキル、レシピ、食材の質には明らかな違いがあります。
しかし問題は、AIがほとんどの重要な研究タスクにおいてほとんどの教授より優れているかどうか(そうだという主張を依然として支持します)ではなく、AIを使う優れた研究者がAIを使わない優れた研究者より優れているかどうか(絶対にそうです)です。正直に言えば、よくプロンプトされたAIのスロップ(低品質な出力)の方が、Blueskyのスロップ(恐れられるAIというキーワードを見るたびに内容に関係なくai/drと反応する何百人もの匿名ユーザー)よりもいつでも取ります。
14. 出版のタイムラグにより、AI能力への批判は公開される頃には陳腐化する。
この議論でほとんど誰も認めない問題があります。学術論文や書籍の出版タイムラインは、AIの改善速度と構造的に両立しません。2026年3月にAIの使用に反対する論拠として、GPT-4のハルシネーション率を記録した2025年の論文(2024年に着手)を引用する場合、もはや存在しないシステムについてのエビデンスを引用していることになります。スマートフォンに対する反論として、2005年の折りたたみ式携帯電話の制限に関する研究を引用するようなものです。おそらくそれが、新しい『AI Con』という本があれほどひどい理由でしょう——書棚に並ぶ前から明らかに時代遅れでした。
この研究そのものをすべて否定しているわけではありません。研究は方法論的に健全であることが多いです。しかし、エビデンスの基盤は出版され、査読され、引用されるよりも速く賞味期限を迎えます。2026年3月に(わずか2週間の「迅速な」審査で)公開されたMessingとTuckerのBrookings論文は、6ヶ月前には推測的に見えたであろう能力をすでに記録しています。現在のAIの限界に関する査読論文がジャーナルに掲載される頃には、記録された限界はおそらく修正されているでしょう。これは出版されたエビデンスに依拠するよう訓練された学者にとって快適な状況ではありません。しかし、これが私たちが置かれている状況なのです。
15. ほとんどの論文はすでに、人間ではなくAIに主に読まれている。
アカデミアの公然の秘密ですが、出版された論文の大半は著者、査読者、そして時に編集者以外には引用も読まれもしません。AI生成論文の増加に伴い——完全なスロップであるかどうかにかかわらず——研究者が自分のニッチな分野にさえついていくことは不可能になるでしょう。移民に対する態度に関する新しい文献はすべて把握していると思いたいのですが、おそらくアメリカ、ヨーロッパ、トップの専門誌以外で生産されるものの80%を見逃しているでしょう。
これは、学者は自分の主要な読者がますますLLMになっていることを受け入れるべきだということを意味します。Tyler CowenはLLM向けに書くことについてしばらく前から語っていますが、エージェント型ツールの台頭により、これはほとんどの学者にも当てはまるようになりました——その仕事自体が自動化できない質的研究者を含めてです。著者がこれについて何をすべきか確たる考えはありませんが、論文の機械可読バージョンが存在すること(理想的には.md形式で)を確保することは良い第一歩のように思えます。
16. AIはアカデミアやその先ですでに壊れていたものを露呈させる。
関連して、パートIへの多くの反応は「AIにできるなら、あなたの研究はもともと良くなかった」というものでした。同感です(笑)——しかしそれは社会科学の多くへの批判であって、AIへの防御や私個人への巧みな攻撃ではありません。再現性の危機、引用の水増し、p値操作、誰も読まない論文の生産は、すべて以前から存在する問題でした。
人間が生成する学術的スロップは常に蔓延していました。AIはそれを可視化しただけです。Nathan Smithは彼のリスタックでこれをより率直に述べています。学術機関は人的資本を囲い込み、テニュア制度は公共的影響よりも集団的な自己陶酔を報いてきたのであり、ほとんどの教授は別のことをした方がもっと有用だろうと。これは厳しい枠組みです。しかし、出版された論文のうちわずかな割合しか真の価値を持たないのなら、AIが破壊しようとしているシステムはそもそも繁栄していたとは言えません。
17. スキルの衰退は現実のリスクであり、特に将来世代の研究者にとってそうである。
これは、最初の投稿へのもう一つの強力な反応として私が考えるものに行き着きます。「出典の評価」や「データのコーディング」のような認知プロセスを外部委託することが、研究者自身の理解を損なうというものです。多くの方が正しく懸念しているのは、「複雑で思考主導のプロセスを外注すべき一連の個別タスクに還元することであり、ステップの間や後に認知的に起こることがたくさんある」ということです。MessingとTuckerも同じリスクを「スキルの衰退」として指摘しています。
これを真剣に受け止めており、リスクが現実であることを認めます——特にAIがショートカットしてしまうかもしれない認知スキルをまだ内面化していない学生や研修生にとって。スキルの衰退を懸念する研究者は、何かが失われるという点で正しいです。しかし、得られるものを過小評価しています。より高い抽象度で作業する能力、より多くの仮説を検証する能力、より速く反復する能力です。確立した研究者にとっては、すでにスキルが存在するため衰退のリスクは低いです。学生や将来の研究者のためには、大学院のカリキュラムの更新について何かを緊急に考える必要があります。
18. AI文章検出器と開示規範は機能しない。
AI文章検出ツールは以前から不出来であり、今でも不出来であり、おそらく不出来であり続けるでしょう。元のClaudeが生成した投稿は、私の側でこれを回避するための手の込んだプロンプティングなしに、すべての主要なAI検出器を「100%人間」として通過しました。最初の投稿への批判者の多くは、すぐにAIが書いたと「感じた」と言いました。しかし彼らはワークフローを明かした後にそう言ったのです——確証バイアスの教科書的事例です。明かす前には誰も指摘しませんでした。実際、AIを宣伝する投稿にAIを使わなかったと不満を言う人さえいました。3
より重要なポイントは開示のインセンティブについてです。MessingとTuckerは分野横断でAI使用宣言を標準化することを推奨しています。彼らの推論と(現在の混沌ではなく)標準化の呼びかけは尊重しますが、現在のインセンティブ構造を考えると、いかなる拡張的なAI宣言基準もメリットを持ちうるとは思いません。
誤解しないでください——ジャーナル編集者のような権限のある立場の人々はワークフローについて透明であるべきです。しかし一般の著者にとって、自発的な開示は正直なユーザーが罰せられ、不正直なユーザーが何の結果も受けないシステムを作り出します。私はAIワークフローを開示して、脅迫、専門的な攻撃、解雇要求を受けました。合理的なインセンティブは嘘をつくことです。「AI使用の謝辞」はもっともらしく聞こえますが、2026年の学術生活の実際の社会力学に触れた瞬間に崩壊します。開示の専門的コストが下がるまで、義務的な謝辞規範は不誠実を選択的に生み出すでしょう。
より深い問題もあります。開示規範は説明責任の問いを逆転させています。一部の人にとって、AI開示は責任逃れとして機能しうるのです——「AIを使ったので、スロップかどうか判断するのはあなたの責任です。」しかし著者は、どのように生産されたかにかかわらず最終的な成果物に対して責任を持つべきです。AIがエラーを導入したなら、それは著者の責任です。重要なのは、その仕事が正しく価値があるかどうかであり、人間が文を打ったか機械が打ったかではありません。
19. 学術的Blueskyはこの議論の真面目な場ではない。
これについて触れなければなりません。なぜなら、それ以降のすべてに影を落としたからです。BlueskyはTwitterとほぼ同じ数の反応を生みましたが、最も非生産的な形で圧倒的に敵対的でした。最も一般的な反応は「あなたが書いていないなら、なぜ読む必要があるのか?」や「ai/dr」のバリエーションでした。多くには罵倒、AI企業から金をもらっているという非難(?)、以前に出版した研究を引用しないよう呼びかけ(??)、さらには解雇要求(???)が含まれ、AIがそんなに良いと主張するなら私をAIに置き換えるよう雇用主にタグ付けする人々もいました。
元の投稿は挑発的でした。しかし、私は個人的に誰も攻撃しませんでした。この分野での自分の経験に基づいて、AIとアカデミアについて議論を展開したのであり、同意するもしないも自由です。それに対してBlueskyの学者たちは、専門的な脅迫、人身攻撃、組織的な集中攻撃で応じました。私は厚い皮膚と雇用の安定を持っています。これを受け止められます。
しかし、アカデミアにおけるAIについて異端的な見解を共有するかもしれないほとんどの人には、その余裕がありません。彼らは大学院生、非常勤教員、若手研究者であり(実際、私自身もほんの数ヶ月前はそうでした!)、私に起きたことを見て明白な結論を導きます。口をつぐむことです。集中攻撃文化の本当のコストは私のような人間にではなく、アカデミアが守るはずの開かれたアイデアの交換にあるのです。DMで共感を示してくださった方々には感謝していますが、公の場で声を上げてほしいと思います。この残念な力学を変えるには、それしかありません。
20. 研究に「魂」がなくても、公共に貢献しうる。
Max Kaganは、私にも共鳴するBlueskyの方々からの一般的な懸念を明確にし、それに対処しました。AIによって、あるいはAIとともに生産された研究には何か本質的なもの——魂、技巧、あるいは真正な知的関与と呼ぶべきもの——が欠けているという考えです。問いに向き合い、曖昧さとともに座り、ゆっくりと議論を構築するプロセスは、多くの研究者にとって個人的に変革的です。ひどい労働市場の見通しにもかかわらず博士号を追求する理由があるのです。その仕事自体に意味があるからです。AIがそのプロセスを数時間に圧縮するとき、真に価値あるものが失われます。
その魅力は感じます。しかし、それが「誰がそのために払うのか」という問いに接触しても生き残るかどうかは確信がありません。ほとんどの学術研究は公的に資金提供されています。納税者は教授が自己実現するために大学に資金を提供しているのではありません。社会に恩恵をもたらす知識を生産するために資金を提供しているのです。AI支援研究がより多くの、より良い知識をより速く生産するなら、それを受け入れるべきだという公益の議論に抵抗するのは困難です——たとえ研究の個人的体験がよりロマンチックでなくなるとしても。
私はWindows上のClaudeデスクトップアプリを使用しており、Claude Code(Opus 4.6、月額200ドルのMaxサブスクリプション)を通じてGitHubフォルダに接続し、ブラウザタスク用のClaude Chrome拡張機能を加えています。前回の投稿では、私がAIとアカデミアについてのソーシャルメディア投稿を10のテーゼの形で要約するよう依頼し、プロジェクト固有の指示ファイルに徐々に構築してきた手順とスタイルガイドに従わせました。禁断の知識などありません、本当に。 ↩
R1大学の米国の教授について言っていると思ったのなら、それはあなたの推測です。発展途上国やポストソ連圏の主流の社会科学研究に精通している者として言えば、MDPIスタイルのジャーナルで生産される研究の多くは、明らかな盗用でなくても価値がほとんどありません。それは主に基本的で反復的な量的研究——用語を再定義し変数を相関させる——であり、社会科学全般に見られる種類のものであり、AIがすでにより有能にこなせるものです。 ↩
Ryan Briggsが正当な指摘をしています。AI検出器は偽陽性を減らすよう調整されているため、カンニングしすぎる学生を検出するには依然として有用かもしれません。しかし研究目的では、これが重要かどうかは確信がありません。 ↩
