Aclaración para mis amigos de Bluesky: Este artículo es 100% escrito por un humano (asistido con resúmenes de IA verificados por humanos de sus críticas a mi artículo anterior). Los errores humanos son posibles.
A principios de esta semana argumenté que los académicos necesitan despertar respecto a la IA y ofrecí diez tesis sobre cómo la IA agéntica está cambiando la investigación en ciencias sociales. El artículo se volvió viral, especialmente después de que revelé que fue completamente generado y publicado por IA, lo que llevó a reportajes en medios, más de un millón de vistas, y más de mil respuestas (frecuentemente furiosas pero también entusiastas) en diversas plataformas de redes sociales.
En retrospectiva, debería haber hecho algunas cosas de manera diferente. Primero, revelar que Claude escribió el artículo original (incluso basado en mis publicaciones anteriores en redes sociales) como un seguimiento pícaro fue un error. Distrajo de la sustancia y dio a los críticos una razón fácil para descartar los argumentos. Más bien, debería haber sido transparente desde el inicio sobre mi configuración básica.1 Segundo, debería haber sido claro en que las herramientas actuales de IA agéntica son mejores haciendo la mayoría de las tareas de investigación en ciencias sociales que los profesores a nivel global.2 Esto no significa que necesariamente te reemplacen, pero sí significa que la naturaleza de tu trabajo cambiará. Tercero, el artículo generado por IA tenía errores estilísticos menores, algo extraños, que una mejor edición humana-asistida habría detectado.
En este sentido, quiero destacar el artículo de Solomon Messing y Joshua Tucker en Brookings, publicado poco después del mío, que hace una versión mucho más persuasiva de muchos de mis argumentos —con ejemplos de uso concretos, sin provocación innecesaria ni texto generado por IA, y una visión más constructiva para el futuro. Si mi artículo fue demasiado abrasivo para ti, lee el de ellos en su lugar.
Fui deliberadamente provocador, y mantengo esa elección. En cierto sentido salió mal pero en otro sentido funcionó: docenas si no cientos de académicos ahora están probando herramientas de IA agéntica que no lo habrían hecho de otra manera aún. Después de leer la mayoría de las respuestas, ciertamente cambié de opinión en algunas cosas, pero sigo convencido de mi afirmación central de que, debido a las herramientas de IA ya existentes, nuestro flujo de trabajo de investigación tendrá que cambiar te guste o no. Aquí hay diez tesis más que surgieron de mis reflexiones.
11. La investigación cualitativa y la recolección de datos novedosos aumentarán en valor relativo.
La crítica sustantiva más fuerte de la Parte I fue que confundía “investigación” con las tareas específicas que la IA maneja bien —revisiones bibliográficas, análisis de datos, síntesis conceptual. Varios encuestados señalaron con razón que la IA no puede realizar trabajo de campo etnográfico, entrevistar detenidos en prisiones ilegales, o pasar años construyendo confianza con una comunidad. Tienen toda la razón. Mis tesis eran principalmente sobre el trabajo cuantitativo y conceptual (actualmente dominante) en ciencias sociales, y debería haber sido más claro sobre ese alcance.
Pero la implicación no es que los investigadores cualitativos deberían relajarse. Es que el valor relativo de la recolección de datos originales —trabajo de campo, entrevistas, trabajo de archivo, observación participante— está a punto de aumentar. Si la IA puede sintetizar la literatura existente y ejecutar regresiones estándar, entonces la prima se desplaza a las cosas que la IA no puede hacer: generar nuevos datos que no existían previamente, especialmente de contextos de difícil acceso. Los investigadores cualitativos y los experimentalistas de campo deberían ver esto como una oportunidad para hacer más del gran trabajo en el que tienen ventaja comparativa en lugar de transcribir sus entrevistas o compilar revisiones bibliográficas.
12. Debido a la “irregularidad”, las opiniones sobre IA están polarizadas por las creencias en su utilidad.
Ethan Mollick describe las capacidades de la IA como una “frontera irregular” —sobrehumana en algunas tareas, vergonzosamente mala en otras, de maneras que no coinciden con la intuición humana. La IA puede escribir una revisión bibliográfica aceptable pero tener dificultades con un rompecabezas visual básico. Puede sintetizar hallazgos de 500 artículos pero alucinar el nombre de pila de un coautor.
Esta irregularidad explica por qué el debate sobre IA en la academia está tan polarizado. Los críticos señalan los valles; los entusiastas señalan los picos. Ambos tienen razón sobre su rincón de la frontera. El solapamiento con la división cualitativa-cuantitativa en ciencias sociales es difícil de ignorar: los investigadores cuyo trabajo involucra las tareas que la IA maneja bien (análisis de datos, síntesis bibliográfica, reconocimiento de patrones) tienden a ser más positivos, mientras que aquellos cuyo trabajo involucra las tareas que la IA maneja mal (trabajo de campo, entrevistas, interpretación de archivos) tienden a ser más escépticos.
Pero noté algo más allá del mero desacuerdo. Los usuarios de Bluesky que desprecian la IA visceralmente fueron frecuentemente los primeros en negar hechos básicos y fácilmente verificables —por ejemplo, que puede producir presentaciones de diapositivas bien. Muy pocos encuestados reconocieron que las capacidades de la IA para la investigación son reales pero se preocuparon por sus consecuencias. Las personas o rechazan la IA y niegan cualquier uso productivo, o les gusta y exageran su utilidad. Algo de esto es razonamiento motivado —la amenaza existencial explícita de que una computadora haga cosas mejor que tú. Pero sospecho que aún más es simplemente ignorancia sobre “el otro”.
La teoría del contacto es real. Si crees que Claude Code es malvado o incompetente, te reto a que lo instales y lo uses para organizar tus carpetas de investigación o crear presentaciones de diapositivas para tus próximas conferencias. Antes animé a la gente a “pasar una semana con Claude Code.” Debería haber sido “pasar un día” (lo cual debería ser suficiente).
13. La experiencia del usuario sigue determinando enormemente la calidad del resultado.
Quizás no sea sorprendente que mucha de la crítica en Bluesky todavía asuma que usar IA significa copiar y pegar de un chatbot. Así no es como funciona la IA agéntica. La IA agéntica opera autónomamente dentro de tu sistema de archivos, lee y escribe código, consulta documentación, y ejecuta flujos de trabajo de investigación de múltiples pasos —todo guiado por instrucciones detalladas que construyes con el tiempo.
Una forma relacionada y común de negación de la IA también asume que porque la herramienta es accesible, cualquiera podría producir el mismo resultado. Eso es como argumentar que porque todos tienen acceso a una estufa, todos pueden cocinar una buena comida. Hay diferencias obvias en habilidades culinarias, recetas y la calidad de los ingredientes.
Pero la pregunta no es si la IA es mejor que la mayoría de los profesores en la mayoría de las tareas de investigación importantes (sigo manteniendo la afirmación de que lo es), sino si los buenos investigadores con IA son mejores que los buenos investigadores sin IA (absolutamente lo son). Honestamente, preferiría el contenido de IA bien dirigido sobre el contenido basura de Bluesky (cientos de usuarios anónimos respondiendo ia/nr cada vez que ven la temida palabra clave IA independientemente de cualquier sustancia) cualquier día de la semana.
14. El retraso en publicación hace que las críticas a las capacidades de la IA estén obsoletas para cuando salen.
Aquí hay un problema que casi nadie en el debate reconoce: los plazos de publicación académica y de libros son estructuralmente incompatibles con la tasa de mejora de la IA. Cuando alguien cita un artículo de 2025 (iniciado en 2024) documentando la tasa de alucinación de GPT-4 para argumentar contra el uso de IA en marzo de 2026, está citando evidencia sobre un sistema que ya no existe. Es como citar un estudio de 2005 sobre las limitaciones de los teléfonos de tapa para argumentar contra los smartphones. Probablemente por eso el nuevo libro “AI Con” es tan malo —claramente obsoleto antes de llegar a las estanterías.
No estoy descartando toda esta investigación en sí. Los estudios son frecuentemente metodológicamente sólidos. Pero la base de evidencia caduca más rápido de lo que puede publicarse, revisarse y citarse. El artículo de Messing y Tucker en Brookings, publicado en marzo de 2026 (y revisado “rápidamente” en solo dos semanas), ya documenta capacidades que habrían parecido especulativas seis meses antes. Para cuando un artículo revisado por pares sobre las limitaciones actuales de la IA aparezca en una revista, las limitaciones que documenta probablemente estarán corregidas. Esta no es una situación cómoda para los académicos que están entrenados para depender de la evidencia publicada. Pero es la situación en la que estamos.
15. La mayoría de los artículos ya son mayormente leídos por IA, no por humanos.
Es un secreto a voces en la academia que la mayoría de los artículos publicados nunca son citados o leídos por nadie más allá de los autores, revisores y a veces el editor. Con la proliferación venidera de artículos escritos por IA —ya sea contenido basura completo o no— se volverá imposible para los investigadores mantenerse al día incluso con sus propios campos de nicho. Me gusta pensar que estoy al tanto de toda la nueva literatura sobre actitudes hacia la inmigración, pero probablemente me estoy perdiendo el 80% de lo que se produce fuera de EE.UU., Europa y las principales revistas disciplinarias.
Esto significa que los académicos deberían aceptar que su audiencia primaria es cada vez más los LLMs. Tyler Cowen ha estado hablando de escribir para LLMs desde hace tiempo, pero con el ascenso de las herramientas agénticas, esto aplica también a la mayoría de los académicos —incluyendo investigadores cualitativos cuyo trabajo en sí no puede automatizarse. No tengo una idea firme de lo que los autores deberían hacer al respecto, pero asegurar que exista una versión legible por máquina de tu artículo (idealmente en formato .md) parece un buen primer paso.
16. La IA expone lo que ya estaba roto en la academia y más allá.
Relacionado, un gran número de respuestas a la Parte I equivalían a: “Si la IA puede hacer tu investigación, tu investigación nunca fue buena.” Estoy de acuerdo (LOL) —pero eso es una acusación contra gran parte de las ciencias sociales, no una defensa contra la IA ni un ataque inteligente contra mí personalmente. La crisis de replicación, el relleno de citas, el p-hacking, y la producción de artículos que nadie lee fueron todas condiciones preexistentes.
El contenido basura académico generado por humanos siempre fue omnipresente; la IA solo lo hace visible. Nathan Smith lo expresó más directamente en su restack: las instituciones académicas acaparan capital humano, el sistema de titularidad recompensa la contemplación colectiva del ombligo sobre el impacto público, y la mayoría de los profesores podrían ser más útiles haciendo otra cosa. Es un encuadre duro. Pero si solo un pequeño porcentaje de los artículos publicados tiene valor genuino, el sistema que la IA está disrumpiendo no estaba exactamente prosperando.
17. La atrofia de habilidades es un riesgo real, especialmente para la futura generación de académicos.
Esto nos lleva a lo que considero otra reacción fuerte a mi artículo inicial: que externalizar procesos cognitivos como “evaluar fuentes” y “codificar datos” daña la comprensión del propio investigador. Muchas personas señalaron con razón la preocupación de “reducir procesos complejos impulsados por el pensamiento a una serie de tareas discretas para externalizar, cuando hay tanto que sucede cognitivamente tanto entre como después de los pasos.” Messing y Tucker señalan el mismo riesgo bajo “atrofia de habilidades.”
Me tomo esto en serio, y concedo que el riesgo es real —especialmente para estudiantes y aprendices que aún no han internalizado las habilidades cognitivas que la IA podría atajar. Los investigadores que se preocupan por la atrofia de habilidades tienen razón en que algo se pierde. Pero subestiman lo que se gana: la capacidad de operar a un nivel más alto de abstracción, de probar más hipótesis, de iterar más rápido. Para investigadores establecidos, el riesgo de atrofia es bajo porque las habilidades ya existen. Para los estudiantes y futuros investigadores, necesitamos urgentemente resolver algo en la actualización de nuestro currículo de posgrado.
18. Los detectores de escritura por IA y las normas de divulgación no funcionan.
Las herramientas de detección de escritura por IA eran malas, siguen siendo malas, y probablemente seguirán siendo malas. El artículo original producido por Claude pasó todos los principales detectores de IA como “100% humano” sin ningún prompt elaborado de mi parte para evitar esto. Muchos críticos de mi artículo inicial dijeron que inmediatamente “percibieron” que estaba escrito por IA. Pero dijeron esto después de que revelé el flujo de trabajo —un caso de libro de texto de sesgo de confirmación. Antes de la revelación, nadie lo señaló. De hecho, alguien incluso se quejó de que no usé IA para escribir un artículo que promovía la IA.3
El punto más importante es sobre los incentivos de divulgación. Messing y Tucker recomiendan estandarizar las declaraciones de uso de IA entre campos. Respeto su razonamiento y el llamado a la estandarización (en lugar del caos que tenemos ahora), pero discrepo en que cualquier estándar expansivo de declaración de IA pueda tener méritos dada la estructura actual de incentivos.
No me malinterpreten —las personas en posiciones de autoridad como los editores de revistas deberían ser transparentes sobre su flujo de trabajo. Pero para los autores regulares, la divulgación voluntaria crea un sistema donde los usuarios honestos son castigados y los usuarios deshonestos no enfrentan consecuencias. Divulgué mi flujo de trabajo con IA y recibí amenazas, ataques profesionales y llamados a despedirme. El incentivo racional es mentir. Los “reconocimientos de uso de IA” suenan razonables, pero colapsan al contacto con las dinámicas sociales reales de la vida académica en 2026. Hasta que los costos profesionales de la divulgación bajen, las normas obligatorias de reconocimiento seleccionarán hacia la deshonestidad.
También hay un problema más profundo: las normas de divulgación ponen al revés la pregunta de la rendición de cuentas. Para algunos, la divulgación de IA puede funcionar incluso como una evasión —“Usé IA, así que ahora es tu problema averiguar si es basura.” Pero los autores deberían respaldar el producto final independientemente de cómo fue producido. Si la IA introduce un error, esa es la responsabilidad del autor. Lo que importa es si el trabajo es correcto y valioso, no si un humano o una máquina escribió las oraciones.
19. El Bluesky académico no es un lugar serio para este debate.
Tengo que abordar esto porque coloreó todo lo que siguió. Bluesky generó casi tantas reacciones como Twitter, pero fueron abrumadoramente hostiles de la manera menos productiva posible. La respuesta más común fue alguna versión de “Si no lo escribiste tú, ¿por qué debería leerlo?” o “ia/nr.” Muchas incluían insultos, acusaciones de estar pagado por empresas de IA (?), y llamados a no citar mi trabajo publicado anteriormente (??) o incluso a despedirme (???) con personas etiquetando a mi empleador para reemplazarme con IA ya que afirmo que es tan buena.
Mi artículo original fue provocador. Pero no ataqué a nadie personalmente. Hice argumentos sobre IA y academia, basados en mi propia experiencia en el campo, con los cuales puedes estar de acuerdo o en desacuerdo. Por eso, los académicos en Bluesky respondieron con amenazas profesionales, ataques ad hominem, y linchamiento coordinado. Tengo piel gruesa y seguridad laboral. Puedo absorber esto.
Pero la mayoría de las personas que podrían compartir opiniones heterodoxas sobre IA en la academia no tienen ese lujo. Son estudiantes de posgrado, profesores contingentes e investigadores junior (de hecho, yo mismo era uno hace solo un par de meses) que observan lo que me pasó y sacan la conclusión obvia: mantén la boca cerrada. Ese es el costo real de la cultura del linchamiento —no para personas como yo, sino para el intercambio abierto de ideas que se supone que la academia debe proteger. Y aunque agradecí a todas las personas solidarias que me contactaron por mensajes directos, desearía que hablaran públicamente. Esa es la única forma en que esta dinámica desafortunada puede cambiar.
20. La investigación puede carecer de “alma” y aun así servir al público.
Max Kagan articuló y abordó una preocupación común de la gente de Bluesky que también resuena conmigo: la idea de que la investigación producida por o con IA carece de algo esencial —llámalo alma, oficio, o compromiso intelectual auténtico. El proceso de luchar con una pregunta, sentarse con la ambigüedad, y construir lentamente un argumento es personalmente transformador para muchos académicos. Hay una razón por la que las personas persiguen doctorados a pesar de las terribles perspectivas del mercado laboral: el trabajo en sí es significativo. Cuando la IA comprime ese proceso en horas, algo genuinamente valioso se pierde.
Siento la atracción de esto. Pero no estoy seguro de que sobreviva al contacto con la pregunta de quién paga por ello. La mayor parte de la investigación académica es financiada públicamente. Los contribuyentes no financian universidades para que los profesores se autorrealicen. Financian universidades para producir conocimiento que beneficie a la sociedad. Si la investigación asistida por IA produce más y mejor conocimiento más rápido, el argumento del interés público para adoptarla es difícil de resistir —incluso si la experiencia privada de la investigación se vuelve menos romántica.
Uso la aplicación de escritorio de Claude en Windows, conectada a mis carpetas de GitHub vía Claude Code (Opus 4.6, suscripción Max de $200/mes), más la extensión de Claude para Chrome para tareas del navegador. Para mi artículo anterior, le pedí que resumiera mis publicaciones en redes sociales sobre IA y academia en forma de 10 tesis, siguiendo procedimientos y guías de estilo que he construido gradualmente en archivos de instrucciones específicos del proyecto. Ningún conocimiento prohibido, realmente. ↩
Si asumiste que estaba hablando de profesores de EE.UU. en universidades R1, eso es tu problema. Como alguien familiarizado con la investigación mainstream en ciencias sociales en países en desarrollo y el espacio post-soviético, puedo decirte que la mayor parte del trabajo producido en revistas tipo MDPI tiene poco valor incluso cuando no es plagio descarado. Es mayormente trabajo cuantitativo básico y repetitivo —redefiniendo términos y correlacionando variables— del tipo que es común en las ciencias sociales y que la IA ya puede hacer más competentemente. ↩
Ryan Briggs hace un punto justo: los detectores de IA están calibrados para reducir los falsos positivos, así que aún pueden ser útiles para detectar estudiantes que hacen demasiada trampa. Para propósitos de investigación sin embargo, no estoy seguro de que esto importe. ↩
