Me tiene bastante podrido una forma nueva de no leer.
Se mira un texto, se sospecha que pudo haber inteligencia artificial en alguna parte del proceso y se cierra el expediente: «esto es IA».
Listo.
No hay que discutir una idea. No hay que señalar una frase floja. No hay que demostrar un error. No hay que decir qué fuente falta, qué argumento no se sostiene, qué tono resulta impostado o qué parte del texto no respira. Alcanza con pronunciar la palabra maldita y dejar que haga el trabajo sucio.
IA.
Como si eso fuera una crítica.
No lo es.
Puede ser una pregunta legítima. Puede formar parte de una conversación seria sobre método, transparencia, verificación, plagio, derechos de autor, estilo y responsabilidad. Pero usada como descalificación automática es otra cosa: una manera de cerrar el texto antes de entrar.

La herramienta puede estar en la mesa. La firma sigue siendo una decisión humana.
La mala pregunta
La mala pregunta es «¿usaste IA?» cuando se formula como acusación.
La buena pregunta sería otra: ¿qué hiciste con eso?
¿La usaste para ordenar materiales? ¿Para discutir una estructura? ¿Para encontrar contraargumentos? ¿Para pulir un párrafo? ¿Para resumir una fuente que después leíste? ¿Para buscar errores? ¿Para probar títulos? ¿Para producir una primera masa verbal que después cortaste, corregiste, verificaste y volviste propia?
O al revés: ¿copiaste y pegaste una salida mediocre? ¿Publicaste datos sin chequear? ¿Dejaste una frase sin voz? ¿Confundiste abundancia con pensamiento? ¿Hiciste pasar por trabajo editorial lo que era apenas descarga automática?
Ahí sí hay una discusión.
Pero no es una discusión sobre pureza. Es una discusión sobre criterio.
Un texto con IA puede ser malo. Un texto sin IA también. De hecho, la historia de la escritura está llena de textos horribles producidos con herramientas perfectamente humanas: pluma, máquina, computadora, procesador de texto, corrector ortográfico, café, soberbia y mucho tiempo libre. La ausencia de IA no vuelve bueno a un texto. Solo vuelve más antiguo su modo de producción.
La pregunta por la herramienta, cuando reemplaza la lectura, se vuelve una coartada. Permite descalificar sin argumentar. Permite sugerir fraude sin demostrarlo. Permite convertir una sospecha técnica en juicio estético.
Es una forma pobre de crítica.
Y también una forma pobre de humanismo.

No hace falta refutar un texto cuando alcanza con mancharlo antes de leerlo.
La fantasía de la mano limpia
Toda escritura moderna está asistida.
La imprenta asistió a la palabra manuscrita. La máquina de escribir asistió al manuscrito. La computadora asistió a la máquina. El procesador de texto asistió a la corrección. El buscador asistió a la memoria. El corrector ortográfico asistió a la gramática. El archivo digital asistió a la investigación. La grabadora asistió a la entrevista. La transcripción automática asistió al oído. El diseño editorial asistió a la lectura.
Nadie escribe desde una cueva pura.
La diferencia es que algunas herramientas ya se volvieron invisibles. Nadie mira un libro impreso y dice: «esto no vale, lo hizo una imprenta». Nadie recibe un texto escrito en Word y exige que el autor demuestre que cada corrección fue manual. Nadie invalida una nota porque el periodista usó un buscador, una base de datos, un corrector, una planilla o un sistema de gestión de contenidos.
La herramienta deja de escandalizar cuando se vuelve costumbre.
Antes de eso, parece amenaza moral.
La IA toca una zona sensible porque no solo acelera tareas mecánicas. Interviene en el lenguaje. Sugiere frases, estructuras, títulos, resúmenes, asociaciones. Se mete en el lugar donde muchas personas todavía quieren imaginar una intimidad artesanal sin mediaciones. Por eso molesta. Porque muestra algo que ya era cierto: escribir nunca fue solamente poner palabras una detrás de otra. Es seleccionar, montar, corregir, descartar, escuchar, verificar, cambiar de dirección, sostener una voz y decidir dónde termina el texto.
La autoría no está en la pureza manual de cada tecla.
Está en la responsabilidad de la forma final.
Los medios ya cruzaron esa puerta
Conviene mirar qué hicieron los medios antes de ponerse solemnes.
La Associated Press empezó a automatizar notas de resultados corporativos en 2014. En 2015 informó que, junto con Automated Insights y Zacks Investment Research, generaba automáticamente más de 3.000 historias de resultados empresariales por trimestre, diez veces más que antes, y que esa automatización liberaba alrededor de 20% del tiempo que el equipo dedicaba a esa producción.1 En 2022, AP describía usos de IA y automatización para transcripciones, traducciones, listas de tomas, historias basadas en datos, localización de contenido y recaps deportivos.2
The Washington Post desarrolló Heliograf, su sistema interno de automatización narrativa. Lo usó para cubrir datos de los Juegos Olímpicos de Río 2016 y pensaba extenderlo a la elección estadounidense de ese año.3 En 2020, el propio Post recordaba que Heliograf había ampliado la cobertura de la elección de 2016 a más de 500 carreras electorales en una noche y que también había servido para deportes escolares y moderación de comentarios.4
Reuters trabajó con Lynx Insight, una herramienta de IA pensada para ayudar a periodistas a analizar datos, detectar patrones, sugerir ideas y hasta escribir algunas frases, no como sustituto total sino como apoyo dentro de la redacción.5 La descripción de Nieman Lab era todavía más precisa: Reuters quería unir lo que hacen bien las máquinas —tendencias, anomalías, datos— con lo que hacen bien los periodistas: juicio, contexto, citas e insight.6
The Guardian actualizó en 2026 sus principios sobre IA generativa y explicó que estaba formando a su personal, creando herramientas internas para sugerir alt text, buscar en archivos, interrogar documentos parlamentarios y transcribir audio, además de comprometerse a señalar usos significativos en su periodismo.7 Sus principios no dicen «no tocar». Dicen supervisión humana, beneficio editorial, permiso cuando corresponda y responsabilidad ante los lectores.8
The New York Times, aun en conflicto judicial con OpenAI por derechos de autor, también habilitó herramientas internas de IA para tareas editoriales y de producto: titulares SEO, resúmenes, promociones, análisis de documentos propios, preguntas de entrevista, código y herramientas internas, con límites explícitos para no redactar o revisar sustancialmente artículos completos con IA.9
Forbes presentó Bertie, su plataforma de publicación, con una ambición muy clara: que sus autores colaboraran con un sistema de IA que los ayudara mejor.10 Más tarde explicó cómo construyó Adelaide, un buscador de noticias con IA apoyado en el trabajo de sus periodistas y colaboradores.11
Nada de esto vuelve automáticamente buena a la IA.
Nada de esto absuelve los usos torpes, opacos o irresponsables.
Pero sí destruye una fantasía: la idea de que el uso de IA, por sí mismo, coloca un texto fuera de la conversación seria. Si agencias, diarios y redacciones importantes no resolvieron el problema con pureza sino con políticas, herramientas, límites, supervisión y responsabilidad, entonces la pregunta adulta no es si la IA existe en el proceso.
La pregunta adulta es quién manda.
Ya lo había rodeado desde otro lado en «El jazz y la IA se parecen mucho»: una herramienta generativa puede producir variaciones, continuaciones, estructuras posibles, incluso hallazgos. Pero eso no alcanza. También un músico puede tocar muchas notas y no decir nada. Lo que vuelve interesante una práctica no es la cantidad de material disponible, sino la escucha que ordena, corta, deja respirar y decide cuándo callar.
Una herramienta no tiene criterio
La IA puede producir frases.
Puede ordenar.
Puede sugerir.
Puede equivocarse con una seguridad irritante.
Puede inventar fuentes si se la deja suelta.
Puede sonar demasiado prolija, demasiado simétrica, demasiado correcta.
Puede empobrecer una voz si quien la usa no escucha.
Puede multiplicar basura a una velocidad que antes habría requerido una pequeña redacción de gente cansada.
Todo eso es cierto.
Por eso no se la puede tratar como una varita mágica.
Pero tampoco como una mancha religiosa.
Una herramienta no tiene criterio. Lo que tiene es potencia. Puede ampliar una práctica o degradarla. Puede acelerar lo que ya era pensamiento o maquillar lo que era vacío. Puede servir para verificar una estructura o para simular una voz. Puede ayudar a encontrar un ángulo o producir una pieza muerta, brillante por fuera y hueca por dentro.
El problema no está en que una herramienta intervenga.
El problema está en abdicar.
Abdica quien publica sin leer. Abdica quien acepta una fuente sin verificar. Abdica quien deja una frase ajena a su oído. Abdica quien usa IA para no pensar. Abdica quien esconde un uso sustantivo cuando ese uso cambia la confianza del lector. Abdica quien cree que una salida fluida equivale a una idea.
Pero también abdica quien deja de leer porque huele herramienta.
Porque ahí tampoco hay criterio.
Hay reflejo.
La doble vara
Lo más interesante no es la sospecha.
Es la doble vara.
Cuando una gran redacción usa IA, se habla de innovación, eficiencia, herramientas internas, flujos de trabajo, transformación digital, automatización de tareas repetitivas, apoyo al periodista. Cuando una persona independiente dice que trabaja asistida por IA, aparece la palabra trampa.
La misma operación cambia de nombre según quién la haga.
En una corporación es productividad.
En un autor solo es sospecha.
Ahí se ve que el debate no es solamente técnico. También es simbólico. La IA toca prestigios, jerarquías, credenciales y miedos. A algunos les molesta menos la herramienta que el hecho de que alguien sin aparato institucional pueda producir, corregir, investigar, diseñar, publicar y circular con una velocidad que antes exigía más intermediarios.
No digo que eso sea siempre bueno.
La desintermediación también produce ruido, impunidad, copia, saturación, estética prefabricada y una montaña de contenido insoportable.
Pero no confundamos el problema.
El problema no es que alguien tenga una herramienta poderosa.
El problema es si tiene algo para decir y si se hace cargo de cómo lo dice.
El criterio librero
Un depósito lleno de libros no es una librería.
Puede tener miles de títulos, metros de estantería, cajas cerradas, novedades, saldos, rarezas, repetidos, catálogos enteros. Pero si no hay una mirada que ordene, relacione, esconda, rescate, recomiende y saque de lugar, eso todavía no es una librería. Es acumulación.
Con la IA pasa lo mismo.
La abundancia no es pensamiento.
Un modelo puede ofrecer diez comienzos, veinte títulos, treinta estructuras, una lista de objeciones, un resumen de fuentes, una alternativa de tono, una versión más seca, otra más rabiosa, otra más académica. Todo eso puede servir. Pero nada de eso decide por sí solo qué tiene sentido para un texto concreto, en una voz concreta, para una discusión concreta.
El oficio aparece después de la abundancia.
En el corte.
En el descarte.
En la incomodidad frente a una frase demasiado fácil.
En la decisión de sacar un párrafo que funcionaba pero no pertenecía.
En la verificación de una fuente que parecía conveniente.
En la sospecha ante una analogía brillante pero falsa.
En la firma.
La IA, sin criterio, es depósito.
Con criterio, puede ser mesa de trabajo.

El oficio aparece cuando empieza el corte: leer, tachar, verificar, mover, descartar.
Lo que sí hay que exigir
No hay que exigir pureza.
Hay que exigir responsabilidad.
Que no se inventen fuentes.
Que no se plagie.
Que no se simule reportería donde no la hubo.
Que no se publiquen datos sin verificar.
Que no se esconda un uso sustantivo cuando el lector necesita saberlo para evaluar el texto.
Que no se use una salida automática como reemplazo de una mirada.
Que no se confunda corrección superficial con pensamiento.
Que el autor pueda responder por lo que firma.
Ese es el punto.
No si una frase pasó por una herramienta.
No si hubo asistencia para ordenar, probar, revisar, cortar o tensionar.
No si el proceso fue más rápido que el de antes.
La velocidad no cancela la responsabilidad. Solo cambia el lugar donde hay que mirar.
Antes el esfuerzo se veía en la tachadura, el cansancio, la pila de papeles, la reescritura manual. Ahora parte del esfuerzo puede estar en otra zona: diseñar el proceso, formular mejor la pregunta, leer salidas críticamente, cruzar fuentes, detectar alucinaciones, devolverle ritmo a una frase, recuperar una voz, decidir que algo no se publica.
El esfuerzo no desaparece porque cambie de forma.
Lo que desaparece es la comodidad de reconocerlo por sus marcas viejas.
Leer el texto
Si alguien quiere discutir un texto, que discuta el texto.
Qué dato está mal.
Qué fuente no alcanza.
Qué argumento se cae.
Qué frase suena hueca.
Qué tono es impostado.
Qué idea no merece sostenerse.
Qué parte no resiste una segunda lectura.
Eso es crítica.
Decir «esto tiene IA» y quedarse ahí es otra cosa. Es una manera de convertir la herramienta en insulto para no hacerse cargo de la lectura. Es una forma de pereza disfrazada de defensa cultural.
La imprenta no eliminó la autoría. La computadora no eliminó la escritura. Internet no eliminó la investigación, aunque la llenó de basura. La IA tampoco va a eliminar el criterio. Va a hacer más visible su ausencia.
Por eso la pregunta no puede ser si hubo herramienta.
La pregunta es si hubo dirección.
Si hubo lectura.
Si hubo verificación.
Si hubo edición.
Si hubo una voz haciéndose cargo.
La herramienta no firma.
Firma quien decide qué queda.
P.D.: este texto fue asistido por IA. También por libros, café, corrector ortográfico, mala leche editorial y una persona que todavía decide qué está dispuesta a firmar.
Martín Álvarez
Tremendos Libros
@unfalsoguru
Referencias
Footnotes
-
The Associated Press, «Automated earnings stories multiply», 15 de junio de 2015. ↩
-
The Associated Press, «Applying automation in the newsroom», 26 de mayo de 2022. ↩
-
The Washington Post, «The Washington Post experiments with automated storytelling to help power 2016 Rio Olympics coverage», 5 de agosto de 2016. ↩
-
The Washington Post, «The Washington Post to debut AI-powered audio updates for 2020 election results», 13 de octubre de 2020. ↩
-
Nicole Kobie, WIRED, «Reuters is taking a big gamble on AI-supported journalism», 10 de marzo de 2018. ↩
-
Ricardo Bilton, Nieman Journalism Lab, «Reuters’ new automation tool wants to help reporters spot the hidden stories in their data (but won’t take their jobs)», 12 de marzo de 2018. ↩
-
Chris Moran, The Guardian, «How the Guardian is using GenAI», 4 de marzo de 2026. ↩
-
Katharine Viner y Anna Bateson, The Guardian, «The Guardian’s approach to generative AI», publicado originalmente el 16 de junio de 2023 y actualizado en marzo de 2026. ↩
-
Max Tani, Semafor, «New York Times goes all-in on internal AI tools», 17 de febrero de 2025. ↩
-
Forbes Product Group, «Our New Publishing Platform Will Make You a Better Writer», 20 de abril de 2018. ↩
-
Nina Gould, Forbes Engineering, «How Forbes Built Its AI-Powered Tool, Adelaide On Google Cloud Vertex», 20 de noviembre de 2023. ↩

La desacreditación automática de un texto por haber sido asistido con inteligencia artificial desplaza la discusión desde el resultado hacia la herramienta. Ese desplazamiento empobrece la lectura: evita evaluar argumentos, estilo, fuentes, responsabilidad y criterio editorial.
La IA puede usarse de manera pobre, automática o irresponsable. También puede integrarse a procesos de investigación, estructura, edición, variación y corrección. La diferencia no está en la herramienta por sí sola, sino en el modo de uso y en quién asume la firma final.
El texto no lo firma la máquina. Lo firma una persona o una institución que debe responder por lo publicado.
Una herramienta más
La historia de la escritura está atravesada por herramientas: imprenta, máquina de escribir, computadora, corrector ortográfico, buscadores, editores de texto, bases documentales y sistemas de maquetación. Cada tecnología modifica procesos y también despierta sospechas sobre autenticidad, esfuerzo y autoría.
La inteligencia artificial agrega una capacidad nueva: producir lenguaje, imágenes o estructuras a partir de instrucciones. Esa capacidad exige controles, no moralismos automáticos.
Preguntar si hubo IA puede ser pertinente. Pero no alcanza. Las preguntas importantes son otras: qué se verificó, qué se corrigió, qué fuentes sostienen las afirmaciones, qué criterio ordenó el resultado y quién se hace responsable.
Medios y doble vara
Medios internacionales han usado automatización y herramientas de IA para coberturas de resultados, datos, asistencia editorial o flujos internos. La discusión pública, por lo tanto, no puede fingir que la herramienta pertenece solo a prácticas marginales.
El desafío es establecer estándares: transparencia cuando corresponda, control humano, verificación, protección de fuentes, revisión editorial y claridad sobre usos permitidos.
Desacreditar un texto solo por la herramienta utilizada equivale a no leerlo. Una crítica seria debe evaluar el trabajo publicado, no convertir el método en excusa para evitar el contenido.