Artículos escritos por inteligencia artificial engañan a una de las redacciones tecnológicas más experimentadas y pone de relieve las vulnerabilidades del periodismo en la era digital
Cada vez más redacciones y empresas editoriales están poniendo normas al uso de inteligencia artificial en los contenidos de sus colaboradores. Hace poco un amigo me comentaba que algunas editoriales ya están haciendo firmar a sus escritores cláusulas por las cuales se comprometen a no usar la IA en los textos que envían. Y más si vemos qué ha pasado más recientemente. La escena parece sacada de un relato de ciencia ficción: WIRED, una de las revistas más prestigiosas sobre tecnología, con décadas diseccionando la innovación digital, termina publicando un artículo fabricado por un chatbot. No se trata de un experimento editorial ni de una provocación creativa, sino de un error que obligó a rectificar en público. El suceso no es solo una anécdota, sino un síntoma de un reto mayor: cómo las redacciones, incluso las más preparadas, están aprendiendo a lidiar con la infiltración silenciosa de la inteligencia artificial.
WIRED, Business Insider y otras publicaciones han retirado artículos escritos por una tal Margaux Blanchard por la preocupación que «probablemente sean obras de ficción generadas por IA».
Una simple búsqueda en Google y nos aparece el perfil de Blanchard aún vinculado a WIRED como podemos ver en esta captura de pantalla.
Desde hace meses, la redacción de WIRED rechaza decenas de propuestas de artículos que llegan con evidencias claras de haber sido generados por IA. Sus periodistas investigan el fenómeno con insistencia y cuentan con un equipo de fact-checkers de referencia. Sin embargo, esta vez, la máquina jugó mejor que los filtros humanos. El episodio con esta supuesta colaboradora Margaux Blanchard deja al descubierto hasta qué punto el periodismo está entrando en un terreno resbaladizo, donde lo auténtico y lo artificial se confunden con una facilidad inquietante.
Una propuesta demasiado perfecta
El episodio comenzó el 7 de abril. Un editor de WIRED recibió un correo electrónico con el asunto: “PITCH: ‘Do You Take This Discord Server?’—The Rise of Hyper-Niche Internet Weddings”. La propuesta era, a primera vista, brillante. Tenía todo lo que caracteriza a un buen artículo: una subcultura extravagante en internet, un potencial visual divertido y un trasfondo sobre comunidad, amor e identidad en una era en la que lo digital pesa más que lo físico.
El autor ficticio intercambió varios mensajes con el editor. La negociación sobre el enfoque y la tarifa fluyó con naturalidad. El proceso de edición posterior tampoco levantó sospechas: el redactor aceptaba sugerencias, respondía con rapidez y siempre en un tono amable. El resultado fue un artículo publicado el 7 de mayo. Nadie en ese momento cuestionó la autenticidad de la pieza.
Pronto comenzaron las señales de alerta
El supuesto periodista no pudo facilitar la información necesaria para ser dado de alta en el sistema de pagos de Condé Nast. En su lugar, insistía en cobrar a través de PayPal o cheque. Ante esa negativa poco habitual, un editor decidió pasar el artículo por dos herramientas de detección de IA externas. El veredicto fue desconcertante: ambas indicaban que el texto era “probablemente humano”.
Aun así, las incoherencias empezaban a acumularse. Una revisión más detallada de los detalles narrativos, sumada a nuevos correos electrónicos del supuesto autor, terminaron de destapar la farsa: el artículo había sido fabricado íntegramente por un chatbot. Tras una revisión exhaustiva por parte del departamento de investigación, la revista tomó la única decisión posible: retirar el artículo y sustituirlo por una nota editorial.
Errores internos, retos globales
La publicación reconoció con rapidez que había fallado en sus propios protocolos. El texto no pasó por un proceso de fact-check riguroso ni fue revisado por un editor senior, como suele hacerse con colaboradores nuevos. Esa omisión abrió la puerta al engaño. “Fabulistas y plagiadores existen desde siempre en los medios”, explicaba la nota. “Pero la IA representa un desafío nuevo: permite a cualquiera crear pitches perfectos y actuar como periodistas de forma convincente, hasta el punto de engañarnos a nosotros”.
El caso refleja algo más que un error puntual. Muestra cómo las redacciones están en una encrucijada: ¿cómo blindar los procesos frente a colaboraciones fraudulentas en una era donde la IA escribe de manera cada vez más sofisticada? Las herramientas de detección, como demuestra este episodio, son útiles pero no infalibles. La responsabilidad última recae en las rutinas humanas: fact-check, edición, verificación de identidad.
Más allá de la anécdota, la situación subraya un problema de fondo. El periodismo vive rodeado de incentivos perversos —velocidad, volumen, precariedad— que chocan con la necesidad de verificación rigurosa. En ese contexto, la IA puede convertirse tanto en un aliado como en una amenaza. Aliado, si se usa para automatizar procesos tediosos y reforzar el control. Amenaza, si se filtra sin control y suplanta la labor humana.
Otros tropiezos con la IA en los medios
Más allá del caso reciente, no es la primera vez que los medios tropiezan con la inteligencia artificial en sus redacciones. En 2023, CNET reconoció haber publicado decenas de artículos de finanzas personales escritos por IA que contenían errores factuales y fragmentos plagiados, como cuenta precisamente esta noticia de WIRED: ‘CNET Published AI-Generated Stories. Then Its Staff Pushed Back‘. Qué cosas…
Poco después, Men’s Journal fue duramente criticada por difundir contenidos de salud generados por algoritmos que incluían afirmaciones inexactas e incluso riesgosas. Y BuzzFeed, en plena crisis editorial, optó por producir tests y artículos de entretenimiento con IA, pero la iniciativa fue recibida como un signo de precarización y pérdida de calidad. Estos episodios revelan que el problema no se limita a los fraudes externos: incluso cuando son los propios medios quienes deciden integrar IA en su flujo de trabajo, el resultado puede derivar en piezas mal escritas, erróneas o con escaso valor periodístico.
Un aviso para toda la industria
El mensaje es claro para la industria: la batalla contra la desinformación no se libra únicamente en las redes sociales o en la esfera pública, también empieza dentro de las redacciones.
El episodio abre una serie de preguntas incómodas:
- ¿Cuántos pitches aparentemente brillantes que circulan por los buzones de los editores están escritos por IA?
- ¿Qué pasa si un artículo de este tipo llega a publicarse en medios menos transparentes y circula como si fuera periodismo real?
- ¿Podrá el lector distinguir, en unos años, qué piezas han sido escritas por humanos y cuáles por algoritmos?
El caso no es solo un error editorial: es un síntoma del ecosistema mediático en transformación. Nos recuerda que el “nuevo fact-checking” ya no consiste solo en comprobar datos y fuentes, sino también en verificar la autenticidad de los propios autores.
En última instancia, el periodismo afronta un reto existencial: proteger su credibilidad en un escenario en el que cualquiera, con un simple prompt, puede imitar a un periodista convincente. La moraleja de este episodio es que ningún medio, por más experimentado o reputado que sea, está a salvo.
La pregunta ya no es si volverá a ocurrir, sino cuántas redacciones caerán en trampas similares antes de que la industria entera asuma que la inteligencia artificial no es un fenómeno externo al que reportear: es una fuerza que ya está dentro de la sala de redacción.