El traje nuevo del emperador (o cómo detectar textos escritos con IA)

El traje nuevo del emperador (o cómo detectar textos escritos con IA)

El emperador, por supuesto, no ve nada pero no lo admite. Sus asesores tampoco ven nada y tampoco lo admiten. Poco a poco, la corte y la ciudad al completo participan del engaño porque, claro está, nadie quiere parecer incompetente. De repente, un niño, ajeno a toda presión social, dice en voz alta lo que todos están evitando: “el emperador está desnudo“.

En el cuento ironiza sobre la vanidad, la presión para conformarse y, sobre todo, cómo el miedo a quedar como ignorante hace que mucha gente participe en engaños colectivos, unos porque no ven, y otros porque no se atreven a decir lo que ven.

Te preguntarás qué relación puedo encontrar entre una historia escrita hace casi doscientos años y la inteligencia artificial. Fue una idea que surgió hace meses, y estaba deseando sacar tiempo para escribir sobre un fenómeno que vemos a diario y que creo que merece una reflexión.

En el último año se han multiplicado los textos asistidos por modelos de lenguaje. Profesionales, directivos y comunicadores han descubierto que pueden producir textos de bastante calidad en cuestión de segundos. Algunos consiguen su objetivo, pero muchos otros caen en la tentación de copiar, pegar y publicar, sintiéndose orgullosos de un texto que les hace parecer eruditos (o como mínimo que saben bastante de un tema), pero que no han escrito ellos. Es muy fácil caer en esa tentación, pero la realidad es que, al otro lado, algunos leen el texto y pese a que la “desnudez” salte a la vista, no dicen nada. El “traje” parece perfecto, los “cortesanos” aplauden y casi todos, sabiendo la verdad, guardan silencio.

El objetivo de este artículo es doble: por un lado, trato de analizar esos patrones que hacen que un texto parezca (sea cierto o no) escrito por una herramienta de IA y, por otro, reflexionar sobre los comportamientos que traen consigo estas prácticas tan extendidas.

Me gustaría empezar con algo que nos ocurre a muchas personas últimamente cuando escribimos, y que, a menudo, termina condicionando la forma en que lo hacemos.

Durante años, escribir ha sido una de mis formas más naturales de pensar. He publicado posts y artículos desde que tenía 16 años, he aprendido a trabajar las ideas casi a la vez que las escribía y, gracias a ello, he desarrollado una relación bastante intuitiva con el lenguaje, que me permite no pensar demasiado en “cómo suena”, sino simplemente en lo que quiero contar. Pero, cada vez más, me encuentro en una situación que no termina de gustarme: escribo una frase, la releo y, en lugar de valorar si está bien construida o si transmite lo que quiero decir, aparece una duda adicional que antes no tenía: si ese texto suena humano o parece escrito por IA.

Lo preocupante no es la duda en sí, sino lo que esa duda provoca. Empiezo a corregir cosas que, objetivamente, no están mal. Me sorprendo eliminando estructuras que antes utilizaba con naturalidad, simplifico giros que me gustaban, cambio la longitud o el ritmo de algunas frases, pero no porque el texto en sí lo necesite, sino porque intento alejarme de algo que identifico como un patrón. Es decir, empiezo a escribir condicionada por el miedo a que, a pesar de haberlos escrito yo, mis textos parezcan escritos por IA.

Esa sensación de la que huyo también es evidente cuando lees textos de otros. Basta con abrir LinkedIn para darse cuenta de que, además de que se escribe mucho más (quienes antes compartían solo artículos interesantes, ahora publican reflexiones personales extensas), muchos textos tienen un tono parecido, una estructura reconocible y una manera muy similar de desarrollar las ideas. Y esto ocurre incluso en publicaciones que, paradójicamente, hablan de la importancia de no depender de la IA o que critican su uso,… donde es fácil identificar esos patrones sin necesidad de un detector (basta con haber tenido un uso intenso de los modelos de lenguaje, en especial ChatGPT durante los últimos años).

El problema es que todo esto no afecta solo al plano personal sino que tiene consecuencias también para la credibilidad en el mundo profesional. Cuando un directivo publica un post que suena exactamente igual que otros diez del mismo sector, el mensaje pierde fuerza por mucho que su gramática sea impecable. En esos casos, los lectores más atentos, o los que han escrito mucho o han utilizado con intensidad los LLMs, perciben una falta de sustancia que hace que el contenido suene artificial y pierdan rápidamente el interés. En cambio, cuando un texto lleva la marca de alguien que lo ha pensado y lo ha trabajado de verdad, con sus irregularidades, sus propios giros personales y su forma de escribir, la conexión con la audiencia es mucho más profunda y duradera. Esa diferencia, aunque parezca sutil, acaba decidiendo a quién le otorgamos nuestra confianza.

Los modelos de lenguaje no escriben como lo hacemos nosotros. Funcionan prediciendo el siguiente token, y eligen el más probable según los patrones estadísticos que han aprendido de miles de millones de textos. Ese mecanismo genera lenguaje coherente y fluido en segundos sin que necesiten que les demos reglas gramaticales, precisamente porque las extraen de dichos patrones. Pero esto tiene un problema de fondo: el texto generado tiende a ser demasiado predecible, porque el modelo elige siempre las combinaciones de palabras que han aparecido con más frecuencia en sus datos de entrenamiento. Eso genera una especie de “suavidad estadística” que los humanos notamos, aunque no siempre sepamos explicarla. Para entenderla hay que conocer dos conceptos que explican bastante bien cómo escribe un modelo de lenguaje:

El primero es la perplejidad (perplexity), que mide básicamente cuánto “sorprendería” al propio modelo el texto que está leyendo. Mientras que un texto humano suele tener perplejidad alta porque incluye elecciones de palabras inesperadas, giros personales, anécdotas que se le ocurren sobre la marcha, o que surgen de su propia experiencia o su forma de pensar, la IA tiende a producir con perplejidad baja (todo fluye de la forma más probable, sin saltos bruscos).

El segundo es la burstiness, o lo que podríamos llamar el “estallido” en la variación de las frases. Los humanos escribimos con ráfagas: una oración corta y contundente seguida de un párrafo más largo y matizado, una digresión, o una idea repentina que refleja cómo pensamos mientras escribimos. La IA tiende a un ritmo mucho más uniforme, con frases de longitud similar y transiciones suaves que se repiten una y otra vez.

Con todo esto, no pretendo ni de lejos decir que no se utilice IA como asistente. Yo escribo con ayuda de la IA, a veces pidiéndole ayuda con la estructura de un artículo enumerando mis ideas y pidiéndole que las organice en base a criterios que también le doy, a veces como sparring tratando de encontrar solución a algo en lo que me atasco, y a veces pidiéndole que pula un texto, y no considero que ello le reste autenticidad. El problema surge cuando se delega por completo y se copia y pega el output sin filtro, creyendo que nadie lo notará. Es entonces cuando el traje parece elegante, pero la audiencia atenta detecta que no hay nada debajo.

Antes de pasar a enumerar los patrones que ayudan a identificar (o al menos sospechar) que un texto está escrito con IA, me gustaría hacer otra reflexión. Nunca he utilizado un detector de “texto escrito con IA” pero me consta que fallan con bastante frecuencia. Al basarse precisamente en medir perplejidad y burstiness, producen falsos positivos en textos humanos muy pulidos, en escritos de no nativos que usan estructuras más formales por necesidad, o incluso en literatura clásica. Novelas como Orgullo y prejuicio de Jane Austen, la Biblia o la Declaración de Independencia de EEUU fueron etiquetados por un detector como generados por IA simplemente porque su estilo claro y estructurado coincide con los patrones que los modelos han aprendido. Si lo pensamos, el modelo aprende con unos tipos de texto que luego imita, por lo que tiene sentido que luego los detectores, piensen que son escritos por IA.

Pasemos, ahora sí, a lo prometido: a ver los patrones que pueden hacer que tu texto parezca escrito por IA. Se trata, aclaro, de tendencias que suelen repetirse a menudo y que yo observo a menudo.

La antítesis constante

Uno de los recursos más habituales es la estructura de contraste, ese “no es esto, es lo otro” que aparece una y otra vez en textos argumentativos. La IA lo utiliza porque ha aprendido que esta estructura es común en ensayos y artículos bien valorados. A decir verdad, genera claridad, ritmo y sensación de contundencia (de hecho es una de las estructuras que intento no utilizar, pero que siempre me ha gustado).

El problema es que la IA incorpora esta estructura de contraste porque suele encajar, no porque el argumento lo requiera y, precisamente por ello, se utiliza cuando no es necesario.

Es una estructura válida, pero el problema surge de que se repite tantísimo que pierde fuerza y se convierte en una señal clara de que el texto nace de un patrón estadístico, es decir, de la IA.

Las introducciones abstractas

Otro patrón muy reconocible son las introducciones que parecen profundas pero no aportan nada. Expresiones como “en un mundo donde” o “en la sociedad actual” funcionan como puntos de partida seguros. No comprometen el texto y sirven para prácticamente cualquier tema.

Este contenido es exclusivo para suscriptores.

AI Insider es un medio independiente centrado en explicar en profundidad cómo funciona la industria de la inteligencia artificial.

Mensual: 8€/mes

Anual: 80€/año (2 meses gratis)

Sin permanencia. Cancela cuando quieras.

Suscribirme ahora

Precio de lanzamiento para siempre mientras mantengas la suscripción activa. Sin permanencia. Cancela cuando quieras.

(A partir de mayo: 15€/mes · 150€/año)