El verdadero problema de la IA no es que democratice el talento, sino que premia el simulacro

El verdadero problema de la IA no es que democratice el talento, sino que premia el simulacro

En los dos últimos años hemos estado hablando de la inteligencia artificial en términos de sustitución de lo humano. Cada noticia, cada post en redes repetía las mismas ideas: qué profesiones desaparecerían, qué tareas dejaríamos de hacer, qué efectos tendría sobre la educación, si las máquinas terminarían pensando mejor que nosotros, qué capacidades perderíamos precisamente por dejar de utilizarlas. En el fondo nos aferrábamos a una única idea, con la que nos sentíamos cómodos y protegidos: “humanos contra máquinas“.

Cuanto más convivimos con la IA, y sobre todo cuanto más se diluye esa capa de miedo que acompaña a cualquier cosa nueva, se hace más evidente que partíamos de una base equivocada, porque la IA no está sustituyendo capacidades humanas, las está amplificando. La IA no mejora automáticamente lo que toca, sino que simplemente lo hace más grande, más rápido y más visible.

Un programador ahora entrega en una tarde lo que antes le habría llevado semanas, un investigador puede revisar en horas documentos que antes habría tardado meses en revisar, un diseñador puede explorar veinte direcciones en el tiempo en el que antes podía probar dos, un médico revisa más casos. un profesor prepara mejores materiales, e incluso una persona curiosa, sin formación específica ni ser experta en un campo concreto, puede tirar del hilo y avanzar a una velocidad que hasta hace poco solo estaba al alcance de quien tenía a un experto al lado. La distancia entre querer entender algo y empezar a entenderlo se ha reducido a casi cero.

Pero ese amplificador no distingue, y amplifica lo que merece ser amplificado pero también lo que no.

El que apenas sabía programar ahora produce código muy frágil a gran velocidad, que funciona los primeros días y se desmorona en cuanto entra en contacto con la realidad. El consultor que llenaba presentaciones de obviedades ahora las llena más rápido y con mejor diseño. El que copiaba trabajos académicos ahora publica libros enteros en cuestión de días. Un periodista perezoso reescribe una mayor cantidad de notas de prensa. La persona que en LinkedIn exageraba sus conocimientos ahora puede hacerse pasar por una autoridad intelectual y experta, y publicar decenas de post sobre un tema que apenas entiende, con citas bien colocadas de autores que no ha leído, un tono confiado calibrado para parecer reflexión, una estética visual cuidada… y todo en una tarde. Y a ojos de muchos lectores (e incluso del algoritmo), no se diferencia de quienes llevan muchos años estudiando ese mismo tema.

Pero la tesis de que “la IA amplifica todo” se queda corta.

Para tratar de entenderlo, muchas veces trato de recrear el cambio que supuso la llegada de internet (que tuve la suerte de vivir trabajando en una puntocom).

La llegada de internet abarató una cosa concreta: la distribución. Antes, publicar cualquier cosa (un libro, una canción, una opinión, un producto) exigía intermediarios a los que no se tenía fácil acceso (editoriales, discográficas, medios). Internet permitió que cualquiera pudiera publicar algo, que fuera accesible a un gran número de personas y que, de esta forma, la asimetría entre quien quería decir algo y quien podía hacerlo desapareciera.

Internet hizo fácil la distribución, pero no tocó la otra mitad de la ecuación: la producción.

Escribir un libro seguía requiriendo meses, diseñar una web exigía conocimientos, programar suponía años de aprendizaje y hacer un vídeo decente implicaba equipo, tiempo y formación. La distribución se volvió gratuita, pero la producción seguía siendo cara. Esto era lo que mantenía el sistema más o menos en equilibrio: había mucho más contenido que antes, sí, pero seguía existiendo una barrera natural (el esfuerzo de hacerlo) que filtraba parte del ruido.

La inteligencia artificial está haciendo con la producción lo mismo que internet hizo con la distribución. Está eliminando su coste y haciéndola accesible a todo el mundo. Contado así, parece una gran noticia: más gente puede crear más cosas. Pero por desgracia, cuando una restricción desaparece de un sistema, el cuello de botella no se elimina: se traslada a otra parte y conviene preguntarse hacia dónde.

La respuesta evidente es que se traslada al criterio. Si producir ya no cuesta, lo que escasea pasa a ser la capacidad de distinguir entre lo que merece atención y lo que no.

Todos nosotros lo notamos cada vez que abrimos cualquier plataforma o red social: el problema ya no es encontrar contenido, es decidir cuál de ellos vale la pena entre una montaña de posts, donde casi todo está razonablemente bien terminado. Esto puede sonar tranquilizador porque parece reubicar el problema en un lugar donde, en teoría, los humanos seguimos teniendo ventaja: el criterio de elegir qué cosas merecen nuestra atención o nuestro tiempo.

Pero, en realidad, no tenemos esa ventaja o, al menos, no del modo en que pensamos.

El criterio no es una facultad innata que cada persona trae consigo, sino que es algo que se forma. Se forma de una manera muy concreta: consumiendo, durante años, una cantidad enorme de cosas, comparándolas, equivocándose, afinando el gusto poco a poco. Es decir, aprendes a distinguir un buen libro porque has leído libros buenos pero también malos, aprendes a reconocer una idea original porque has visto cientos repetidas, aprendes a oler el clickbait porque alguna vez te lo creíste.

El criterio es, sobre todo, un sedimento. La clave está en que ese sedimento se va depositando únicamente sobre lo que el entorno te ofrece para consumir. Y ahí está el problema con el que nos enfrentamos ahora: El criterio del público se forma consumiendo lo que el sistema produce, pero si el sistema empieza a producir, masivamente, cosas aparentemente bien acabadas pero vacías (textos correctos sin nada detrás, imágenes espectaculares sin técnica ni “alma”, libros publicados en días que imitan la forma de un libro pensado durante años), entonces el sedimento que se va depositando en cada lector es un sedimento de imitaciones. La gente no aprende a distinguir lo bueno de lo malo: aprende a aceptar como bueno lo que tiene la forma de lo bueno.

Hay un estudio reciente publicado en una revista de investigación en marketing que comparó el rendimiento de publicaciones generadas por GPT-4 con publicaciones escritas por humanos en redes sociales. Las generadas por IA obtuvieron mejor engagement (ojo, no igual, mejor), incluso en profesionales de ese sector.

¿Diríamos entonces que la IA escribe mejor? No. Es que el público, en conjunto y en ese contexto, recompensa con más fuerza el contenido que cumple las reglas reconocibles. La IA no es buena escribiendo: es excelente imitando aquello a lo que ya estábamos condicionados a responder.

Amazon ha tenido que limitar el número de libros que un autor puede subir al día porque su tienda se está llenando de obras generadas en cuestión de horas, muchas veces resúmenes o reescrituras de libros reales que pasan inadvertidas para lectores que solo buscaban algo sobre un tema. LinkedIn se ha convertido en un teatro donde una parte difícil de calcular del contenido viene de cuentas que fabrican autoridad sobre disciplinas que apenas conocen. El término “AI slop” (esa especie de fast food de contenido de IA generados de forma rápida y fácil sin buscar calidad) ya circula como un buen descriptor de la textura general que está adquiriendo internet.

Y es aquí donde viene la noticia más dura: durante esta transición, el simulacro rinde mejor que la sustancia. Y no es porque el público sea tonto, ni que los algoritmos sean malvados, sino por una razón estructural: la velocidad a la que mejoran las herramientas de producción es muchísimo mayor que la velocidad a la que se adapta el criterio colectivo para distinguirlas. Las herramientas avanzan en ciclos de meses, mientras que el criterio se forma en ciclos de años. Esa diferencia de velocidades abre una ventana (no sabemos cuánto durará, esperemos que no mucho) en la que quien sabe aparentar va a obtener mejores resultados visibles que quien sabe hacer.

Copia y original con ia y sin ia

Esto no contradice las dos narrativas que más se escuchan sobre la IA, las complementa. Es verdad que la IA va a destruir empleos, algunos ya están desapareciendo, y también es verdad que democratiza capacidades, pero no podemos dejar de ver otro gran cambio: la IA está redistribuyendo la atención y el reconocimiento profesional desde quienes “saben hacer” hacia quienes “saben aparentar ese saber hacer”. Esto es más silencioso, más difícil de medir, y probablemente más importante a medio plazo, porque no afecta a qué trabajos existen sino a quién es escuchado dentro de los que existen.

Si esto es cierto, alguien que sea experto o tenga conocimiento, criterio, voz propia,… se enfrenta durante los próximos años a una decisión bastante incómoda: si unirse al juego del simulacro mientras dura esta ventana en la que se premia los simulacros, sabiendo que es lo que el sistema premia ahora mismo, o si esperar a que el reconocimiento llegue… si es que llega. Existe, no obstante, una tercera vía más difícil: hacer un trabajo lo bastante bueno como para empezar a educar el criterio del público desde dentro, contribuyendo a cerrar la ventana antes de tiempo.

Lo más difícil es que la primera opción funciona a corto plazo pero no a largo plazo, la segunda exige una paciencia que pocas vidas profesionales permiten y la tercera (mi favorita) depende de que el público quiera ser educado, y ese es precisamente el punto más complicado.

Puede que el verdadero cambio que introduce la inteligencia artificial no sea que las máquinas empiecen a parecer humanas, sino que los humanos empecemos a acostumbrarnos a convivir con imitaciones suficientemente buenas como para dejar de exigir profundidad real. Y eso es un cambio bastante más profundo y más incómodo, porque no ocurre en las máquinas sino en nosotros mismos.

Si todo lo que tenemos delante parece correcto y perfecto, dejemos de desarrollar la paciencia necesaria para distinguir lo excepcional de lo simplemente competente. Cambiará cómo construimos autoridad, porque cada vez será más difícil saber si detrás de una voz hay años de experiencia o solo una buena capacidad para aparentar credibilidad, y cambiará, sobre todo, cómo funciona la confianza social. Hasta ahora confiamos en médicos, profesores, periodistas, investigadores o analistas porque asumimos que detrás de su trabajo existe un proceso largo de aprendizaje, errores y conocimiento acumulado, pero ¿qué pasará cuando el entorno empiece a llenarse de simulaciones suficientemente buenas de ese proceso? Si una sociedad pierde la capacidad de hacer esa distinción, no se romperá de golpe, pero se irá erosionando poco a poco.

La pregunta no debería ser si la IA puede pensar, escribir o programar mejor que nosotros, sino otra más incómoda: cuánto tiempo aguantará nuestro criterio colectivo antes de empezar a confundir, sin darse cuenta, la apariencia del saber con el saber.

Aquí ya no nos sirve quejarnos del algoritmo. Aquí la solución la tenemos nosotros, cada vez que decidimos a quién leemos, a quién creemos y a quién dedicamos atención. Ese problema no lo soluciona la IA, lo soluciona lo que cada lector decide premiar.