Los cuatro jinetes del apocalipsis: la utilidad superficial, la ignorancia del límite, el espejismo empresarial y la aceptación pasiva.

Atravesamos un momento donde la inteligencia artificial ha adquirido un estatuto casi mágico o religioso. En medios, conferencias, conversaciones cotidianas y en redes se la menciona como si fuese el nuevo destino histórico de la humanidad. Sin embargo, bajo ese brillo retórico y aparente hype se esconden tres mecanismos que explican su rápida aceptación social: la utilidad superficial, la ignorancia del límite y el espejismo empresarial. Cada uno de estos factores contribuye a que millones de usuarios encuentren sentido en herramientas como ChatGPT, aunque en realidad estén aceptando mediocridad, inexactitud o precariedad laboral futura bajo la apariencia de innovación, economía y progreso.

Estas tres dimensiones no son simples anécdotas, sino que son engranajes instrumentales de una nueva lógica en la pedagogía de la sumisión que, en su conjunto, configuran un dispositivo cultural moldeante de nuestras expectativas cognitivas y laborales: la utilidad superficial seduce, la ignorancia del límite engaña y el espejismo empresarial disciplina.

Inicialmente, lo primero que atrae de las IAs es su aparente funcionalidad inmediata. Redactar un correo, generar un eslogan, proponer ideas rápidas o resumir un texto: todo se hace en segundos y con una gramática y semántica supuestamente impecable. El usuario experimenta una sensación de ahorro de tiempo y economía de esfuerzo, aunque el resultado sea genérico y necesite correcciones. La velocidad se confunde con profundidad y la inmediatez con calidad.

El escritor Nicholas Carr, en The Shallows (2010), analizó cómo la cultura digital contemporánea valora la rapidez por encima de la reflexión y las IAs, aunque no sean las creadoras de este gesto, cristalizan este paradigma: lo que importa no es la verdad o la creatividad, sino la apariencia de productividad donde la ilusión de eficiencia reemplaza al criterio y el rigor.

Este movimiento tiene implicaciones culturales directas puesto que normalizan la producción mediocre siempre que sea rápida y, así, se erosiona el pensamiento crítico y se fomenta una cultura de la apariencia. La utilidad superficial, lejos de ser inocua, transforma las expectativas sociales sobre lo que significa producir conocimiento y lo que es importante o relevante. Como dicen los más jóvenes: the bar is on the floor.

El segundo engranaje es más profundo: la mayoría de los usuarios no entiende cómo funcionan estos modelos. No saben que no “saben” las cosas que dicen, que no razonan y ni consultan bases de datos al momento: simplemente predicen la palabra más probable a partir de correlaciones estadísticas. Este límite estructural se disfraza bajo una interfaz seductora y un discurso empresarial que habla de “inteligencia” y “asistencia”.

La consecuencia es que los usuarios confunden plausibilidad con verdad. Se les pide una bibliografía y reciben títulos inventados pero verosímiles; se les formula una consulta técnica y reciben respuestas desde la seguridad de la máquina, pero son erróneas. Además, el problema no es la falsedad aislada, sino la imposibilidad de distinguirla sin un esfuerzo crítico que pocos realizan y que, en muchos casos, serían incapaces de hacerlo, aunque lo quisieran. La ignorancia del límite se convierte, así, en un espejismo epistémico sin marco, sea puerta de salida.

Bender et al. (2021) ya lo advirtieron en el artículo sobre los stochastic parrots: los modelos de lenguaje son imitadores estadísticos, no sujetos pensantes. Sin embargo, el automation bias, es decir, la tendencia humana a confiar en lo que proviene de una máquina, refuerza la dependencia acrítica. El resultado es una delegación de la confianza en un simulacro de autoridad.

El tercer engranaje, y no menos importante, corresponde al nivel macroeconómico y cultural. Las empresas adoptan las IAs no porque produzca mejor que un trabajador humano, sino porque lo hace más barato. Una suscripción de veinte euros sustituye tareas rutinarias que antes requerían salarios, derechos laborales y condiciones dignas. El producto puede ser mediocre e insuficiente, pero cumple su función en una lógica de reducción de costes.

El bombo mediático cumple aquí un papel disciplinario importante. Se repite que “quien no use IA se quedará atrás”, instalando la idea de inevitabilidad y catastrofismo. Esta retórica no describe un hecho técnico, sino que crea presión cultural para adoptar la herramienta sin cuestionar su impacto. Evgeny Morozov habló del solucionismo tecnológico: generar problemas ficticios para vender soluciones que en realidad refuerzan intereses corporativos. El espejismo empresarial convierte la adopción de IA en dogma de supervivencia, aunque lo que realmente legitima es la precarización de las condiciones laborales, la bajada de sueldos y los despidos.

Casos documentados muestran esta dinámica: Salesforce, IBM y otras corporaciones han reducido plantillas con el argumento de que “la IA aumenta la productividad”. Es casi una obviedad, pero para mantener el rigor cito a Geoffrey Hinton que, en entrevistas recientes, advierte que la IA puede enriquecer a una élite mientras empobrece al resto. La ilusión de inevitabilidad encubre, en realidad, una decisión política: abaratar el trabajo humano bajo la máscara del progreso.

Los tres engranajes anteriormente descriptos no operan aislados. La utilidad superficial prepara al usuario a conformarse con la mediocridad, la ignorancia del límite le impide ver el alcance de esa mediocridad y el espejismo empresarial lo disciplina culturalmente para aceptar que no hay alternativa. Se trata de un conjunto perfectamente orquestado para una pedagogía de la sumisión: un aprendizaje colectivo en el que los estándares cognitivos, laborales y culturales se reducen para acomodarse a un simulacro.

Como ya señalado por Byung-Chul Han, el poder digital ya no reprime, sino que seduce y agota. La población no siente que obedece y, encima, que disfruta de la supuesta comodidad. Lo que teóricamente he definido como la pedagogía de la sumisión opera del mismo modo puesto que se nos educada y aclimata para la aceptación de la degradación del pensamiento crítico a través de una envoltura de promesa de facilidad y progreso civilizatorio.

En este contexto, la fascinación por la inteligencia artificial no se sostiene en lo que realmente hace, sino en cómo es percibida. La utilidad superficial nos hace sentir eficientes, aunque solo estemos produciendo banalidades. La ignorancia del límite nos engaña haciéndonos creer que hay conocimiento donde solo hay probabilidad. El espejismo empresarial convierte decisiones económicas en supuestas inevitabilidades tecnológicas. Juntas, estas ilusiones configuran un dispositivo cultural que erosiona nuestra autonomía.

En resumidas cuentas, el problema no es que la IA sea más inteligente que que nosotros, sino que nosotros dejemos de pensar porque creemos que se lo puede hacer por nosotros. La tarea crítica es desvelar estas ilusiones, desmontar el hype y recordar que ninguna herramienta, por seductora que parezca, debería sustituir nuestra capacidad de juicio, intelecto y creación. Si la sociedad se acostumbra a vivir bajo estas tres ilusiones, el futuro no será de progreso, sino de dependencia cognitiva y precarización social.