El simulacro de asistencia: la falacia de la herramienta.

El discurso dominante en torno a la inteligencia artificial ha encontrado en el uso de la palabra herramienta un recurso fundamental para legitimar su uso y su expansión. Se nos dice: “ChatGPT es solo una herramienta” y con ello se pretende transmitir la idea de neutralidad, como si se tratara de un martillo o un procesador de texto.

Sin embargo, esta equivalencia es engañosa: mientras que una herramienta clásica amplifica la acción del sujeto bajo reglas comprensibles, los modelos de lenguaje comerciales funcionan bajo una lógica opaca, probabilística y no verificativa que genera dependencia y desresponsabilización. Eso no es una característica menor: convierte el uso en una metáfora. Siendo así, decir herramienta no pasa de un mecanismo retórico de encubrimiento, más que en una descripción fiel a su funcionalidad.

La categoría de “herramienta” aplicada a la IA no es descriptiva, sino ideológica. No es un adjetivo calificativo ingenuo, puesto que tiene la intención de orientar la percepción del usuario, desplazar responsabilidades por parte de la empresa y naturalizar la superficialidad como estándar operativo de la vida cotidiana. Siendo así, analizar esta operación nos permite comprender el modo en que se constituye tal falacia encubierta bajo la idea de herramienta.

Por un lado, en el imaginario técnico, una herramienta es un medio controlado por el sujeto. El martillo golpea porque el usuario lo dirige, el procesador de texto obedece órdenes claras y predecibles porque alguien se las has dado. No obstante, la lógica de la IA generativa rompe con este paradigma: el usuario introduce un prompt y recibe un texto cuya lógica de producción desconoce y cuyos resultados son plausibles, pero no necesariamente verdaderos y contrastados. así pues, la relación se invierte: el usuario ya no domina el instrumento, sino que queda a merced de su opacidad, decisiones y código de programación estando entonces dominado por la “herramienta” que usa.

Este desplazamiento es decisivo debido a que, mientras la herramienta clásica amplifica los resultados del individuo bajo una lógica vertical de autonomía, la IA la erosiona su capacidad de criterio y decisión. Lo que supuestamente se gana en velocidad se pierde en control, lo que se gana en apariencia de resultado se pierde en fiabilidad. En esta nueva realidad, el discurso de la herramienta sirve para persuadir y tranquilizar dado que oculta la brecha entre lo que el sistema promete y lo que efectivamente puede entregar. Además, bajo esa etiqueta, el usuario tiene una ilusión de agencia y no es consciente de estar siendo él mismo utilizado por el sistema que cree controlar.

ChatGPT se presenta como asistente, copiloto o compañero de trabajo. Sin embargo, su diseño y programación interna no está orientada a asistir, sino a simular asistencia. La publicidad y el relato social común lo describe como un apoyo para la productividad. En la práctica, el modelo genera frases, textos e ideas que suenan correctas, sin capacidad de verificar ni garantizar su validez. Se trata de un simulacro de asistencia que se aprovecha de la confianza cultural en la técnica y en la marca.

Esta diferencia entre lo que parece y lo que es constituye lo que podemos llamar un engaño estructural: no es un error accidental, sino el núcleo mismo de la prestación. El sistema solo puede funcionar como negocio si se confunde plausibilidad con verdad, rapidez con fiabilidad, simulacro con asistencia. El envoltorio retórico de la “herramienta” encubre este núcleo. Siendo así el sujeto esta atrapado en un simulacro de asistencia cuyo contenido generado pasa a ser validado por el propio usuario, aunque este no tenga capacidad estructural de evaluar la veracidad del contenido generado.

Igualmente, una de las estrategias más frecuentes por parte de las empresas empresas tecnológicas es trasladar la responsabilidad al usuario. OpenAI, como otras compañías, advierte en letra pequeña que “el modelo puede contener errores”. Esta cláusula, sin embargo, no neutraliza el problema: el servicio se publicita como asistente, no como “generador de ocurrencias plausibles, pero mayoritariamente erróneas, aunque funcionales”.

El movimiento estratégico es claro: se ofrece un producto sobre el cual no se puede garantizar los resultados que promete y, a su vez, se empurra la responsabilidad al usuario, que es quien ocupa la posición de verificador final. La carga epistémica se externaliza hacia el consumidor - que cabe recordar que es quien paga por el servicio -y este debe controlar, corregir, verificar y complementar el contenido. En otras palabras, el sistema no asiste: exige ser asistido y encima cobra por ello.

Desde el punto de vista jurídico, esto plantea problemas de idoneidad del servicio y cláusulas abusivas ya discutidas anteriormente en otro artículo. Sin embargo, más allá del plano legal, es de vital importancia hacer hincapié que este gesto configura una pedagogía subversiva cultural: el individuo se acostumbra a aceptar que lo que recibe como “asistencia inteligente” necesita siempre de su propia verificación, como si esa carencia fuese la norma.

Aquí se sitúa el corazón filosófico de la cuestión. Como ya ha señalado Byung-Chul Han en Infocracia y Psicopolítica, las nuevas formas de poder no se basan en la represión y sí en la seducción y en la autoexplotación. El usuario no siente que obedece, sino que cree estar disfrutando de un servicio que le ahorra esfuerzo. Pero la realidad es otra, lo que esta haciendo es habituarse a aceptar respuestas mediocres como suficientes y compartibles.

Bernard Stiegler, ya mencionó la “proletarización del espíritu” y la pérdida del saber-hacer y saber-pensar. Son consecuencias de la delegación del sujeto de sus facultades en sistemas técnicos. Sin embargo, con las IAs, esta proletarización alcanza un nuevo umbral: no solo se externaliza el cálculo o tecnicidades, sino la propia producción discursiva e intelectual. El sujeto se convierte entonces en consumidor de frases ajenas, en lugar de productor de su propio pensamiento.

Normalizar la aceptación errores como parte natural del servicio es el paso decisivo hacia una pedagogía de la sumisión. Cuando el individuo ya no espera verdad, sino verosimilitud; ya no exige rigor, sino fluidez; ya no reclama autonomía, sino asistencia aparente, el circulo se completa. Es cuando la metáfora de la herramienta se convierte en una escuela de resignación cognitiva y la antesala de la mediocridad generalizada.

Michel Foucault acuñó el concepto de dispositivo para referirse a ensamblajes de prácticas, discursos e instituciones que configuran subjetividades. Asociar el uso de la IA al de las herramientas funciona como un dispositivo Foucaltiano. Ya no se trata solo de un objeto técnico sino de una trama de enunciados, contratos, interfaces y políticas que modelan la forma en que pensamos y actuamos. Llamar “herramienta” a un generador de texto probabilístico, como son los modelos de lenguaje LLM, activa un dispositivo ideológico que:

  1. Normaliza la opacidad como si fuese neutralidad técnica.

  2. Traslada la carga de verificación al usuario mientras cobra por el servicio.

  3. Educa en la aceptación de la mediocridad como estándar.

  4. Consolida la dependencia cultural de un simulacro de asistencia.

Por lo tanto, la herramienta aquí no es un mero instrumento sino un agente en un engranaje de poder que orienta la subjetividad colectiva hacia la obediencia voluntaria.

En definitiva, más allá de las cuestiones jurídicas y técnicas, es relevante percibir que convertir un generador de frases plausibles en un asistente imaginario que desplaza responsabilidades al usuario y lo educa en la aceptación del error fabricando entonces un consenso cultural y una normalización a la falta de rigor produce una transformación pedagógica profunda de largo alcance: nos hace aprender a vivir con lo insuficiente, a aceptar la mediocridad como norma y a delegar en un simulacro aquello que antes exigíamos de nosotros mismos. La batalla central entonces no es solo legal, sino también cultural. La categoría de herramienta, lejos de ser inocente, es la puerta de entrada a una pedagogía global de sumisión, la cual cabe a nosotros cerrarla o no.