Modelos de lenguaje (LLM): una aproximación jurídico-crítica


La comercialización de ChatGPT plantea un nuevo problema jurídico y ético: la empresa desarrolladora, OpenAI, ofrece un servicio de pago que no cumple con las condiciones mínimas de veracidad, diligencia y funcionalidad exigidas por el derecho del consumidor.
Desde un punto de vista técnico, ChatGPT no es un sistema diseñado para garantizar la precisión informativa. Es un modelo de lenguaje cuyo objetivo es generar enunciados gramaticalmente plausibles, no verificar hechos ni ofrecer conclusiones exactas. Aunque la propia empresa reconoce este límite, lo presenta al público bajo el envoltorio de “inteligencia artificial” y “asistencia avanzada”, generando la impresión de que es un producto fiable y profesional.
Siendo así, la inteligencia artificial, que se presenta hoy en el espacio público como el signo de una revolución histórica, comparable a la imprenta o la electricidad, aún no presenta, a nivel de hechos materiales, una performance verosímil a la fama que genera.
Por un lado, esta narrativa parece estar cuidadosamente diseñada para dotar de aura a lo que, en términos técnicos, no es más que un conjunto de modelos estadísticos. Por otro lado, cuando la empresa alega que, por tratarse de un modelo de lenguaje en vías de desarrollo del cual no se puede esperar fiabilidad, se exime de toda y cualquier responsabilidad por las respuestas que genera su IA.
Esta discrepancia constituye un engaño estructural. El servicio se publicita como una herramienta capaz de apoyar la productividad, la investigación o la toma de decisiones, pero en realidad es un generador de texto cuya lógica está vinculada a la probabilidad estadística, no a la verdad. El sistema está diseñado para “parecer correcto”, no para “ser correcto”. Este problema de fondo, la distancia estructural entre lo que estos sistemas parecen y lo que son, se agrava al pasar del experimento gratuito a una suscripción de pago. En ese momento, nace una relación de consumo con obligaciones precisas de idoneidad, veracidad, diligencia y funcionalidad que la empresa no puede garantizar.
Al contractar la suscripción, el usuario activa una relación de consumo regulada por la Ley General para la Defensa de los Consumidores y Usuarios (Real Decreto Legislativo 1/2007). En este marco, cualquier cláusula que intente eximir a la empresa de responsabilidad es nula de pleno derecho (art. 82 y ss.), puesto que contradice la protección básica del consumidor. El hecho de que OpenAI advierta que “el modelo puede contener errores” no modifica la naturaleza contractual: se cobra por un servicio, y ese servicio debe cumplir un estándar mínimo de adecuación y fiabilidad.
Los modelos de lenguaje, como ChatGPT, no fueron diseñados para verificar hechos ni garantizar conclusiones correctas. Su lógica interna se orienta a predecir la siguiente palabra en una secuencia, optimizando la plausibilidad gramatical, no la verdad material. Emily Bender y Timnit Gebru lo han descrito con precisión al llamarlos papagayos estadísticos: dispositivos que imitan patrones lingüísticos sin comprender.
La consecuencia es doble: o generan lo que se conoce como “alucinaciones” como bibliografías inexistentes, datos verosímiles pero erróneos y explicaciones inventadas con la autoridad de un estilo académico o trasladan al usuario la carga de verificar y corregir y contrastar todas las informaciones generadas por el modelo de lenguaje, lo que no es productivo ni económico a nivel temporal, aunque el marketing empresarial sugiera lo contrario.
El proveedor sabe perfectamente que el sistema no es un asistente fiable. Sin embargo, esto no ha impedido que la empresa comercialice sus servicios, ya que el derecho del consumo es inequívoco. El Real Decreto Legislativo 1/2007, que aprueba el texto refundido de la Ley General para la Defensa de los Consumidores y Usuarios (LGDCU), establece que los servicios deben ser idóneos para su uso y conformes con lo publicitado. Cualquier cláusula que, contra la buena fe, cause un desequilibrio en perjuicio del consumidor, se considera abusiva y nula de pleno derecho (artículo 82.1). De este modo, la advertencia genérica de que “el modelo puede contener errores” no exonera a la empresa de la obligación de coherencia entre la expectativa creada y la prestación real.
La publicidad no es una metáfora inocente, sino un elemento contractual central. La cuestión no es trivial. Cuando se utiliza el término “asistente” o “copiloto”, se está configurando la percepción del consumidor medio, que no posee conocimientos técnicos suficientes para descifrar la naturaleza probabilística del sistema. La divergencia entre lo prometido y lo posible no es un accidente, sino la condición misma de la relación de consumo. El ordenamiento prevé sanciones para este tipo de desajustes. La Ley de Competencia Desleal (1991) y la Ley General de Publicidad (1988) sancionan la inducción a error en características esenciales del producto, incluida su aptitud para el uso. Un generador de frases plausibles que se anuncia como asistente profesionalizable incurre en publicidad engañosa por omisión y por acción. Eso no es un dato menor
Ahora bien, hay supuestos en que la discusión trasciende el terreno civil o administrativo y se adentra en el penal. El artículo 248 del Código Penal español tipifica la estafa como la obtención de un acto de disposición patrimonial, con ánimo de lucro, mediante engaño bastante que induce a error y produce perjuicio. Si analizamos este tipo penal a la luz del caso, los elementos encajan inquietantemente: ánimo de lucro (suscripciones y explotación de datos), engaño bastante (publicidad que induce a creer en una asistencia inteligente), error en el consumidor medio, acto de disposición patrimonial (el pago), y perjuicio (pérdida económica, tiempo, frustración y dependencia tecnológica). No toda prestación defectuosa es estafa, pero cuando el engaño es estructural y consustancial al diseño del producto, la frontera penal se acerca peligrosamente.
La discusión sobre la responsabilidad no puede limitarse a la simple negligencia. En realidad, la discrepancia entre lo que el servicio parece ser y lo que es, no es un accidente, sino una consecuencia directa del diseño del producto. Al crear un modelo que prioriza la plausibilidad estadística sobre la veracidad factual, y al vestirlo de "asistencia inteligente", la empresa desarrolladora asume el riesgo inherente de generar información errónea. Esta estrategia de diseño, que pone la apariencia por encima del rigor, constituye una forma de engaño que va más allá de una simple omisión: es una responsabilidad por diseño que la ley debería penalizar.
Este problema se agrava por la profunda asimetría de poder y conocimiento entre el proveedor y el consumidor. El usuario medio carece de los conocimientos técnicos para auditar la arquitectura del modelo, entender sus limitaciones o verificar la validez de los datos de entrenamiento. En esta relación de absoluta desventaja, el consumidor se ve forzado a aceptar términos de servicio que lo eximen de cualquier garantía, mientras la empresa capitaliza la falta de información del público.
Además, el real engaño y perjuicio en esta relación, supuestamente comercial, es aún más evidente al considerar el trasfondo de la explotación de datos. No hablamos solo de información personal básica, sino de algo mucho más profundo: patrones cognitivos, modos de razonar, hábitos de consumo y preferencias culturales. Cada interacción se convierte en material de entrenamiento para futuros moldeos y productos. El usuario, que ya paga por el servicio, también aporta gratuitamente su capital cognitivo sin ninguna compensación. Esto plantea serias dudas sobre el cumplimiento del Reglamento General de Protección de Datos (UE 2016/679), que exige base jurídica, transparencia y limitación de finalidad. La asimetría es evidente: el valor del servicio no reside en lo que ofrece, sino en lo que extrae. No es menos importante resaltar que esta explotación cognitiva se da bajo la relación comercial, es decir, el usuario paga para ser explotado y en un futuro pagará mas aún por el producto y servicio creados por la empresa como fruto y beneficio de esta explotación.
Asimismo, las objeciones habituales por parte de las empresas no resisten un análisis riguroso. Se afirma que el usuario ya sabe que la IA “no es perfecta y que puede cometer errores” pero el artículo 82 de la LGDCU neutraliza cualquier cláusula que desequilibre la relación contractual en perjuicio del consumidor: una advertencia genérica no sana una oferta engañosa. Se insiste en que “solo es una herramienta” y que la responsabilidad recae en el usuario. Sin embargo, la categoría de herramienta se transforma en dispositivo engañoso cuando la empresa lo viste con atributos de asistente inteligente, trasladando riesgos epistémicos al consumidor. Incluso se escuda alegando que sin una “ley de inteligencia artificial” no se puede exigir responsabilidad.
Por un lado, es cierto que existe un vacío legal en el tema de las IAs, postura que debería recibir muchísima más atención por la sociedad civil, con todo el error aquí es confundir lagunas normativas con inexistencia de derecho aplicable: el marco vigente, es decir consumo, publicidad, competencia desleal, datos y penal, es suficiente para emprender acciones legales.
El debate sobre una “ley de inteligencia artificial” es urgente y puede ser pertinente por razones de homogeneización internacional y reparto de responsabilidades entre actores. Sin embargo, desde el marco jurídico existente, ya es posible exigir responsabilidad a OpenAI y demás empresas en tanto que prestadoras de un servicio de pago que induce a error a sus consumidores. La ausencia de una ley específica no elimina la aplicación del derecho penal y del derecho de consumo clásicos.
De este análisis personal y no de una jurista se deriva una conclusión clara: comercializar un modelo generativo como asistente implica responsabilidades que no pueden diluirse en descargos genéricos ni en metáforas publicitarias. Si la lógica técnica prioriza la plausibilidad sobre la verdad, el proveedor debe ajustar su oferta a esa limitación o abstenerse de crear expectativas incompatibles.
La primera pedagogía crítica que debemos practicar frente a la inteligencia artificial no consiste en esperar una ley específica, sino en aplicar con rigor el derecho existente. Esa es la frontera entre el aura tecnológica y la realidad jurídica, entre la fascinación por el simulacro y la exigencia de responsabilidad. La tarea urgente, en suma, es desactivar el fetichismo tecnológico y recordar que, en la esfera del consumo, la palabra “asistente” no es poesía o metáfora, es contrato.