Un estudio en preimpresión sobre modelos de lenguaje a gran escala halló que los resúmenes de productos generados por IA hicieron que los lectores tuvieran un 32% más de probabilidad de decir que comprarían, aunque los mismos modelos inventaron hechos en aproximadamente el 60% de los casos. El hallazgo, obtenido a partir de experimentos que usaron un conocido conjunto de datos de reseñas de Amazon, plantea una pregunta directa para los compradores en línea y las plataformas que los sirven: ¿qué sucede cuando el texto que empuja a la gente hacia una compra es fluido, persuasivo y con frecuencia incorrecto?
Las cifras detrás de la persuasión
La investigación, titulada Quantifying cognitive bias, midió varias formas en que los modelos de lenguaje distorsionan cómo las personas procesan la información sobre productos. Los participantes que leyeron resúmenes generados por IA mostraron una probabilidad de compra un 32% mayor en comparación con las condiciones de control. Los mismos modelos exhibieron un cambio de encuadre del 26,42%, lo que significa que alteraron sistemáticamente la forma en que se presentaban los atributos del producto, y un sesgo de primacía del 10,12%, donde los elementos mencionados primero recibían un peso desproporcionado. En preguntas sobre hechos fuera de los datos de entrenamiento de los modelos, la tasa de alucinaciones alcanzó el 60,33%.
Esas cuatro métricas cuentan una historia coherente. Los modelos no solo resumen; reconfiguran cómo se percibe la información. Los efectos de enmarcado y el sesgo de primacía son atajos cognitivos bien documentados en la psicología humana. Cuando un resumen encabeza con las fortalezas de un producto y oculta sus inconvenientes, o cuando fabrica una especificación que el comprador no puede verificar rápidamente, el resultado es un lector que se siente informado pero que puede no estarlo. El aumento del 32% en la intención de compra no ocurre a pesar de los errores. Puede ocurrir en parte por ellos, ya que un texto confiado y rico en detalles se percibe como autoritario incluso cuando los detalles son inventados.
Cómo se diseñó el experimento
El estudio obtuvo sus reseñas de producto de un gran corpus de Amazon comúnmente citado como Ni et al. (2019). Ese conjunto de datos compila millones de opiniones escritas por usuarios en decenas de categorías de productos, desde electrónica hasta libros, y se ha convertido en un referente estándar para la investigación en recomendación y resumen. Al alimentar reseñas reales de consumidores a modelos de lenguaje y luego probar cómo los resúmenes resultantes afectaban el juicio humano, los investigadores aislaron la brecha entre lo que los compradores dijeron realmente y lo que la IA les dijo a nuevos lectores que dijeron.
Este diseño experimental importa porque refleja lo que ya están haciendo las grandes plataformas de comercio electrónico. Cuando un minorista usa un modelo de lenguaje para condensar cientos de reseñas en un párrafo breve, la salida lleva la autoridad de la sabiduría colectiva pero la voz de un único algoritmo. Los resultados del estudio sugieren que esa voz no es neutral.
Cuando etiquetar la IA sale mal
Una línea separada de investigación complica aún más el panorama. Experimentos de la Washington State University encontraron que el simple uso del término “inteligencia artificial” en las descripciones de productos redujo la intención de compra en diversas categorías. La respuesta negativa fue incluso más fuerte para ofertas de alto riesgo, como dispositivos médicos o herramientas financieras, donde los consumidores parecen especialmente recelosos de la toma de decisiones automatizada.
Si se ponen estos hallazgos lado a lado emerge una paradoja. Los resúmenes generados por IA aumentan la intención de compra cuando los lectores no saben que el texto proviene de una máquina. Pero en el momento en que una plataforma revela el papel de la IA, la confianza cae, especialmente en compras donde la precisión importa más. Esa tensión crea un incentivo perverso: los minoristas se benefician de desplegar resúmenes de IA discretamente y pierden clientes cuando son transparentes al respecto. Para los compradores, la conclusión práctica es contundente. El resumen más persuasivo en una página de producto puede ser el que menos probabilidades tenga de llevar una etiqueta de divulgación.
Velocidad, precio y el atajo decisorio
Investigaciones econométricas de la Arizona State University y la Nankai University añaden otra dimensión. Ziru Li y Jialin Nie examinaron cómo los resúmenes de productos generados por IA afectan la velocidad de compra y encontraron, mediante análisis econométricos robustos, que el efecto fue más pronunciado en productos de menor precio. Eso se alinea con un principio básico del comportamiento del consumidor: cuando las apuestas financieras son pequeñas, las personas dependen más de atajos. Un resumen conciso y seguro elimina la necesidad de desplazarse por docenas de reseñas, y a un precio de 15 dólares, pocos compradores contrastarán las afirmaciones de la IA con el texto original.
Trabajos separados sobre plataformas en línea confirman que las reseñas de productos se han convertido en un punto de referencia principal para las decisiones de compra. A medida que los resúmenes de IA reemplazan el acto de leer reseñas individuales, concentran la influencia en un único párrafo generado algorítmicamente. La ganancia de eficiencia es real, pero también lo es la pérdida de información.
El sesgo cognitivo como resultado medible
Los patrones de sesgo identificados en el preprint no son nuevos en la investigación sobre IA. Trabajos anteriores de autores con superposición, incluidos Echterhoff, Alessa y McAuley, introdujeron un marco llamado BiasBuster junto con un conjunto de indicaciones de prueba de miles de prompts diseñados para evaluar y mitigar las distorsiones sistemáticas en las salidas de los modelos. El nuevo estudio extiende esa agenda desde el comportamiento del modelo en abstracto hasta resultados concretos para el consumidor: no solo si un resumen está sesgado, sino si ese sesgo empuja de forma fiable a las personas hacia decisiones diferentes.
El cambio de encuadre en este contexto captura cómo el modelo reordena o reformula la información en relación con las reseñas subyacentes. Un producto que recibe opiniones mixtas sobre la durabilidad pero comentarios entusiastas sobre el estilo podría salir del proceso de resumido como “con estilo y bien construido”, con las quejas sobre durabilidad relegadas a una vaga mención de “algunos problemas menores”. El sesgo de primacía amplifica entonces la afirmación inicial; los lectores se anclan en los primeros atributos que ven y descuentan las calificaciones posteriores.
Las alucinaciones añaden otra vuelta de tuerca. Cuando el modelo afirma con confianza que una licuadora es «libre de BPA» o que unos auriculares soportan un códec específico, puede crear la ilusión de una diligencia debida. La tasa de alucinaciones del 60,33% en preguntas fuera del entrenamiento sugiere que, en muchos casos, los detalles que suenan más específicos son precisamente donde la realidad y el texto divergen. Para artículos de bajo costo, esto puede traducirse en decepciones menores. Para productos de mayor riesgo, puede suponer riesgos de seguridad o exposición financiera.
Incentivos de las plataformas y vacíos en las políticas
Para las plataformas de comercio electrónico, estos hallazgos agudizan un intercambio incómodo. Los resúmenes de IA aumentan demostrablemente la conversión, especialmente para bienes más baratos, al acelerar las decisiones y suavizar las reseñas contradictorias. Al mismo tiempo, etiquetar esos resúmenes como generados por máquina puede deprimir la demanda, particularmente en categorías sensibles. La movida empresarial racional, en ausencia de regulación o presión reputacional, es apostar por la IA minimizando las divulgaciones visibles.
Los reguladores y los defensores del consumidor están empezando a centrarse en la transparencia alrededor de las recomendaciones automatizadas, pero la investigación sugiere que la divulgación por sí sola puede no ser suficiente. Si una etiqueta breve reduce la confianza sin capacitar a los compradores para detectar alucinaciones o sesgos, corre el riesgo de convertirse en un ejercicio de cumplimiento formal. Salvaguardas más sustantivas podrían incluir acceso lado a lado a las reseñas originales, resúmenes estandarizados de comentarios negativos o señales automáticas cuando un modelo parece inventar especificaciones que no están presentes en los comentarios de usuarios.
También existe una dimensión competitiva. Los minoristas que inviertan en un diseño cuidadoso de prompts y en posprocesamiento para frenar las alucinaciones pueden encontrarse en desventaja a corto plazo frente a rivales que toleren resúmenes más agresivos y halagadores. Hasta que la precisión y la equidad formen parte de la evaluación de las plataformas (por reguladores, organismos de control o consumidores), el mercado tenderá a premiar la persuasión por encima de la precisión.
Qué pueden hacer los compradores ahora
Para los compradores individuales, la respuesta más segura no es abandonar por completo los resúmenes asistidos por IA, sino tratarlos como un punto de partida en lugar de un veredicto. Cuando un producto importa (porque es caro, crítico para la seguridad o difícil de devolver), hojear una muestra de reseñas originales puede revelar si el resumen minimiza quejas recurrentes. Las afirmaciones técnicas específicas, como compatibilidad o detalles de ingredientes, merecen ser comprobadas contra la descripción del fabricante en lugar de confiar en el tono confiado de un modelo generativo.
Los consumidores también pueden estar atentos a señales lingüísticas. Un lenguaje excesivamente entusiasta, referencias vagas a “algunos usuarios” sin cuantificación o especificaciones extrañamente precisas pero no verificadas son indicios de que el resumen puede estar optimizando para la persuasión en lugar de la exactitud. En ese sentido, el auge del contenido generado por IA simplemente eleva la exigencia sobre una antigua regla del comercio en línea: si una descripción suena demasiado ajustada a tus esperanzas, merece una segunda mirada.
El registro emergente de investigación, que abarca la inducción de sesgos cognitivos, los efectos de la divulgación, el análisis econométrico de la velocidad de compra y la centralidad de las reseñas en el comercio digital, apunta en la misma dirección. Los modelos generativos no son solo otra capa de interfaz sobre la información existente. Son participantes activos en la formación de lo que la gente cree sobre los productos y en la rapidez con que decide. Mientras las plataformas se apresuran a desplegar estas herramientas a escala, la pregunta ya no es si la IA influirá en lo que compramos, sino si alguien será responsable cuando sus errores fluidos nos empujen hacia la elección equivocada.