«`html
Cuando el algoritmo alucina: el caso de Candanchú que ha encendido las alarmas en el sector Tech
Vivimos en una era donde la IA generativa en inmobiliaria prometía revolucionar la forma en que alquilamos y compramos casas. Nos vendieron eficiencia, descripciones perfectas y ventas automatizadas. Sin embargo, lo ocurrido este 30 de diciembre de 2025 en Navarra nos recuerda una lección fundamental que a menudo olvidamos entre tanto hype tecnológico: la inteligencia artificial no entiende la realidad, solo la predice. Y a veces, falla estrepitosamente.
🔥 En 3 claves:
- El incidente viral: Un anuncio de alquiler en Candanchú redactado por IA ofreció características surrealistas como «vistas al tiempo pasado».
- El problema técnico: Las «alucinaciones» de los modelos de lenguaje (LLM) inventan datos cuando no tienen supervisión humana.
- El impacto: La automatización total sin revisión está dañando la credibilidad del sector inmobiliario y generando desconfianza en el usuario.
Mientras Navarra cerraba el año con noticias sobre radares de tráfico y la trágica pérdida del montañero Eneko C. en Panticosa, una historia mucho más extraña comenzaba a circular por los grupos de WhatsApp y foros tecnológicos.
«Vistas al tiempo pasado»: La poesía accidental del error
Todo comenzó con una agencia inmobiliaria buscando agilizar sus procesos. Al utilizar una herramienta de redacción automatizada basada en IA para un apartamento en la estación de esquí de Candanchú, el resultado fue algo que ningún humano hubiese escrito jamás.

El anuncio no hablaba de metros cuadrados o calefacción central. En su lugar, el algoritmo, en un intento de ser persuasivo, describió la propiedad asegurando que tenía «vistas al tiempo pasado» y ofrecía «baños perfumados con recuerdos de infancia». Lo que para la máquina era una combinación probabilística de palabras evocadoras, para el lector humano fue un disparate absoluto.
Este fenómeno se conoce técnicamente como «alucinación». Ocurre cuando un modelo de lenguaje (LLM) llena los vacíos de información inventando datos que suenan plausibles o poéticos, pero que carecen de conexión con la realidad física.
«El anuncio afirmaba que el apartamento tenía ‘vistas al tiempo pasado’ y ‘baños perfumados con recuerdos de infancia’, un ejemplo clásico de alucinación por IA generativa.»
Por qué esto importa más allá de la anécdota
Podríamos reírnos y pasar a otra cosa —quizás a leer sobre el nuevo minilavavajillas de Lidl que también está causando furor—, pero este error señala un problema estructural en la adopción tecnológica actual. En Virtua Barcelona hemos analizado cómo la prisa por automatizar está eliminando el control de calidad humano.
Si una IA es capaz de inventar características abstractas sobre una casa, ¿qué impide que invente datos sobre la eficiencia energética, el estado de las tuberías o la legalidad de la cédula de habitabilidad? La confianza es la moneda de cambio en el sector inmobiliario, y la IA mal implementada está devaluando esa moneda a pasos agigantados.
No es un caso aislado. Expertos en tecnología advierten que confiar ciegamente en la generación de texto sin un editor humano («Human-in-the-loop») puede llevar a problemas legales por publicidad engañosa. La intención de la máquina no es engañar, sino simplemente «completar» una tarea para la que no tiene toda la información.

Para entender más sobre cómo la tecnología está redefiniendo (y a veces complicando) nuestra vida diaria, te recomendamos visitar nuestro análisis profundo en el blog.
Preguntas Frecuentes sobre IA Generativa en Inmobiliaria
¿Es legal usar IA para escribir anuncios de alquiler?
Sí, es legal utilizar herramientas de asistencia. Sin embargo, el propietario o la agencia es responsable final de la veracidad de la información. Si la IA inventa características que el piso no tiene (alucinaciones), se puede incurrir en delitos de publicidad engañosa.
¿Cómo puedo detectar si un anuncio está escrito por una IA?
Suelen tener un lenguaje excesivamente florido, repetición de adjetivos como «impresionante» o «único», y a veces, errores de lógica surrealista como el caso de Candanchú. La falta de detalles específicos (marcas de electrodomésticos, medidas exactas) también es una señal.
¿Reemplazará la IA a los agentes inmobiliarios?
No a corto plazo. Casos como este demuestran que la supervisión humana es crítica. La IA funcionará como un copiloto para tareas administrativas, pero la empatía, la negociación y la verificación física de las propiedades siguen siendo dominios exclusivamente humanos.
Fuente Original: Noticias de Navarra.
«`