Un informe explosivo revela cómo los algoritmos de las Big Tech priorizan la desinformación ideológica sobre la evidencia médica en temas de vida o muerte.
Imagina buscar ayuda médica urgente y ser dirigido no a un doctor, sino a un grupo de presión ideológico. Esto ha dejado de ser una distopía para convertirse en un escándalo tecnológico mayúsculo. Un informe demoledor publicado por la Campaign for Accountability ha sacudido los cimientos de Silicon Valley, exponiendo cómo los modelos de IA más avanzados del mundo —desde ChatGPT hasta Gemini— están poniendo en riesgo la salud de miles de mujeres.
🔥 En 3 claves:
- Falso consejo médico: El 70% de las respuestas de las grandes IAs dirigen a usuarias a «revertir» abortos con métodos no científicos.
- Los culpables: OpenAI, Google, Meta, xAI y Perplexity citan fuentes antiaborto como si fueran autoridades sanitarias neutrales.
- Peligro real: Expertos advierten que seguir estos protocolos puede causar hemorragias graves y retrasar la atención médica crítica.
La premisa del estudio fue simple pero escalofriante: simular a una mujer en crisis. Los investigadores preguntaron a las cinco grandes plataformas si era posible «revertir una píldora abortiva» tras tomar mifepristona. La respuesta de la tecnología no fue la ciencia, fue el dogma.
Cuando el algoritmo alucina con la salud pública
El problema no es que la IA no sepa la respuesta; el problema es a quién considera una autoridad. Según la investigación de la Campaign for Accountability, en lugar de citar a la OMS o al Colegio Americano de Obstetras y Ginecólogos (ACOG), los chatbots dirigían sistemáticamente a las usuarias a Heartbeat International.
Esta organización, abiertamente antiaborto, promueve la ingesta masiva de progesterona para «revertir» el efecto de los fármacos abortivos. Un procedimiento que no solo carece de aval científico, sino que es potencialmente letal. Y aquí viene lo interesante: para la IA, estos datos tienen el mismo peso que un paper médico revisado por pares.

El equipo investigador realizó las pruebas en modo incógnito para evitar sesgos de personalización. El resultado fue consistente: las plataformas de Google, Meta y la xAI de Elon Musk actuaron como megáfonos de desinformación médica, presentando líneas de ayuda ideológicas como si fueran centros de salud acreditados.
La batalla del SEO contra la Ciencia
¿Por qué ocurre esto? La respuesta técnica es tan frustrante como peligrosa. Los modelos de lenguaje (LLMs) se alimentan de lo que encuentran en la web. Durante años, los «centros de crisis del embarazo» han invertido millones en SEO (posicionamiento en buscadores) para que sus artículos sobre la reversión del aborto aparezcan primero.
Como resultado, hay una desproporción de contenido: existe más texto en internet promoviendo esta pseudociencia que artículos médicos desmintiéndola. La IA, al no tener criterio ético intrínseco, simplemente repite lo que más «suena» en la red. Es el triunfo del marketing sobre la medicina.
«Estos sistemas están privilegiando la cantidad por encima de la calidad. Aquel contenido que aparece más veces, aunque sea dañino o médicamente falso, termina teniendo mayor peso en las respuestas generadas.»
Para profundizar en cómo los sesgos algorítmicos afectan nuestra percepción de la realidad, puedes leer nuestros análisis previos en el blog de Virtua Barcelona, donde desgranamos la ética detrás del código.
El silencio de las Big Tech y la «bazofia humana»
La reacción de las tecnológicas ha sido, en su mayoría, un silencio ensordecedor. Ni OpenAI, ni Google, ni Meta han respondido oficialmente a las acusaciones de la Campaign for Accountability. La única excepción fue Perplexity.
Un portavoz de la startup admitió que su modelo no es infalible, pero lanzó la culpa hacia afuera, refiriéndose al contenido de baja calidad de la web como «bazofia humana». Una defensa débil cuando se trata de salud reproductiva. Mientras tanto, en Virtua Barcelona seguimos monitoreando cómo estas herramientas moldean la opinión pública.
Consecuencias reales: Sangre y tribunales
Esto no es un debate teórico. La promoción de la «reversión del aborto» ya tiene víctimas. En 2020, un ensayo clínico sobre este procedimiento tuvo que detenerse de emergencia porque las pacientes empezaron a sufrir hemorragias severas y tuvieron que ser hospitalizadas.
Además, la confusión generada por estos centros ya ha llegado a los tribunales. En Massachusetts, una mujer demandó a una clínica asociada a Heartbeat International por fallar en diagnosticar un embarazo ectópico, una condición mortal si no se trata, debido a su agenda ideológica. La IA, al recomendar estos centros, se convierte en cómplice involuntario de estas negligencias.

Preguntas Frecuentes sobre IA y Salud Reproductiva
¿Es posible revertir un aborto farmacológico de manera segura?
No existe evidencia científica avalada que lo respalde. Organizaciones como el ACOG y la Asociación Médica Estadounidense advierten que los tratamientos de reversión con progesterona no son seguros y pueden conllevar riesgos graves como hemorragias incontrolables.
¿Qué plataformas de IA fallaron en la prueba de Campaign for Accountability?
El informe señala específicamente a ChatGPT (OpenAI), Gemini (Google), Meta AI, Grok (xAI) y Perplexity. En el 70% de los casos probados, proporcionaron información de contacto de grupos antiaborto en lugar de asistencia médica neutral.
¿Por qué la IA recomienda información médica peligrosa?
Las IAs funcionan por probabilidad y repetición, no por veracidad. Si grupos de presión generan miles de artículos con información falsa pero bien posicionada (SEO), el modelo puede interpretar esa «cantidad» como «autoridad», replicando el error en sus respuestas.
Fuente original del reporte: Bloomberg Linea. Para información médica, consulte siempre a un profesional certificado y no a un chatbot.