Ciudad de México.- Un nuevo reporte realizado por la organización Campaign for Accountability (CfA) (Campaña por la rendición de cuentas), alertó que los principales chatbots de inteligencia artificial en Estados Unidos están dirigiendo a las mujeres al número telefónico de una línea directa antiaborto y con fuerte sesgo ideológico cuando se les pregunta por las opciones disponibles durante un aborto con medicamentos, así como contribuyendo a la propagación de desinformación.
Esta advertencia surge en un momento adverso para los derechos sexuales y reproductivos de las mujeres en Estados Unidos. Con el avance de la ultraderecha, se han impulsado más barreras para impedir un aborto seguro, legal y gratuito; incluso, se han promovido iniciativas para recrudecer las condenas contra quienes decidan practicarse este procedimiento.
La regulación del acceso al aborto en Estados Unidos varía significativamente entre estados, ya que cada uno puede permitirlo, restringirlo o prohibirlo por completo. En la actualidad, las restricciones más severas se encuentran en Florida, Texas, Idaho, Dakota del Norte, Dakota del Sur, Oklahoma, Missouri, Arkansas, Luisiana, Indiana, Kentucky, West Virginia, Tennessee, Carolina del Sur, Mississippi y Alabama.

En este panorama, CfA realizó un análisis en el que formuló preguntas a cinco modelos de inteligencia artificial (ChatGPT, Google AI Model, Meta AI, Grok y Perplexity) para simular lo que una mujer podría consultar acerca de sus opciones durante un aborto con medicamentos.
Los resultados mostraron que, en respuesta al menos a una de las dos preguntas de prueba, los cinco modelos proporcionaron a las usuarias el número de la línea de ayuda antiabortista. Además, en el 50 por ciento de los casos este número fue la única referencia ofrecida, lo que intensifica la preocupación sobre el sesgo e influencia de estas plataformas.
El informe señala que estas líneas antiaborto representan un riesgo potencial, pues muchas promueven el uso dañino de la progesterona como supuesto método para revertir los efectos de la mifepristona. Esto ocurre pese al consenso entre organismos médicos, que establecen que la llamada “reversión de la píldora abortiva” no está comprobada científicamente, resulta poco ética y puede ser peligrosa para la salud de las mujeres.
Aunque algunas respuestas generadas por IA reconocieron que este procedimiento es controvertido y que las personas que atienden dichas líneas tienen un claro sesgo antiabortista, otras respuestas presentaron la línea como si fuera una fuente médica imparcial y confiable, lo que aumenta la desinformación.
En este contexto, las líneas antiaborto han logrado posicionarse y ampliar su presencia. De acuerdo con el informe, una de las principales organizaciones que operan estas líneas es Heartbeat International, declarada abiertamente antiabortista y responsable de la llamada “Línea de Ayuda para la Reversión de la Píldora Abortiva”. Las investigaciones citadas revelan que dicha organización utiliza mensajes coercitivos para difundir información errónea sobre la supuesta posibilidad y evidencia científica de la reversión.
El impacto de la IA y la desinformación sobre el aborto
El informe advierte que los sistemas de IA se entrenan con grandes cantidades de datos textuales, generalmente extraídos de internet, lo que los vuelve particularmente susceptibles a reproducir información falsa cuando el contenido predominante en un tema está lleno de declaraciones erróneas, opiniones infundadas o datos no verificados.
En ese sentido, CfA advierte que un grupo coordinado de personas en contra de los derechos de las mujeres, podría manipular los resultados de la IA produciendo un volumen de contenido mucho mayor que el generado por fuentes científicas fidedignas, inclinando así las respuestas hacia narrativas sesgadas.
Actualmente, hay un uso creciente de chatbots para consultar cuestiones médicas, sin sustento científico sólido, lo cual resulta especialmente alarmante. Un análisis realizado a ChatGPT-3.5 mostró que, aunque las respuestas explicaban de forma aceptable el uso de las píldoras abortivas, tergiversaban la información en torno al aborto y exageraban los riesgos potenciales para la salud.
Además, esta situación no es nueva, pues un informe respaldado por el Instituto Charlotte Lozier, que se opone al aborto, analizó los resultados de una encuesta diseñada para explorar qué mensajes motivaban a las mujeres a llamar a la “Línea de ayuda para la reversión de la píldora abortiva”. Los hallazgos señalan que muchas usuarias fueron influenciadas por información proveniente de la plataforma de Google.
Un experimento independiente realizado por CfA en enero de 2025 obtuvo resultados similares: la IA de Google amplificó falsos temores sobre la relación entre el aborto con medicamentos y supuestos riesgos, apoyándose en citas provenientes mayoritariamente de páginas de grupos antiaborto. Estas páginas utilizan distorsiones para generar miedo en las mujeres y persuadirlas de acudir a sus centros.
Finalmente, el informe advierte que el papel de la inteligencia artificial en la difusión de desinformación sanitaria sin base científica podría extenderse mucho más allá del aborto. Estudios aplicados a chatbots como ChatGPT demuestran que estas tecnologías aún carecen de la capacidad para comprender y contextualizar escenarios clínicos complejos, una tarea para la cual las y los profesionales de la salud están mucho mejor preparados.




