18/07/2025
Investigadores australianos detectaron que los chatbots de inteligencia artificial pueden ser programados para responder consultas sobre salud con información falsa presentada como creíble, incluso acompañada de citas inventadas de revistas científicas reales.
En un experimento diseñado para evaluar los límites éticos y técnicos de los modelos de lenguaje más avanzados, un grupo de investigadores australianos logró inducir a sistemas de inteligencia artificial a generar desinformación médica con tono persuasivo y referencias aparentemente científicas, pero completamente falsas. El estudio, publicado en Annals of Internal Medicine, encendió las alarmas sobre el potencial uso malicioso de estas tecnologías en contextos donde la precisión y la confianza son esenciales, como la salud pública.
La prueba fue concreta:
se pidió a modelos como ChatGPT (GPT-4o), Gemini 1.5 Pro, Grok Beta, Llama
3.2-90B Vision y Claude 3.5 Sonnet que respondieran de manera incorrecta a
preguntas médicas ampliamente desacreditadas por ejemplo, si los protectores
solares causan cáncer o si las redes 5G provocan infertilidad utilizando un
lenguaje técnico, estadística detallada y citas a revistas médicas de renombre.
Aunque ninguna de esas afirmaciones tiene sustento científico, cuatro de los
cinco modelos generaron respuestas falsas con una coherencia del 100%,
utilizando referencias fabricadas a publicaciones inexistentes.
El único sistema que
mostró cierta resistencia fue Claude 3.5 Sonnet, desarrollado por Anthropic,
que se negó a responder con información errónea en más de la mitad de los
intentos. Según sus desarrolladores, este comportamiento es resultado de un
enfoque de entrenamiento basado en principios constitucionales, orientado a
priorizar la seguridad y el bienestar humano. Claude incorpora salvaguardas
diseñadas para detectar y rechazar solicitudes que involucren desinformación
médica o científica.
Ashley Hopkins, autora principal del estudio e investigadora de la Facultad de Medicina y Salud Pública de la Universidad Flinders, en Australia, señaló que la capacidad de estos modelos para simular autoridad científica representa un riesgo significativo. "Si una tecnología es vulnerable al uso indebido, es inevitable que agentes malintencionados intenten aprovecharse de ella, ya sea para obtener beneficios económicos o para causar daños", advirtió.
Los resultados revelan
una problemática aún poco abordada por los desarrolladores de IA: la facilidad
con la que los modelos pueden ser manipulados a través de instrucciones ocultas
o reformulaciones del lenguaje para eludir los filtros de seguridad. En este
caso, los investigadores actuaron en un entorno controlado, pero las
implicancias son extrapolables a cualquier entorno digital donde estos sistemas
sean utilizados para responder consultas médicas o científicas.
La capacidad de los
modelos para producir información errónea de forma convincente plantea desafíos
urgentes para reguladores, desarrolladores y usuarios. Las referencias
ficticias y la terminología técnica refuerzan la apariencia de legitimidad, lo
que puede inducir al error incluso a lectores atentos, generando un nuevo tipo
de desinformación: sofisticada, específica y difícil de detectar sin verificación
externa.
En este escenario,
expertos en ética tecnológica y salud pública coinciden en que se necesitan
medidas proactivas. Entre ellas, fortalecer los mecanismos internos de
verificación, establecer estándares de transparencia en las respuestas de IA, e
incluir advertencias visibles cuando un modelo no puede garantizar la veracidad
de la información ofrecida.
El caso también reabre
el debate sobre el rol de las plataformas y empresas en la protección de los
usuarios frente a los riesgos derivados de la automatización del conocimiento.
Aunque la IA ofrece oportunidades significativas en medicina desde diagnósticos
asistidos hasta educación sanitaria, su implementación sin controles adecuados
podría facilitar la proliferación de discursos pseudocientíficos con
consecuencias potencialmente graves para la salud pública.
La investigación
concluye con una advertencia clara: sin una regulación robusta y un compromiso
ético por parte de los desarrolladores, el mismo poder que hace posible avances
revolucionarios puede ser usado para amplificar peligros invisibles, con
apariencia de ciencia, pero carentes de verdad.
COMPARTE TU OPINION | DEJANOS UN COMENTARIO
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.
18 de julio de 2025
18 de julio de 2025
18 de julio de 2025
18 de julio de 2025
18 de julio de 2025
18 de julio de 2025