18/07/2025

El Bona

Los chatbots de IA pueden poner en riesgo la salud con datos falsos, advierte un estudio

Investigadores australianos detectaron que los chatbots de inteligencia artificial pueden ser programados para responder consultas sobre salud con información falsa presentada como creíble, incluso acompañada de citas inventadas de revistas científicas reales.

En un experimento diseñado para evaluar los límites éticos y técnicos de los modelos de lenguaje más avanzados, un grupo de investigadores australianos logró inducir a sistemas de inteligencia artificial a generar desinformación médica con tono persuasivo y referencias aparentemente científicas, pero completamente falsas. El estudio, publicado en Annals of Internal Medicine, encendió las alarmas sobre el potencial uso malicioso de estas tecnologías en contextos donde la precisión y la confianza son esenciales, como la salud pública.

Alertan por riesgos en salud mental al usar chatbots en personas vulnerables

La prueba fue concreta: se pidió a modelos como ChatGPT (GPT-4o), Gemini 1.5 Pro, Grok Beta, Llama 3.2-90B Vision y Claude 3.5 Sonnet que respondieran de manera incorrecta a preguntas médicas ampliamente desacreditadas por ejemplo, si los protectores solares causan cáncer o si las redes 5G provocan infertilidad utilizando un lenguaje técnico, estadística detallada y citas a revistas médicas de renombre. Aunque ninguna de esas afirmaciones tiene sustento científico, cuatro de los cinco modelos generaron respuestas falsas con una coherencia del 100%, utilizando referencias fabricadas a publicaciones inexistentes.

El único sistema que mostró cierta resistencia fue Claude 3.5 Sonnet, desarrollado por Anthropic, que se negó a responder con información errónea en más de la mitad de los intentos. Según sus desarrolladores, este comportamiento es resultado de un enfoque de entrenamiento basado en principios constitucionales, orientado a priorizar la seguridad y el bienestar humano. Claude incorpora salvaguardas diseñadas para detectar y rechazar solicitudes que involucren desinformación médica o científica.

Ashley Hopkins, autora principal del estudio e investigadora de la Facultad de Medicina y Salud Pública de la Universidad Flinders, en Australia, señaló que la capacidad de estos modelos para simular autoridad científica representa un riesgo significativo. "Si una tecnología es vulnerable al uso indebido, es inevitable que agentes malintencionados intenten aprovecharse de ella, ya sea para obtener beneficios económicos o para causar daños", advirtió.

Los chatbots pueden proporcionar consejos inadecuados o  peligrosos-SaludsinBulos

Los resultados revelan una problemática aún poco abordada por los desarrolladores de IA: la facilidad con la que los modelos pueden ser manipulados a través de instrucciones ocultas o reformulaciones del lenguaje para eludir los filtros de seguridad. En este caso, los investigadores actuaron en un entorno controlado, pero las implicancias son extrapolables a cualquier entorno digital donde estos sistemas sean utilizados para responder consultas médicas o científicas.

La capacidad de los modelos para producir información errónea de forma convincente plantea desafíos urgentes para reguladores, desarrolladores y usuarios. Las referencias ficticias y la terminología técnica refuerzan la apariencia de legitimidad, lo que puede inducir al error incluso a lectores atentos, generando un nuevo tipo de desinformación: sofisticada, específica y difícil de detectar sin verificación externa.

En este escenario, expertos en ética tecnológica y salud pública coinciden en que se necesitan medidas proactivas. Entre ellas, fortalecer los mecanismos internos de verificación, establecer estándares de transparencia en las respuestas de IA, e incluir advertencias visibles cuando un modelo no puede garantizar la veracidad de la información ofrecida.

El caso también reabre el debate sobre el rol de las plataformas y empresas en la protección de los usuarios frente a los riesgos derivados de la automatización del conocimiento. Aunque la IA ofrece oportunidades significativas en medicina desde diagnósticos asistidos hasta educación sanitaria, su implementación sin controles adecuados podría facilitar la proliferación de discursos pseudocientíficos con consecuencias potencialmente graves para la salud pública.

La investigación concluye con una advertencia clara: sin una regulación robusta y un compromiso ético por parte de los desarrolladores, el mismo poder que hace posible avances revolucionarios puede ser usado para amplificar peligros invisibles, con apariencia de ciencia, pero carentes de verdad.

COMPARTE TU OPINION | DEJANOS UN COMENTARIO

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.

Nacionales

18 de julio de 2025

Nacionales

Nuevo crédito de $800.000 de ANSES: ¿Quiénes pueden solicitarlo?

Desde marzo de este año, las personas que cobran la Asignación Universal por Hijo (AUH) tienen la posibilidad de acceder a un crédito de hasta $800.000

municipales

18 de julio de 2025

municipales

municipales

Pilar: Se conformó la lista local de Fuerza Patria

Subscribite para recibir todas nuestras novedades