{"id":126522,"date":"2026-05-06T03:38:00","date_gmt":"2026-05-06T06:38:00","guid":{"rendered":"https:\/\/laurbedigital.com.ar\/noticias\/?p=126522"},"modified":"2026-05-06T03:38:00","modified_gmt":"2026-05-06T06:38:00","slug":"la-inteligencia-artificial-en-salud-falla-en-el-50-de-sus-respuestas","status":"publish","type":"post","link":"https:\/\/laurbedigital.com.ar\/noticias\/2026\/05\/06\/la-inteligencia-artificial-en-salud-falla-en-el-50-de-sus-respuestas\/","title":{"rendered":"La inteligencia artificial en salud falla en el 50% de sus respuestas"},"content":{"rendered":"<p data-path-to-node=\"2\">La r\u00e1pida adopci\u00f3n de los chats de inteligencia artificial (IA) generativa ha transformado la manera en que la sociedad accede a la informaci\u00f3n. Muchos usuarios los utilizan hoy como sustitutos de los motores de b\u00fasqueda tradicionales para consultas m\u00e9dicas cotidianas. Sin embargo, una investigaci\u00f3n internacional publicada este martes en la prestigiosa revista <i data-path-to-node=\"2\" data-index-in-node=\"363\">BMJ Open<\/i> revela que confiar en estas herramientas para obtener consejos de salud puede ser una apuesta arriesgada y, en muchos casos, perjudicial.<\/p>\n<p data-path-to-node=\"3\">El estudio, liderado por investigadores del Instituto Lundquist para la Innovaci\u00f3n Biom\u00e9dica (EE. UU.), evalu\u00f3 el desempe\u00f1o de cinco de los modelos m\u00e1s utilizados en la actualidad: Gemini (Google), DeepSeek, Meta AI, ChatGPT (OpenAI) y Grok (xAI). Los resultados son contundentes y preocupantes: la mitad de las respuestas a preguntas basadas en evidencia cient\u00edfica se clasificaron como \u201calgo\u201d o \u201caltamente\u201d problem\u00e1ticas.<\/p>\n<h4 data-path-to-node=\"4\">Un protocolo de estr\u00e9s para la tecnolog\u00eda<\/h4>\n<p data-path-to-node=\"5\">Para poner a prueba la fiabilidad de estos sistemas, los cient\u00edficos dise\u00f1aron un protocolo de 250 consultas divididas en cinco categor\u00edas cr\u00edticas: c\u00e1ncer, vacunas, c\u00e9lulas madre, nutrici\u00f3n y rendimiento deportivo. Las preguntas fueron formuladas para imitar las b\u00fasquedas comunes de los usuarios y, en algunos casos, para \u00abestresar\u00bb a los modelos hacia mitos comunes o consejos contraindicados.<\/p>\n<p data-path-to-node=\"6\">El an\u00e1lisis determin\u00f3 que el 20% de las respuestas eran altamente problem\u00e1ticas, con el potencial de dirigir a los usuarios hacia tratamientos ineficaces o causar da\u00f1os directos a la salud si se segu\u00edan sin supervisi\u00f3n profesional. Este margen de error resulta inaceptable en un contexto donde la precisi\u00f3n puede determinar la vida de una persona.<\/p>\n<h4 data-path-to-node=\"7\">El espejismo de la neutralidad y el conocimiento<\/h4>\n<p data-path-to-node=\"8\">Uno de los aspectos m\u00e1s alarmantes que destaca la investigaci\u00f3n es la seguridad con la que las IA presentan la informaci\u00f3n. Las respuestas se expresan habitualmente con un tono de certeza absoluta, sin incluir apenas advertencias o matices sobre las limitaciones de su conocimiento. Esta falsa neutralidad, que a menudo equipara afirmaciones cient\u00edficas con pseudociencias, no es una decisi\u00f3n editorial consciente, sino una limitaci\u00f3n propia de la arquitectura t\u00e9cnica de estos modelos de lenguaje.<\/p>\n<p data-path-to-node=\"9\">\u00abMucha gente tiende a pensar que los chatbots son IA omniscientes con un pozo profundo de conocimiento. Pero no poseen conocimiento en el sentido humano; no \u2018saben\u2019 cosas\u00bb, explica Nicholas Tiller, investigador principal del estudio y profesional del Lundquist Institute (UCLA). Seg\u00fan el experto, al estar dise\u00f1ados para predecir secuencias de palabras basadas en vastos conjuntos de datos \u2014que incluyen desde art\u00edculos cient\u00edficos hasta foros de Reddit sin curadur\u00eda\u2014, los modelos carecen de la capacidad intr\u00ednseca para verificar la veracidad de lo que generan.<\/p>\n<h4 data-path-to-node=\"10\">El riesgo de la falsa credibilidad acad\u00e9mica<\/h4>\n<p data-path-to-node=\"11\">El estudio revela variaciones significativas entre las plataformas. Grok, de la compa\u00f1\u00eda xAI (propiedad de Elon Musk), obtuvo los peores resultados: el 58% de sus respuestas fueron clasificadas como altamente problem\u00e1ticas. Por el contrario, Gemini present\u00f3 el menor n\u00famero de fallos cr\u00edticos, aunque no estuvo exento de errores de fondo.<\/p>\n<p data-path-to-node=\"12\">Sin embargo, todos los modelos fallaron en un punto clave: la accesibilidad del lenguaje. Seg\u00fan el \u00edndice de legibilidad de Flesch, la complejidad del lenguaje utilizado es equivalente a la de un graduado universitario. Lejos de ser una virtud, esto supone un peligro para la salud p\u00fablica. \u00abLas respuestas excesivamente t\u00e9cnicas pueden socavar la comprensi\u00f3n en el p\u00fablico general y comprometer la toma de decisiones\u00bb, advierte Tiller.<\/p>\n<p data-path-to-node=\"13\">Existe, adem\u00e1s, un fen\u00f3meno psicol\u00f3gico preocupante identificado en la investigaci\u00f3n: las respuestas m\u00e1s largas y complejas tienden a aumentar la confianza del usuario en la m\u00e1quina, incluso cuando esa complejidad no aporta mayor precisi\u00f3n. Este mecanismo promueve una \u00abfalsa credibilidad\u00bb que puede convencer al paciente de abandonar tratamientos validados por profesionales humanos.<\/p>\n<h4 data-path-to-node=\"14\">Alucinaciones y citas inventadas: el gran vac\u00edo legal<\/h4>\n<p data-path-to-node=\"15\">Otro punto cr\u00edtico identificado por los investigadores es la incapacidad de los chatbots para citar fuentes de manera fiable. La calidad de las referencias fue calificada como pobre, con una puntuaci\u00f3n media de integridad de apenas el 40%. El fen\u00f3meno conocido como \u00abalucinaciones\u00bb \u2014donde la IA inventa informaci\u00f3n de forma coherente\u2014 provoc\u00f3 que ning\u00fan chatbot lograra proporcionar una lista de referencias bibliogr\u00e1ficas completamente real. En muchos casos, los modelos inventaron t\u00edtulos de estudios y nombres de autores con total apariencia de veracidad para respaldar afirmaciones err\u00f3neas.<\/p>\n<p data-path-to-node=\"16\">Esta falta de rigor cient\u00edfico es lo que separa a un profesional de la salud de un algoritmo de predicci\u00f3n estad\u00edstica. Mientras que un m\u00e9dico debe rendir cuentas ante comit\u00e9s \u00e9ticos y marcos legales, el chatbot opera en un vac\u00edo regulatorio que diluye la responsabilidad ante el error.<\/p>\n<h4 data-path-to-node=\"17\">Conclusi\u00f3n: la necesidad de una supervisi\u00f3n estricta<\/h4>\n<p data-path-to-node=\"18\">A medida que el uso de estos asistentes virtuales se expande, los datos resaltan la necesidad urgente de una educaci\u00f3n p\u00fablica robusta, formaci\u00f3n para los profesionales de la salud que asisten a estos pacientes y una supervisi\u00f3n regulatoria estricta sobre las empresas tecnol\u00f3gicas.<\/p>\n<p data-path-to-node=\"19\">Sin estos mecanismos de control, el despliegue masivo de la IA generativa en el \u00e1mbito m\u00e9dico corre el riesgo de erosionar la confianza en la ciencia y de amplificar la desinformaci\u00f3n global. La tecnolog\u00eda debe ser una herramienta de apoyo, nunca un sustituto de la consulta profesional. La salud humana es demasiado compleja para ser gestionada por un sistema que, en esencia, solo est\u00e1 tratando de adivinar cu\u00e1l es la siguiente palabra en una frase.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La r\u00e1pida adopci\u00f3n de los chats de inteligencia artificial (IA) generativa ha transformado la manera en que la sociedad accede<\/p>\n","protected":false},"author":1,"featured_media":126523,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"kia_subtitle":"Un estudio internacional advierte que la mitad de la informaci\u00f3n m\u00e9dica proporcionada por modelos como ChatGPT y Gemini es imprecisa o peligrosa, poniendo en riesgo la seguridad de los pacientes.","footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[15,70],"tags":[],"class_list":["post-126522","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tendencias","category-salud"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/laurbedigital.com.ar\/noticias\/wp-content\/uploads\/2026\/05\/20260506-chatgpt.png","_links":{"self":[{"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/posts\/126522","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/comments?post=126522"}],"version-history":[{"count":1,"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/posts\/126522\/revisions"}],"predecessor-version":[{"id":126524,"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/posts\/126522\/revisions\/126524"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/media\/126523"}],"wp:attachment":[{"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/media?parent=126522"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/categories?post=126522"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/laurbedigital.com.ar\/noticias\/wp-json\/wp\/v2\/tags?post=126522"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}