{"id":187028,"date":"2025-11-04T08:28:19","date_gmt":"2025-11-04T07:28:19","guid":{"rendered":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/"},"modified":"2025-11-04T08:28:19","modified_gmt":"2025-11-04T07:28:19","slug":"los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados","status":"publish","type":"post","link":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/","title":{"rendered":"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados"},"content":{"rendered":"<p>Los modelos de lenguaje de gran tama\u00f1o (LLM, por sus siglas en ingl\u00e9s), pilares de la actual inteligencia artificial generativa, siguen mostrando importantes limitaciones a la hora de distinguir entre lo que las personas creen y lo que realmente es cierto. As\u00ed lo revela una investigaci\u00f3n liderada por James Zou, de la Universidad de Stanford (EE UU), <a href=\"https:\/\/www.nature.com\/articles\/s42256-025-01113-8\" target=\"_blank\">publicada en la revista<\/a> Nature Machine Intelligence.<\/p>\n<p>A medida que estas herramientas se integran en \u00e1reas de alto impacto como la medicina, el derecho, el periodismo o la ciencia, su incapacidad para diferenciar entre creencias y conocimiento podr\u00eda provocar diagn\u00f3sticos err\u00f3neos, juicios sesgados o la amplificaci\u00f3n de la desinformaci\u00f3n.<\/p>\n<p>En el caso de GPT-4o, la p\u00e9rdida de precisi\u00f3n al reconocer falsas creencias pas\u00f3 del\u00a098,2 al 64,4 %, y en DeepSeek R1, de m\u00e1s del\u00a090 al 14,4 %<\/p>\n<p>El equipo evalu\u00f3\u00a024 modelos de lenguaje, entre ellos GPT-4o, o3-mini, Claude-3.7, Llama-3.3, Gemini 2 Flash y DeepSeek R1, mediante un nuevo est\u00e1ndar de referencia denominado KaBLE, que incluye\u00a013 000 preguntas\u00a0distribuidas en 13 tareas epist\u00e9micas. El objetivo fue analizar la capacidad de los sistemas para distinguir entre creencias, conocimiento y hechos, en pruebas que abarcaban desde la verificaci\u00f3n (\u201cYo s\u00e9 que\u2026 entonces es verdad que\u2026\u201d), hasta la\u00a0confirmaci\u00f3n de creencias\u00a0(\u201c\u00bfJames cree que\u2026?\u201d) o el\u00a0conocimiento recursivo\u00a0(\u201cJames sabe que Mary sabe\u2026, \u00bfes verdad que\u2026?\u201d).<\/p>\n<p>Los resultados revelan limitaciones significativas. Todos los modelos fallan sistem\u00e1ticamente al reconocer falsas creencias en primera persona, con ca\u00eddas dr\u00e1sticas de precisi\u00f3n. En el caso de GPT-4o, su rendimiento pas\u00f3 del 98,2 % al 64,4 %, y en DeepSeek R1, de m\u00e1s del 90 % al 14,4 %.<\/p>\n<p>Aunque los modelos muestran alta precisi\u00f3n en la verificaci\u00f3n de afirmaciones verdaderas, su desempe\u00f1o disminuye al evaluar creencias o declaraciones sin marcadores expl\u00edcitos de verdad. En general, los investigadores concluyen que la mayor\u00eda de los modelos\u00a0carecen de una comprensi\u00f3n s\u00f3lida del v\u00ednculo entre conocimiento y verdad.<\/p>\n<p>                    <a href=\"https:\/\/www.agenciasinc.es\/Noticias\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\"><img decoding=\"async\" src=\"https:\/\/cdn.agenciasinc.es\/var\/ezwebin_site\/storage\/images\/noticias\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\/12330120-8-esl-MX\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg\" alt=\"Los chatbots de IA tienen demasiada autoconfianza, incluso cuando se equivocan\" title=\"Los chatbots de IA tienen demasiada autoconfianza, incluso cuando se equivocan\" class=\"small_fotoderecha_img\" loading=\"lazy\" \/><\/a><\/p>\n<p>                <a href=\"https:\/\/www.agenciasinc.es\/Noticias\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\" class=\"small_fotoderecha_titulo\"><\/a><\/p>\n<h3 class=\"small_fotoderecha_titulo\">Los chatbots de IA tienen demasiada autoconfianza, incluso cuando se equivocan<\/h3>\n<p>                <\/p>\n<p>                                                                                        <a href=\"https:\/\/www.agenciasinc.es\/Autor\/Antonio-Villarreal\"><br \/>\n                                Antonio Villarreal<br \/>\n                                <\/a>                                                    <\/p>\n<p><a><\/a><\/p>\n<h2>Empat\u00eda, transparencia y cautela en la IA<\/h2>\n<p>Para Pablo Haya Coll, investigador del Laboratorio de Ling\u00fc\u00edstica Inform\u00e1tica de la Universidad Aut\u00f3noma de Madrid (UAM) y director del \u00e1rea de Business &amp; Language Analytics del Instituto de Ingenier\u00eda del Conocimiento (IIC), estos hallazgos \u201cexponen una debilidad estructural en los modelos de lenguaje: sus dificultades para distinguir de manera robusta entre convicci\u00f3n subjetiva y verdad objetiva dependiendo de c\u00f3mo se formula una determinada aseveraci\u00f3n\u201d, explica al Science Media Center (SMC) Espa\u00f1a.<\/p>\n<p>Haya a\u00f1ade que \u201cesta limitaci\u00f3n tiene implicaciones cr\u00edticas en \u00e1mbitos donde esta distinci\u00f3n es esencial, como el derecho, la medicina o el periodismo, donde confundir creencia con conocimiento puede conducir a errores graves de juicio\u201d. Adem\u00e1s, relaciona el problema con lo que describe un estudio reciente de OpenAI: \u201clos modelos tienden a alucinar porque los m\u00e9todos de evaluaci\u00f3n actuales premian las respuestas seguras y completas por encima de la sinceridad epist\u00e9mica\u201d. Seg\u00fan el investigador, \u201centrenar modelos m\u00e1s cautos podr\u00eda reducir las alucinaciones, aunque a costa de perder fluidez o utilidad en algunos casos\u201d.<\/p>\n<p>Tambi\u00e9n para Josep Curto, director acad\u00e9mico del M\u00e1ster en Inteligencia de Negocios y Big Data en la Universitat Oberta de Catalunya (UOC) y profesor adjunto en IE Business School, el art\u00edculo \u201cofrece una cr\u00edtica constructiva y fundamental de los modelos de lenguaje actuales, exponiendo sistem\u00e1ticamente sus limitaciones epistemol\u00f3gicas mediante el nuevo conjunto de datos KaBLE\u201d.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.agenciasinc.es\/bundles\/app\/images\/quotebefore.png\" \/><\/p>\n<p>La IA puede tener raz\u00f3n y, aun as\u00ed, equivocarse<\/p>\n<p>Carlos Carrasco-Farr\u00e9, Toulouse Business School<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.agenciasinc.es\/bundles\/app\/images\/quoteafter.png\" \/><\/p>\n<p>\u201cEl hallazgo principal \u2014destaca Curto al SMC\u2014 pone de relieve una deficiencia cr\u00edtica: los modelos tienden a priorizar su base de conocimiento f\u00e1ctico interna por encima del reconocimiento de las convicciones subjetivas del usuario. En contextos sensibles como la salud mental, la terapia o el asesoramiento legal, esta \u2018verificaci\u00f3n de hechos\u2019 autom\u00e1tica puede socavar una implementaci\u00f3n eficaz, emp\u00e1tica y segura\u201d.<\/p>\n<p>Por su parte, Carlos Carrasco-Farr\u00e9, profesor en la Toulouse Business School (Francia), advierte al SMC Espa\u00f1a que \u201cla IA puede tener raz\u00f3n y, aun as\u00ed, equivocarse\u201d. \u201cCorregir un dato falso est\u00e1 bien \u2014explica\u2014; el problema es cuando el objetivo es reconocer la creencia de quien habla y el modelo la evita con un fact-check prematuro. Dicho de otro modo: la IA acierta el dato, pero falla a la persona.\u201d<\/p>\n<p>                    <a href=\"https:\/\/www.agenciasinc.es\/Opinion\/La-inteligencia-artificial-una-aliada-inesperada-contra-los-deepfakes\"><img decoding=\"async\" src=\"https:\/\/cdn.agenciasinc.es\/var\/ezwebin_site\/storage\/images\/opinion\/la-inteligencia-artificial-una-aliada-inesperada-contra-los-deepfakes\/12228263-5-esl-MX\/La-inteligencia-artificial-una-aliada-inesperada-contra-los-deepfakes.png\" alt=\"La inteligencia artificial, una aliada inesperada contra los \u2018deepfakes\u2019\" title=\"La inteligencia artificial, una aliada inesperada contra los \u2018deepfakes\u2019\" class=\"small_fotoderecha_img\" loading=\"lazy\" \/><\/a><\/p>\n<p>                <a href=\"https:\/\/www.agenciasinc.es\/Opinion\/La-inteligencia-artificial-una-aliada-inesperada-contra-los-deepfakes\" class=\"small_fotoderecha_titulo\"><\/a><\/p>\n<h3 class=\"small_fotoderecha_titulo\">La inteligencia artificial, una aliada inesperada contra los \u2018deepfakes\u2019<\/h3>\n<p>                <\/p>\n<p>                            Aurora Ram\u00edrez Quesada<\/p>\n<p>Carrasco-Farr\u00e9 subraya que \u201cbasta con que la creencia est\u00e9 en primera persona para que muchos modelos se equivoquen, lo que obliga a repensar las gu\u00edas de uso en contextos sensibles: primero, reconoce el estado mental; luego, corrige. Si queremos una IA segura y \u00fatil, debemos ense\u00f1arle a escuchar antes que a educar\u201d.<\/p>\n<p>El estudio concluye que estas limitaciones deben abordarse con urgencia antes de desplegar los LLM en entornos donde distinguir entre creencias y hechos es esencial. \u201cLos modelos actuales pueden reconocer datos verdaderos con alta precisi\u00f3n, pero fallan al entender la naturaleza del conocimiento humano\u201d, resumen los autores del trabajo.<\/p>\n<p>Referencia:<\/p>\n<p>Zou, J.\u00a0et al., \u201cLanguage models cannot reliably distinguish belief from knowledge and fact\u201d,\u00a0Nature Machine Intelligence, 2025.<\/p>","protected":false},"excerpt":{"rendered":"<p>Los modelos de lenguaje de gran tama\u00f1o (LLM, por sus siglas en ingl\u00e9s), pilares de la actual inteligencia artificial generativa, siguen mostrando importantes limitaciones a la hora de distinguir entre lo que las personas creen y lo que realmente es cierto. As\u00ed lo revela una investigaci\u00f3n liderada por James Zou, de la Universidad de Stanford [&hellip;]<\/p>\n","protected":false},"author":5,"featured_media":0,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[5],"tags":[],"class_list":["post-187028","post","type-post","status-publish","format-standard","hentry","category-noticias"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v20.9 (Yoast SEO v27.3) - https:\/\/yoast.com\/product\/yoast-seo-premium-wordpress\/ -->\n<title>Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados - bip4ex<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados\" \/>\n<meta property=\"og:description\" content=\"Los modelos de lenguaje de gran tama\u00f1o (LLM, por sus siglas en ingl\u00e9s), pilares de la actual inteligencia artificial generativa, siguen mostrando importantes limitaciones a la hora de distinguir entre lo que las personas creen y lo que realmente es cierto. As\u00ed lo revela una investigaci\u00f3n liderada por James Zou, de la Universidad de Stanford [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/\" \/>\n<meta property=\"og:site_name\" content=\"bip4ex\" \/>\n<meta property=\"article:published_time\" content=\"2025-11-04T07:28:19+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/cdn.agenciasinc.es\/var\/ezwebin_site\/storage\/images\/noticias\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\/12330120-8-esl-MX\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg\" \/>\n<meta name=\"author\" content=\"Luis Miguel Mej\u00edas Ramos\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Luis Miguel Mej\u00edas Ramos\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/\"},\"author\":{\"name\":\"Luis Miguel Mej\u00edas Ramos\",\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/#\\\/schema\\\/person\\\/3767b0619d59a11570372c821f8619ca\"},\"headline\":\"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados\",\"datePublished\":\"2025-11-04T07:28:19+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/\"},\"wordCount\":902,\"publisher\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/cdn.agenciasinc.es\\\/var\\\/ezwebin_site\\\/storage\\\/images\\\/noticias\\\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\\\/12330120-8-esl-MX\\\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg\",\"articleSection\":[\"Noticias\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/\",\"url\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/\",\"name\":\"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados - bip4ex\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/cdn.agenciasinc.es\\\/var\\\/ezwebin_site\\\/storage\\\/images\\\/noticias\\\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\\\/12330120-8-esl-MX\\\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg\",\"datePublished\":\"2025-11-04T07:28:19+00:00\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/#primaryimage\",\"url\":\"https:\\\/\\\/cdn.agenciasinc.es\\\/var\\\/ezwebin_site\\\/storage\\\/images\\\/noticias\\\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\\\/12330120-8-esl-MX\\\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg\",\"contentUrl\":\"https:\\\/\\\/cdn.agenciasinc.es\\\/var\\\/ezwebin_site\\\/storage\\\/images\\\/noticias\\\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\\\/12330120-8-esl-MX\\\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/#website\",\"url\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/\",\"name\":\"bip4ex\",\"description\":\"Vigilancia Tecnol\u00f3gica\",\"publisher\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/#organization\",\"name\":\"Helloproject.es\",\"url\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/bip4ex.png\",\"contentUrl\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/bip4ex.png\",\"width\":322,\"height\":365,\"caption\":\"Helloproject.es\"},\"image\":{\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/#\\\/schema\\\/logo\\\/image\\\/\"}},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/#\\\/schema\\\/person\\\/3767b0619d59a11570372c821f8619ca\",\"name\":\"Luis Miguel Mej\u00edas Ramos\",\"url\":\"https:\\\/\\\/helloproject.es\\\/vigilancia\\\/author\\\/luismi\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados - bip4ex","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/","og_locale":"es_ES","og_type":"article","og_title":"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados","og_description":"Los modelos de lenguaje de gran tama\u00f1o (LLM, por sus siglas en ingl\u00e9s), pilares de la actual inteligencia artificial generativa, siguen mostrando importantes limitaciones a la hora de distinguir entre lo que las personas creen y lo que realmente es cierto. As\u00ed lo revela una investigaci\u00f3n liderada por James Zou, de la Universidad de Stanford [&hellip;]","og_url":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/","og_site_name":"bip4ex","article_published_time":"2025-11-04T07:28:19+00:00","og_image":[{"url":"https:\/\/cdn.agenciasinc.es\/var\/ezwebin_site\/storage\/images\/noticias\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\/12330120-8-esl-MX\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg","type":"","width":"","height":""}],"author":"Luis Miguel Mej\u00edas Ramos","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Luis Miguel Mej\u00edas Ramos","Tiempo de lectura":"4 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/#article","isPartOf":{"@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/"},"author":{"name":"Luis Miguel Mej\u00edas Ramos","@id":"https:\/\/helloproject.es\/vigilancia\/#\/schema\/person\/3767b0619d59a11570372c821f8619ca"},"headline":"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados","datePublished":"2025-11-04T07:28:19+00:00","mainEntityOfPage":{"@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/"},"wordCount":902,"publisher":{"@id":"https:\/\/helloproject.es\/vigilancia\/#organization"},"image":{"@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/#primaryimage"},"thumbnailUrl":"https:\/\/cdn.agenciasinc.es\/var\/ezwebin_site\/storage\/images\/noticias\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\/12330120-8-esl-MX\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg","articleSection":["Noticias"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/","url":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/","name":"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados - bip4ex","isPartOf":{"@id":"https:\/\/helloproject.es\/vigilancia\/#website"},"primaryImageOfPage":{"@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/#primaryimage"},"image":{"@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/#primaryimage"},"thumbnailUrl":"https:\/\/cdn.agenciasinc.es\/var\/ezwebin_site\/storage\/images\/noticias\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\/12330120-8-esl-MX\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg","datePublished":"2025-11-04T07:28:19+00:00","breadcrumb":{"@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/#primaryimage","url":"https:\/\/cdn.agenciasinc.es\/var\/ezwebin_site\/storage\/images\/noticias\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\/12330120-8-esl-MX\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg","contentUrl":"https:\/\/cdn.agenciasinc.es\/var\/ezwebin_site\/storage\/images\/noticias\/los-chatbots-de-ia-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan\/12330120-8-esl-MX\/Los-chatbots-de-IA-tienen-demasiada-autoconfianza-incluso-cuando-se-equivocan.jpg"},{"@type":"BreadcrumbList","@id":"https:\/\/helloproject.es\/vigilancia\/los-modelos-de-lenguaje-aun-confunden-las-creencias-con-los-hechos-incluso-los-mas-avanzados\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/helloproject.es\/vigilancia\/"},{"@type":"ListItem","position":2,"name":"Los modelos de lenguaje a\u00fan confunden las creencias con los hechos, incluso los m\u00e1s avanzados"}]},{"@type":"WebSite","@id":"https:\/\/helloproject.es\/vigilancia\/#website","url":"https:\/\/helloproject.es\/vigilancia\/","name":"bip4ex","description":"Vigilancia Tecnol\u00f3gica","publisher":{"@id":"https:\/\/helloproject.es\/vigilancia\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/helloproject.es\/vigilancia\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/helloproject.es\/vigilancia\/#organization","name":"Helloproject.es","url":"https:\/\/helloproject.es\/vigilancia\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/helloproject.es\/vigilancia\/#\/schema\/logo\/image\/","url":"https:\/\/helloproject.es\/vigilancia\/wp-content\/uploads\/2023\/07\/bip4ex.png","contentUrl":"https:\/\/helloproject.es\/vigilancia\/wp-content\/uploads\/2023\/07\/bip4ex.png","width":322,"height":365,"caption":"Helloproject.es"},"image":{"@id":"https:\/\/helloproject.es\/vigilancia\/#\/schema\/logo\/image\/"}},{"@type":"Person","@id":"https:\/\/helloproject.es\/vigilancia\/#\/schema\/person\/3767b0619d59a11570372c821f8619ca","name":"Luis Miguel Mej\u00edas Ramos","url":"https:\/\/helloproject.es\/vigilancia\/author\/luismi\/"}]}},"_links":{"self":[{"href":"https:\/\/helloproject.es\/vigilancia\/wp-json\/wp\/v2\/posts\/187028","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/helloproject.es\/vigilancia\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/helloproject.es\/vigilancia\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/helloproject.es\/vigilancia\/wp-json\/wp\/v2\/users\/5"}],"replies":[{"embeddable":true,"href":"https:\/\/helloproject.es\/vigilancia\/wp-json\/wp\/v2\/comments?post=187028"}],"version-history":[{"count":0,"href":"https:\/\/helloproject.es\/vigilancia\/wp-json\/wp\/v2\/posts\/187028\/revisions"}],"wp:attachment":[{"href":"https:\/\/helloproject.es\/vigilancia\/wp-json\/wp\/v2\/media?parent=187028"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/helloproject.es\/vigilancia\/wp-json\/wp\/v2\/categories?post=187028"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/helloproject.es\/vigilancia\/wp-json\/wp\/v2\/tags?post=187028"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}