{"id":40185,"date":"2025-08-13T11:30:08","date_gmt":"2025-08-13T15:30:08","guid":{"rendered":"https:\/\/noticiasveraces.com\/?p=40185"},"modified":"2025-08-13T11:30:08","modified_gmt":"2025-08-13T15:30:08","slug":"hombre-hospitalizado-despues-de-chatgpt-el-consejo-dietetico-conduce-a-envenenamiento-toxico","status":"publish","type":"post","link":"https:\/\/noticiasveraces.com\/?p=40185","title":{"rendered":"Hombre hospitalizado despu\u00e9s de Chatgpt El consejo diet\u00e9tico conduce a envenenamiento t\u00f3xico"},"content":{"rendered":"<p> \n<\/p>\n<div>\n<div id=\"beyondwords-wrapper\" class=\"beyondwords-wrapper\">\n<p><span class=\"label-bg\">NUEVO<\/span>\u00a1Ahora puedes escuchar art\u00edculos de Fox News!\n  <\/p>\n<\/div>\n<p class=\"speakable\">Un hombre que us\u00f3 ChatGPT para consejos diet\u00e9ticos termin\u00f3 envenen\u00e1ndose a s\u00ed mismo y termin\u00f3 en el hospital.<\/p>\n<p class=\"speakable\">El hombre de 60 a\u00f1os, que buscaba eliminar la sal de la mesa de su dieta por razones de salud, utiliz\u00f3 el modelo de lenguaje grande (LLM) para obtener sugerencias sobre qu\u00e9 reemplazarla, seg\u00fan un estudio de caso publicado esta semana en los Anales de la Medicina Interna.<\/p>\n<p>Cuando ChatGPT sugiri\u00f3 intercambiar cloruro de sodio (sal de mesa) por el bromuro de sodio, el hombre hizo el reemplazo por un per\u00edodo de tres meses, aunque, se\u00f1al\u00f3 el art\u00edculo de la revista, la recomendaci\u00f3n probablemente se refer\u00eda a \u00e9l para otros fines, como la limpieza.<\/p>\n<p><strong><u>ChatGPT podr\u00eda volver a cablear su cerebro en silencio mientras los expertos instan a la precauci\u00f3n para el uso a largo plazo<\/u><\/strong><\/p>\n<p>El bromuro de sodio es un compuesto qu\u00edmico que se asemeja a la sal, pero es t\u00f3xico para el consumo humano. <\/p>\n<p>Una vez se us\u00f3 como anticonvulsivo y sedante, pero hoy se usa principalmente para fines de limpieza, fabricaci\u00f3n y agr\u00edcola, seg\u00fan los Institutos Nacionales de Salud.<\/p>\n<div class=\"image-ct inline\">\n<div class=\"m\"><picture><source media=\"(max-width: 767px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/343\/192\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/686\/384\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&amp;tl=1 2x\" height=\"192\" width=\"343\"><source media=\"(min-width: 768px) and (max-width: 1023px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/672\/378\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/1344\/756\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&amp;tl=1 2x\" height=\"378\" width=\"672\"><source media=\"(min-width: 1024px) and (max-width: 1279px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/931\/523\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/1862\/1046\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&amp;tl=1 2x\" height=\"523\" width=\"931\"><source media=\"(min-width: 1280px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/720\/405\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/1440\/810\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&amp;tl=1 2x\" height=\"405\" width=\"720\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/1200\/675\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&amp;tl=1\" alt=\"Los estafadores pueden explotar sus datos de solo 1 b\u00fasqueda de chatgpt\" width=\"1200\" height=\"675\"\/><\/source><\/source><\/source><\/source><\/picture><\/div>\n<div class=\"info\">\n<div class=\"caption\">\n<p><span>Un hombre que us\u00f3 ChatGPT para consejos diet\u00e9ticos termin\u00f3 envenen\u00e1ndose a s\u00ed mismo y termin\u00f3 en el hospital.<\/span> <span>(Kurt \u00abCyberguy\u00bb Knutsson)<\/span><\/p>\n<\/div>\n<\/div>\n<\/div>\n<p>Cuando el hombre lleg\u00f3 al hospital, inform\u00f3 haber experimentado fatiga, insomnio, mala coordinaci\u00f3n, acn\u00e9 facial, angiomas de cereza (protuberancias rojos en la piel) y sed excesivas, todos los s\u00edntomas del bromismo, una condici\u00f3n causada por la exposici\u00f3n a largo plazo al bromuro de sodio.<\/p>\n<p>El hombre tambi\u00e9n mostr\u00f3 signos de paranoia, se\u00f1al\u00f3 el estudio de caso, ya que afirm\u00f3 que su vecino estaba tratando de envenenarlo.<\/p>\n<p><strong><u>La inteligencia artificial detecta el c\u00e1ncer con un 25% mayor de precisi\u00f3n que los m\u00e9dicos en el estudio de UCLA<\/u><\/strong><\/p>\n<p>Tambi\u00e9n se descubri\u00f3 que ten\u00eda alucinaciones auditivas y visuales, y finalmente fue puesto en espera psiqui\u00e1trica despu\u00e9s de intentar escapar. <\/p>\n<p>El hombre fue tratado con fluidos intravenosos y electrolitos, y tambi\u00e9n se puso en medicamentos antipsic\u00f3ticos. Fue dado de alta del hospital despu\u00e9s de tres semanas de monitoreo.<\/p>\n<p>\u00abEste caso tambi\u00e9n destaca c\u00f3mo el uso de la inteligencia artificial (IA) puede contribuir potencialmente al desarrollo de resultados de salud adversos prevenibles\u00bb, escribieron los investigadores en el estudio de caso.<\/p>\n<blockquote class=\"pull-quote\">\n<p class=\"quote-text\">\u00abEstas son herramientas de predicci\u00f3n del lenguaje: carecen de sentido com\u00fan y dar\u00e1n lugar a resultados terribles si el usuario humano no aplica su propio sentido com\u00fan\u00bb.<\/p>\n<p> <!----><\/p><\/blockquote>\n<p>\u00abDesafortunadamente, no tenemos acceso a su registro de conversaci\u00f3n de ChatGPT y nunca podremos saber con certeza cu\u00e1l era exactamente el resultado que recibi\u00f3, ya que las respuestas individuales son \u00fanicas y se construyen a partir de entradas anteriores\u00bb.<\/p>\n<p>Es \u00abmuy poco probable\u00bb que un m\u00e9dico humano hubiera mencionado el bromuro de sodio al hablar con un paciente que busca un sustituto del cloruro de sodio, se\u00f1alaron.<\/p>\n<p><strong><u>Los nuevos an\u00e1lisis de herramientas de inteligencia artificial se enfrentan a las fotos para predecir los resultados de salud<\/u><\/strong><\/p>\n<p>\u00abEs importante considerar que ChatGPT y otros sistemas de IA pueden generar inexactitudes cient\u00edficas, carecen de la capacidad de discutir cr\u00edticamente los resultados y, en \u00faltima instancia, alimentar la propagaci\u00f3n de la informaci\u00f3n err\u00f3nea\u00bb, concluyeron los investigadores.<\/p>\n<p>El Dr. Jacob Glanville, CEO de Centivax, una compa\u00f1\u00eda de biotecnolog\u00eda de San Francisco, enfatiz\u00f3 que las personas no deber\u00edan usar ChatGPT como sustituto de un m\u00e9dico.<\/p>\n<div class=\"image-ct inline\">\n<div class=\"m\"><picture><source media=\"(max-width: 767px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/343\/192\/man-pouring-salt-into-pot.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/686\/384\/man-pouring-salt-into-pot.jpg?ve=1&amp;tl=1 2x\" height=\"192\" width=\"343\"><source media=\"(min-width: 768px) and (max-width: 1023px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/672\/378\/man-pouring-salt-into-pot.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/1344\/756\/man-pouring-salt-into-pot.jpg?ve=1&amp;tl=1 2x\" height=\"378\" width=\"672\"><source media=\"(min-width: 1024px) and (max-width: 1279px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/931\/523\/man-pouring-salt-into-pot.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/1862\/1046\/man-pouring-salt-into-pot.jpg?ve=1&amp;tl=1 2x\" height=\"523\" width=\"931\"><source media=\"(min-width: 1280px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/720\/405\/man-pouring-salt-into-pot.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/1440\/810\/man-pouring-salt-into-pot.jpg?ve=1&amp;tl=1 2x\" height=\"405\" width=\"720\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/1200\/675\/man-pouring-salt-into-pot.jpg?ve=1&amp;tl=1\" alt=\"Hombre vertiendo sal en la olla\" width=\"1200\" height=\"675\"\/><\/source><\/source><\/source><\/source><\/picture><\/div>\n<div class=\"info\">\n<div class=\"caption\">\n<p><span>Cuando ChatGPT sugiri\u00f3 intercambiar cloruro de sodio (sal de mesa) por el bromuro de sodio, el hombre, no en la foto, hizo el reemplazo por un per\u00edodo de tres meses.<\/span> <span>(Istock)<\/span><\/p>\n<\/div>\n<\/div>\n<\/div>\n<p>\u00abEstas son herramientas de predicci\u00f3n del lenguaje: carecen de sentido com\u00fan y dar\u00e1n lugar a resultados terribles si el usuario humano no aplica su propio sentido com\u00fan al decidir qu\u00e9 preguntar en estos sistemas y si atender sus recomendaciones\u00bb, dijo Glanville, quien no particip\u00f3 en el estudio de caso, a Fox News Digital. <\/p>\n<p><strong><u>Haga clic aqu\u00ed para obtener la aplicaci\u00f3n Fox News<\/u><\/strong><\/p>\n<p>\u00abEste es un ejemplo cl\u00e1sico del problema: el sistema esencialmente fue: &#8216;\u00bfQuieres una alternativa de sal?<\/p>\n<p>Dr. Harvey Castro, un certificado de la junta <u>m\u00e9dico de medicina de emergencia<\/u> y el orador nacional sobre inteligencia artificial con sede en Dallas, confirm\u00f3 que la IA es una herramienta y no un m\u00e9dico. <\/p>\n<div class=\"image-ct inline\">\n<div class=\"m\"><picture><source media=\"(max-width: 767px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/343\/192\/man-pouring-salt.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/686\/384\/man-pouring-salt.jpg?ve=1&amp;tl=1 2x\" height=\"192\" width=\"343\"><source media=\"(min-width: 768px) and (max-width: 1023px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/672\/378\/man-pouring-salt.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/1344\/756\/man-pouring-salt.jpg?ve=1&amp;tl=1 2x\" height=\"378\" width=\"672\"><source media=\"(min-width: 1024px) and (max-width: 1279px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/931\/523\/man-pouring-salt.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/1862\/1046\/man-pouring-salt.jpg?ve=1&amp;tl=1 2x\" height=\"523\" width=\"931\"><source media=\"(min-width: 1280px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/720\/405\/man-pouring-salt.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/1440\/810\/man-pouring-salt.jpg?ve=1&amp;tl=1 2x\" height=\"405\" width=\"720\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/08\/1200\/675\/man-pouring-salt.jpg?ve=1&amp;tl=1\" alt=\"Hombre Spooning Salt\" width=\"1200\" height=\"675\"\/><\/source><\/source><\/source><\/source><\/picture><\/div>\n<div class=\"info\">\n<div class=\"caption\">\n<p><span>Es \u00abmuy poco probable\u00bb que un m\u00e9dico humano haya mencionado el bromuro de sodio al hablar con un paciente que busca un sustituto del cloruro de sodio, dijeron los investigadores.<\/span> <span>(Istock)<\/span><\/p>\n<\/div>\n<\/div>\n<\/div>\n<p>\u00abLos modelos de idiomas grandes generan texto predecir la secuencia de palabras m\u00e1s estad\u00edsticamente probable, no al verificar los hechos\u00bb, dijo a Fox News Digital.<\/p>\n<p>\u00abEl error de bromuro de Chatgpt muestra por qu\u00e9 el contexto es el rey en los consejos de salud\u00bb, continu\u00f3 Castro. \u00abLa IA no es un reemplazo para el juicio m\u00e9dico profesional, aline\u00e1ndose con las renuncias de Operai\u00bb.<\/p>\n<p>Castro tambi\u00e9n advirti\u00f3 que hay una \u00abbrecha de regulaci\u00f3n\u00bb cuando se trata de usar LLM para obtener informaci\u00f3n m\u00e9dica.<\/p>\n<blockquote class=\"pull-quote\">\n<p class=\"quote-text\">\u00abNuestros t\u00e9rminos dicen que ChatGPT no est\u00e1 destinado a su uso en el tratamiento de ninguna condici\u00f3n de salud, y no es un sustituto de asesoramiento profesional\u00bb.<\/p>\n<p> <!----><\/p><\/blockquote>\n<p>\u00abLas prohibiciones de la FDA sobre el bromuro no se extienden al consejo de IA: la supervisi\u00f3n global de la IA de salud sigue sin definirse\u00bb, dijo.<\/p>\n<p>Tambi\u00e9n existe el riesgo de que LLMS pueda tener sesgo de datos y una falta de verificaci\u00f3n, lo que lleva a informaci\u00f3n alucinada.<\/p>\n<p><strong><u>Haga clic aqu\u00ed para registrarse en nuestro bolet\u00edn de salud<\/u><\/strong><\/p>\n<p>\u00abSi los datos de entrenamiento incluyen referencias obsoletas, raras o enfocadas qu\u00edmicamente, el modelo puede superficialmente en contextos inapropiados, como el bromuro como sustituto de sal\u00bb, se\u00f1al\u00f3 Castro.<\/p>\n<p>\u00abAdem\u00e1s, las LLM actuales no tienen una verificaci\u00f3n cruzada incorporada contra bases de datos m\u00e9dicas actualizadas a menos que se integren expl\u00edcitamente\u00bb.<\/p>\n<div class=\"image-ct inline\">\n<div class=\"m\"><picture><source media=\"(max-width: 767px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2023\/05\/343\/192\/ChatGPT.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2023\/05\/686\/384\/ChatGPT.jpg?ve=1&amp;tl=1 2x\" height=\"192\" width=\"343\"><source media=\"(min-width: 768px) and (max-width: 1023px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2023\/05\/672\/378\/ChatGPT.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2023\/05\/1344\/756\/ChatGPT.jpg?ve=1&amp;tl=1 2x\" height=\"378\" width=\"672\"><source media=\"(min-width: 1024px) and (max-width: 1279px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2023\/05\/931\/523\/ChatGPT.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2023\/05\/1862\/1046\/ChatGPT.jpg?ve=1&amp;tl=1 2x\" height=\"523\" width=\"931\"><source media=\"(min-width: 1280px)\" srcset=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2023\/05\/720\/405\/ChatGPT.jpg?ve=1&amp;tl=1, https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2023\/05\/1440\/810\/ChatGPT.jpg?ve=1&amp;tl=1 2x\" height=\"405\" width=\"720\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2023\/05\/1200\/675\/ChatGPT.jpg?ve=1&amp;tl=1\" alt=\"Aplicaci\u00f3n Operai Chatgpt en el sitio web de App Store\" width=\"1200\" height=\"675\"\/><\/source><\/source><\/source><\/source><\/picture><\/div>\n<div class=\"info\">\n<div class=\"caption\">\n<p><span>Un experto advirti\u00f3 que hay una \u00abbrecha de regulaci\u00f3n\u00bb cuando se trata de usar modelos de idiomas grandes para obtener informaci\u00f3n m\u00e9dica.<\/span> <span>(Jakub Porzycki\/Nurphoto)<\/span><\/p>\n<\/div>\n<\/div>\n<\/div>\n<p>Para prevenir casos como este, Castro pidi\u00f3 m\u00e1s salvaguardas para LLM, como bases de conocimiento m\u00e9dico integrado, banderas de riesgo automatizadas, indicaciones contextuales y una combinaci\u00f3n de supervisi\u00f3n humana y de IA.<\/p>\n<p>El experto agreg\u00f3: \u00abCon salvaguardas espec\u00edficas, los LLM pueden evolucionar de generalistas riesgosos a herramientas m\u00e1s seguras y especializadas; sin embargo, sin regulaci\u00f3n y supervisi\u00f3n, probablemente se recurrir\u00e1n a casos raros como este\u00bb.<\/p>\n<p><i><strong><u>Para m\u00e1s art\u00edculos de salud, visite <\/u><\/strong><\/i><i><strong><u>www.foxnews.com\/Health<\/u><\/strong><\/i><\/p>\n<p>Operai, el fabricante de chatgpt con sede en San Francisco, proporcion\u00f3 la siguiente declaraci\u00f3n a Fox News Digital.<\/p>\n<p>\u00abNuestros t\u00e9rminos dicen que ChatGPT no est\u00e1 destinado a su uso en el tratamiento de ninguna condici\u00f3n de salud, y no es un sustituto del asesoramiento profesional. Tenemos equipos de seguridad que trabajan para reducir los riesgos y hemos capacitado nuestros sistemas de IA para alentar a las personas a buscar orientaci\u00f3n profesional\u00bb.<\/p>\n<p> <!----> <\/p>\n<div class=\"article-meta\">\n<div class=\"author-bio\">\n<p>Melissa Rudy es editora de salud senior y miembro del equipo de estilo de vida en Fox News Digital. Los consejos de la historia se pueden enviar a melissa.rudy@fox.com.<\/p>\n<\/div>\n<\/div>\n<\/div>\n\n","protected":false},"excerpt":{"rendered":"<p>NUEVO\u00a1Ahora puedes escuchar art\u00edculos de Fox News! Un hombre que us\u00f3 ChatGPT para consejos diet\u00e9ticos termin\u00f3 envenen\u00e1ndose a s\u00ed mismo y termin\u00f3 en el hospital. El hombre de 60 a\u00f1os, que buscaba eliminar la sal de la mesa de su dieta por razones de salud, utiliz\u00f3 el modelo de lenguaje grande (LLM) para obtener sugerencias &hellip;<\/p>\n","protected":false},"author":1,"featured_media":40187,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"https:\/\/a57.foxnews.com\/static.foxnews.com\/foxnews.com\/content\/uploads\/2025\/05\/1200\/675\/2-scammers-can-exploit-your-data-from-just-one-chatgpt-search.jpg?ve=1&tl=1","fifu_image_alt":"","footnotes":""},"categories":[8],"tags":[],"class_list":["post-40185","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-salud"],"_links":{"self":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/40185","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=40185"}],"version-history":[{"count":0,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/40185\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/media\/40187"}],"wp:attachment":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=40185"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=40185"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=40185"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}