{"id":46739,"date":"2025-10-22T01:41:08","date_gmt":"2025-10-22T05:41:08","guid":{"rendered":"https:\/\/noticiasveraces.com\/?p=46739"},"modified":"2025-10-22T01:41:08","modified_gmt":"2025-10-22T05:41:08","slug":"chatbots-como-chatgpt-violan-constantemente-los-codigos-de-la-terapia-psicologica","status":"publish","type":"post","link":"https:\/\/noticiasveraces.com\/?p=46739","title":{"rendered":"Chatbots como ChatGPT violan constantemente los c\u00f3digos de la terapia psicol\u00f3gica"},"content":{"rendered":"<p> \n<\/p>\n<div>\n<p>Pocos imaginaron que llegar\u00eda el d\u00eda en que sistemas de inteligencia artificial (IA) como ChatGPT ser\u00edan usados para sustituir la terapia, pero pas\u00f3. Los usuarios inician una conversaci\u00f3n, comparten sus problemas y leen con atenci\u00f3n y confianza las recomendaciones que reciben directamente de un modelo predictivo del lenguaje. La cuesti\u00f3n es que ChatGPT no est\u00e1 dise\u00f1ado para dar terapia, sino, antes que nada, para procurar que los usuarios se queden enganchados a \u00e9l. El propio Sam Altman, CEO de OpenAI, la empresa detr\u00e1s del chatbot, ha pedido al mundo que no lo convierta en su psic\u00f3logo. Ahora, una nueva ivestigaci\u00f3n confirma que es una mala idea.<\/p>\n<p>Un estudio reciente de la Universidad de Brown, en Estados Unidos, muestra c\u00f3mo los <em>chatbots<\/em> m\u00e1s populares trasgreden los est\u00e1ndares \u00e9ticos definidos por la comunidad internacional de psic\u00f3logos cuando responden de manera emp\u00e1tica a las demandas de los usuarios. Los resultados se publicar\u00e1n en la Conferencia sobre Inteligencia Artificial, \u00c9tica y Sociedad de la Asociaci\u00f3n para el avance de la IA.<\/p>\n<h2>Lineamientos \u00e9ticos y por qu\u00e9 los chatbots no los tienen<\/h2>\n<p>En psicoterapia, los marcos \u00e9ticos internacionales garantizan que cada intervenci\u00f3n sea segura. Estos lineamientos previenen sesgos, discriminaci\u00f3n, manipulaci\u00f3n y conflictos de inter\u00e9s. Los profesionales de la salud mental aplican estas directrices de forma constante y, adem\u00e1s, trabajan bajo mecanismos legales de regulaci\u00f3n. En contraste, los <em>chatbots<\/em> comerciales usados como soporte emocional carecen de entrenamiento para establecer l\u00edmites emp\u00e1ticos adecuados y operan en un vac\u00edo regulatorio.<\/p>\n<hr\/>\n<div class=\"ContentCardEmbedWrapper-kFpFGN dpdjmB content-card-embed content-card-embed--stacked\" data-testid=\"ContentCardEmbedWrapper\">\n<div class=\"ContentCardEmbedImage-iBIXcR jiOHKG content-card-embed__image\" data-testid=\"ContentCardEmbedImage\"><span class=\"SpanWrapper-zEXFr koTknX responsive-asset\"><picture class=\"ResponsiveImagePicture-cGZhnX jwYQWO responsive-image\"><img decoding=\"async\" alt=\"ChatGPT abre The Altman\" loading=\"lazy\" class=\"ResponsiveImageContainer-eNxvmU cfBbTk responsive-image__image\" srcset=\"https:\/\/media.es.wired.com\/photos\/68af330c044f2e4bc8359a8e\/master\/w_120,c_limit\/samaltman.jpg 120w, https:\/\/media.es.wired.com\/photos\/68af330c044f2e4bc8359a8e\/master\/w_240,c_limit\/samaltman.jpg 240w, https:\/\/media.es.wired.com\/photos\/68af330c044f2e4bc8359a8e\/master\/w_320,c_limit\/samaltman.jpg 320w, https:\/\/media.es.wired.com\/photos\/68af330c044f2e4bc8359a8e\/master\/w_640,c_limit\/samaltman.jpg 640w\" sizes=\"100vw\" src=\"https:\/\/media.es.wired.com\/photos\/68af330c044f2e4bc8359a8e\/master\/w_775%2Cc_limit\/samaltman.jpg\"\/><\/picture><\/span><\/div>\n<div class=\"ContentCardEmbedInfo-bSBhwc IbulD\">\n<div class=\"BaseWrap-sc-gzmcOU BaseText-eqOrNE ContentCardEmbedHed-kuAbUL deqABF jkWAvF fPZrfS content-card-embed__hed\" data-testid=\"ContentCardEmbedHed\">Padres culpan a ChatGPT por la muerte de su hijo y demandan a OpenAI<\/div>\n<p>OpenAI y su CEO, Sam Altman, enfrentan su primera demanda de muerte por negligencia, presentada por la familia de un adolescente en California que interactu\u00f3 con GPT-4o antes de morir.<\/p>\n<\/div>\n<\/div>\n<hr\/>\n<p>El equipo de inform\u00e1ticos y especialistas en salud mental que realiz\u00f3 la investigaci\u00f3n identific\u00f3 que los <em>chatbots<\/em> con modelos de lenguaje GPT, Claude y LLaMA suelen incurrir en violaciones \u00e9ticas conocidas en el gremio. Entre ellas destacan <strong>la gesti\u00f3n inadecuada de crisis y las respuestas enga\u00f1osas que refuerzan creencias negativas en los usuarios.<\/strong> El documento resumi\u00f3 estas transgresiones en 15 riesgos agrupados en cinco categor\u00edas:<\/p>\n<ul>\n<li><strong>Falta de adaptaci\u00f3n contextual:<\/strong> como no tiene un historial de las vivencias del usuario, una IA puede malinterpretar el escenario y ofrecer recomendaciones generales que no ser\u00e1n de ayuda para todos.<\/li>\n<li><strong>Colaboraci\u00f3n terap\u00e9utica deficiente:<\/strong> la IA tiende a dominar la conversaci\u00f3n y a reforzar prejuicios o falsas creencias del usuario sobre s\u00ed mismo o sobre otros.<\/li>\n<li><strong>Empat\u00eda enga\u00f1osa:<\/strong> los chatbots que act\u00faan como soporte emocional suelen responder a los problemas con frases como \u201centiendo\u201d o \u201ccomprendo\u201d, dise\u00f1adas para simular conexi\u00f3n emocional, pero que generan una ilusi\u00f3n da\u00f1ina de cercan\u00eda.<\/li>\n<li><strong>Falta de seguridad y gesti\u00f3n de crisis:<\/strong> como medida de protecci\u00f3n, los <em>chatbots<\/em> tienden a negar apoyo en temas delicados sin ofrecer recursos adecuados. El estudio document\u00f3 respuestas indiferentes incluso ante menciones de ideaci\u00f3n suicida.<\/li>\n<li><strong>Discriminaci\u00f3n injusta<\/strong>: algunas IA reproducen prejuicios de g\u00e9nero, culturales o religiosos presentes en las bases de datos con las que fueron entrenadas.<\/li>\n<\/ul>\n<p>\u201cSi est\u00e1n hablando con un chatbot sobre salud mental, estas son algunas cosas que la gente deber\u00eda tener en cuenta\u201d, dijo Zainab Iftikhar, investigadora de Brown que particip\u00f3 en el estudio, en un comunicado de la universidad.<\/p>\n<p>Las transgresiones aparecieron incluso cuando los expertos dise\u00f1aron <em>indicaciones<\/em> sofisticados que ped\u00edan al <em>chatbot<\/em> actuar como un terapeuta cognitivo-conductual o aplicar principios de la terapia dial\u00e9ctica conductual. El inter\u00e9s cient\u00edfico se centra ahora en explorar los l\u00edmites y la calidad de las respuestas de la IA, especialmente porque existen comunidades en l\u00ednea que comparten <em>indicaciones<\/em> complejos para tratar la salud mental.<\/p>\n<p>Aunque el estudio evidenci\u00f3 violaciones \u00e9ticas, el equipo no busca generar miedo hacia estas herramientas. Los investigadores creen que los chatbots pueden ayudar a reducir barreras econ\u00f3micas y geogr\u00e1ficas en el acceso a la salud mental. Con un respaldo humano adecuado, los sistemas de IA conversacional podr\u00edan convertirse en herramientas \u00fatiles para explorar este campo.<\/p>\n<p>OpenAI, compa\u00f1\u00eda que cre\u00f3 a ChatGPT, enfrenta la primera demanda por muerte por negligencia de una IA. En agosto, una familia de California acus\u00f3 al <em>chatbot<\/em> de alentar a un adolescente de 16 a\u00f1os a cometer suicidio.<\/p>\n<\/div>\n\n","protected":false},"excerpt":{"rendered":"<p>Pocos imaginaron que llegar\u00eda el d\u00eda en que sistemas de inteligencia artificial (IA) como ChatGPT ser\u00edan usados para sustituir la terapia, pero pas\u00f3. Los usuarios inician una conversaci\u00f3n, comparten sus problemas y leen con atenci\u00f3n y confianza las recomendaciones que reciben directamente de un modelo predictivo del lenguaje. La cuesti\u00f3n es que ChatGPT no est\u00e1 &hellip;<\/p>\n","protected":false},"author":1,"featured_media":46741,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"https:\/\/media.es.wired.com\/photos\/68f7fa8b760fd38ab45634a6\/16:9\/w_1280,c_limit\/GettyImages-1561480206.jpg","fifu_image_alt":"","footnotes":""},"categories":[2],"tags":[],"class_list":["post-46739","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/46739","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=46739"}],"version-history":[{"count":0,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/46739\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/media\/46741"}],"wp:attachment":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=46739"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=46739"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=46739"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}