{"id":33123,"date":"2025-06-24T21:28:26","date_gmt":"2025-06-25T01:28:26","guid":{"rendered":"https:\/\/noticiasveraces.com\/?p=33123"},"modified":"2025-06-24T21:28:26","modified_gmt":"2025-06-25T01:28:26","slug":"la-ia-ayuda-a-diseminar-estereotipos-nuevos-entre-culturas-tecnologia","status":"publish","type":"post","link":"https:\/\/noticiasveraces.com\/?p=33123","title":{"rendered":"La IA ayuda a diseminar estereotipos nuevos entre culturas | Tecnolog\u00eda"},"content":{"rendered":"<p> \n<br \/><img decoding=\"async\" src=\"https:\/\/imagenes.elpais.com\/resizer\/v2\/ZRIEHRGSG5BMZCSWOXWNQCTDI4.jpg?auth=3d6a2ed428809da3fe2d0217e4f850444808341e3db4f8dfc4ae1aa9c759457a\" \/><\/p>\n<div data-dtm-region=\"articulo_cuerpo\">\n<p class=\"\">Todas las culturas del mundo tienen sus estereotipos de g\u00e9nero, edad o nacionalidades. Algunos son muy conocidos, como que las rubias son tontas o los ingenieros son hombres, pero hay otros m\u00e1s locales, como la picard\u00eda de la gente de R\u00edo de Janeiro o que los pakistan\u00edes son conservadores. Con la llegada de los chatbots con IA, ese dudoso patrimonio cultural se extiende por todo el mundo, seg\u00fan un nuevo estudio. <\/p>\n<p class=\"\">\u201cLa IA incorpora estereotipos sobre personas que salen de lo que la gente dice en internet, y luego los usa como si fueran parte del conocimiento general del mundo\u201d, dice Margaret Mitchell, impulsora de la investigaci\u00f3n e investigadora y jefa cient\u00edfica de \u00c9tica en Hugging Face, una compa\u00f1\u00eda centrada en modelos abiertos de IA. \u201cTodo se basa en lo que se sabe en ingl\u00e9s \u2014en la cultura anglosajona, sobre todo de EE UU\u2014 y luego tal vez se traduce a otros idiomas, pero sin captar los matices internacionales. Y si estos modelos de lenguaje est\u00e1n pensados para ser generales y funcionar para todo el mundo, en teor\u00eda s\u00ed deber\u00edan poder captar esas diferencias\u201d, a\u00f1ade.<\/p>\n<p class=\"\">Junto a un equipo de investigadores que dominan 16 lenguas han creado una lista con m\u00e1s de 300 estereotipos de todo el mundo. Con ese material, han creado manualmente un sistema para que genere preguntas sobre esos t\u00f3picos con tonos y enfoques distintos, para realiz\u00e1rselas a unos cuantos modelos abiertos de IA. \u00bfEl resultado? \u201cLo primero que hay que saber es que la forma en que los modelos reproducen estereotipos o generan lenguaje sesgado var\u00eda mucho seg\u00fan el idioma, el modelo y el tipo de estereotipo\u201d, explica Mitchell. \u201cPor ejemplo, los modelos que se desarrollaron en China y Singapur, como Qwen [que emplea DeepSeek]responden de forma muy distinta sobre el comunismo si se los compara con modelos entrenados en EE UU\u201d, a\u00f1ade. <\/p>\n<p class=\"\">Los grandes modelos de lenguaje usados en este experimento son multiling\u00fces, lanzados en los \u00faltimos dos a\u00f1os y entrenados con la mayor\u00eda de los idiomas del estudio. Entre ellos est\u00e1n las familias de modelos Bloom, Llama, Mistral y Qwen. <\/p>\n<p class=\"\">Los estereotipos globales m\u00e1s comunes son los de g\u00e9nero, como el t\u00edpico de que a las ni\u00f1as les gusta el rosa. Los investigadores comprobaron c\u00f3mo los modelos reconocen mejor los estereotipos m\u00e1s comunes: \u201cEstuvo bien ver que, al menos con los estereotipos de g\u00e9nero, ten\u00edan cierta capacidad de detectar que eso es un estereotipo y no un hecho universal\u201d, dice Mitchell.<\/p>\n<p class=\"\">\u201cTodos esper\u00e1bamos unos resultados as\u00ed\u201d, dice Emilio Villa Cueva, coautor del art\u00edculo e investigador de la Universidad de Inteligencia Artificial Mohamed bin Zayed de Abu Dabi (Emiratos \u00c1rabes Unidos). \u201cSon modelos entrenados con datos generados por humanos y por mucho que quieras limpiarlos, al final va a salir el eterotipo\u201d. <\/p>\n<p class=\"\">Los resultados de todas estas pruebas han quedado en una base de datos llamada Shades, para que las empresas que crean modelos puedan comprobar las respuestas de sus chatbots<i> <\/i>y corregirlas si es necesario: \u201cUna de las cosas que permite este conjunto de datos es que la gente pueda ver d\u00f3nde flaquea su modelo y en qu\u00e9 \u00e1reas necesita entender mejor los matices\u201d, dice Mitchell. \u201cEs una forma de orientar qu\u00e9 tipo de entrenamiento adicional podr\u00eda necesitar el modelo o, en el mejor de los casos, qu\u00e9 tipo de datos deber\u00eda haber tenido desde el principio antes de entrenarlo\u201d, a\u00f1ade.<\/p>\n<p class=\"\">Adem\u00e1s de la amplificaci\u00f3n de estereotipos de varias culturas, el experimento tambi\u00e9n ha descubierto que los modelos a veces se justifican usando pseudociencia o pseudohistoria. Tambi\u00e9n pueden sacar a relucir otros estereotipos que les parecen m\u00e1s conocidos, sobre todo cuando se les propone uno que no es tan obvio. Como en otros casos, si la petici\u00f3n o <i>inmediato <\/i>sobre el estereotipo es positiva, los modelos tienden a rendir a\u00fan peor. <\/p>\n<p class=\"\">Estos modelos, seg\u00fan el estudio, suelen penalizar tambi\u00e9n las lenguas menos extendidas: si un modelo no ha sido entrenado bien en un idioma, puede soltar estereotipos muy negativos sobre esa lengua o cultura. <\/p>\n<\/div>\n\n","protected":false},"excerpt":{"rendered":"<p>Todas las culturas del mundo tienen sus estereotipos de g\u00e9nero, edad o nacionalidades. Algunos son muy conocidos, como que las rubias son tontas o los ingenieros son hombres, pero hay otros m\u00e1s locales, como la picard\u00eda de la gente de R\u00edo de Janeiro o que los pakistan\u00edes son conservadores. Con la llegada de los chatbots &hellip;<\/p>\n","protected":false},"author":1,"featured_media":33125,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"https:\/\/imagenes.elpais.com\/resizer\/v2\/ZRIEHRGSG5BMZCSWOXWNQCTDI4.jpg?auth=3d6a2ed428809da3fe2d0217e4f850444808341e3db4f8dfc4ae1aa9c759457a&width=1200","fifu_image_alt":"","footnotes":""},"categories":[2],"tags":[],"class_list":["post-33123","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/33123","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=33123"}],"version-history":[{"count":0,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/33123\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/media\/33125"}],"wp:attachment":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=33123"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=33123"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=33123"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}