{"id":44870,"date":"2025-10-07T17:48:28","date_gmt":"2025-10-07T21:48:28","guid":{"rendered":"https:\/\/noticiasveraces.com\/?p=44870"},"modified":"2025-10-07T17:48:28","modified_gmt":"2025-10-07T21:48:28","slug":"los-humanos-son-mas-deshonestos-cuando-delegan-sus-decisiones-a-la-ia-segun-estudio","status":"publish","type":"post","link":"https:\/\/noticiasveraces.com\/?p=44870","title":{"rendered":"Los humanos son m\u00e1s deshonestos cuando delegan sus decisiones a la IA, seg\u00fan estudio"},"content":{"rendered":"<p> \n<\/p>\n<div>\n<p>La sociedad podr\u00eda volverse m\u00e1s deshonesta al delegar decisiones cr\u00edticas a los sistemas de inteligencia artificial (IA) con mayor frecuencia. As\u00ed lo concluye un nuevo estudio realizado por el Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Econom\u00eda de Toulouse, el cual confirma que <strong>las personas son m\u00e1s propensas a actuar con poca \u00e9tica y moralidad cuando pueden distanciarse de las consecuencias de sus actos<\/strong>un escenario que la IA ahora parece facilitar.<\/p>\n<p>El trabajo explica que se han documentado casos reales de algoritmos que muestran comportamientos oportunistas y deshonestos para alcanzar objetivos de ganancias definidos de manera ambigua en su programaci\u00f3n. Cita, por ejemplo, el caso de una aplicaci\u00f3n de viajes compartidos cuyo sistema inst\u00f3 a los conductores a reubicarse estrat\u00e9gicamente para crear una escasez ficticia de veh\u00edculos, lo que provoc\u00f3 un aumento artificial de tarifas. Tambi\u00e9n menciona que en Alemania, varias gasolineras fueron se\u00f1aladas por utilizar algoritmos de fijaci\u00f3n de precios que ajustaban las tarifas de manera sincronizada con la competencia cercana, generando costos m\u00e1s altos para los consumidores en diversas zonas.<\/p>\n<hr\/>\n<div class=\"ContentCardEmbedWrapper-kFpFGN dpdjmB content-card-embed content-card-embed--stacked\" data-testid=\"ContentCardEmbedWrapper\">\n<div class=\"ContentCardEmbedImage-iBIXcR jiOHKG content-card-embed__image\" data-testid=\"ContentCardEmbedImage\"><span class=\"SpanWrapper-zEXFr koTknX responsive-asset\"><picture class=\"ResponsiveImagePicture-cGZhnX jwYQWO responsive-image\"><img decoding=\"async\" alt=\"OpenAI sabotaje apagado 2183035146\" loading=\"lazy\" class=\"ResponsiveImageContainer-eNxvmU cfBbTk responsive-image__image\" srcset=\"https:\/\/media.es.wired.com\/photos\/6835fa090ca8751c9e12d991\/master\/w_120,c_limit\/OpenAI%20sabotaje%20apagado%202183035146.jpg 120w, https:\/\/media.es.wired.com\/photos\/6835fa090ca8751c9e12d991\/master\/w_240,c_limit\/OpenAI%20sabotaje%20apagado%202183035146.jpg 240w, https:\/\/media.es.wired.com\/photos\/6835fa090ca8751c9e12d991\/master\/w_320,c_limit\/OpenAI%20sabotaje%20apagado%202183035146.jpg 320w, https:\/\/media.es.wired.com\/photos\/6835fa090ca8751c9e12d991\/master\/w_640,c_limit\/OpenAI%20sabotaje%20apagado%202183035146.jpg 640w\" sizes=\"100vw\" src=\"https:\/\/media.es.wired.com\/photos\/6835fa090ca8751c9e12d991\/master\/w_775%2Cc_limit\/OpenAI%2520sabotaje%2520apagado%25202183035146.jpg\"\/><\/picture><\/span><\/div>\n<div class=\"ContentCardEmbedInfo-bSBhwc IbulD\">\n<div class=\"BaseWrap-sc-gzmcOU BaseText-eqOrNE ContentCardEmbedHed-kuAbUL deqABF jkWAvF fPZrfS content-card-embed__hed\" data-testid=\"ContentCardEmbedHed\">La IA de OpenAI se resiste a ser desconectada y puede sabotear sus controles de\u00a0apagado<\/div>\n<p>El estudio sugiere que estas conductas de autopreservaci\u00f3n podr\u00edan estar relacionadas con las t\u00e9cnicas de entrenamiento utilizadas en los modelos de IA m\u00e1s avanzados.<\/p>\n<\/div>\n<\/div>\n<hr\/>\n<p>Si bien estos casos evidencian que las m\u00e1quinas pueden actuar de forma poco \u00e9tica, los autores subrayan que poco se ha explorado c\u00f3mo las personas utilizan la IA para evadir su responsabilidad moral, seg\u00fan el informe publicado en <em>Naturaleza<\/em>.<\/p>\n<h2>Honestidad humana a prueba<\/h2>\n<p>Para averiguarlo, los investigadores realizaron 13 experimentos agrupados en cuatro estudios principales, con la participaci\u00f3n de m\u00e1s de 8,000 personas provenientes de Estados Unidos. El objetivo fue examinar si la delegaci\u00f3n de tareas a la IA puede aumentar la deshonestidad tanto en los usuarios humanos como en el comportamiento de las m\u00e1quinas.<\/p>\n<p>Los tres primeros estudios se basaron en una prueba conductual conocida como \u201clanzamiento de dado\u201d, en la que los participantes observan los resultados de las tiradas y luego deben reportar el resultado obtenido, mismo que est\u00e1 sujeto a una remuneraci\u00f3n: cuanto mayor sea el n\u00famero informado, mayor ser\u00e1 la ganancia.<\/p>\n<p>Seg\u00fan los autores, este m\u00e9todo permite determinar si los participantes actuaron con honestidad, falsearon la verdad o hicieron trampa deliberadamente. \u201cEstudios previos han demostrado que el comportamiento en este juego refleja de manera fiable la deshonestidad en el mundo real\u201d, se\u00f1alan.<\/p>\n<p>Los dos primeros estudios analizaron las intenciones de los usuarios al delegar el reporte de resultados a un algoritmo, bajo cuatro condiciones distintas:<\/p>\n<ul>\n<li><strong>Pecado ia:<\/strong> los participantes deb\u00edan reportar los resultados por s\u00ed mismos, sin ayuda algor\u00edtmica. Este contexto sirvi\u00f3 como control.<\/li>\n<li><strong>Basada en reglas:<\/strong> los usuarios indicaban a la IA el n\u00famero exacto a informar tras cada tirada de dados.<\/li>\n<li><strong>Con aprendizaje supervisado:<\/strong> los cient\u00edficos permitieron a los usuarios entrenar a la IA con uno de tres conjuntos de datos provenientes de jugadores anteriores. El primero correspond\u00eda a un jugador honesto; el segundo, a uno que hac\u00eda trampa ocasionalmente; y el tercero, a un jugador que siempre reportaba el valor m\u00e1ximo para obtener la ganancia, sin importar el resultado real.<\/li>\n<li><strong>Delegaci\u00f3n orientada a objetivos:<\/strong> los participantes pod\u00edan establecer una prioridad en una escala de siete puntos que iba desde \u201cmaximizar la precisi\u00f3n\u201d hasta \u201cmaximizar las ganancias\u201d.<\/li>\n<\/ul>\n<h2>La IA nos \u201cpermite\u201d ser menos honestos<\/h2>\n<p>En estas pruebas, los autores descubrieron que, sin la intervenci\u00f3n de la IA, el 95% de los participantes report\u00f3 con veracidad los resultados. Sin embargo, el porcentaje descendi\u00f3 al 75% cuando los usuarios indicaron al sistema qu\u00e9 n\u00famero deb\u00eda informar. A\u00fan m\u00e1s llamativo fue que, <strong>al permitirles entrenar a la IA, solo la mitad de los participantes mantuvo su honestidad.<\/strong> Cuando definieron objetivos orientados a la ganancia, m\u00e1s del 84% actu\u00f3 de manera deshonesta, y entre un tercio y la mitad hizo trampa al m\u00e1ximo.<\/p>\n<p>Los investigadores concluyeron que las condiciones que permit\u00edan inducir a la IA a falsear resultados sin hacerlo de manera expl\u00edcita fomentaron niveles m\u00e1s altos de deshonestidad.<\/p>\n<\/div>\n\n","protected":false},"excerpt":{"rendered":"<p>La sociedad podr\u00eda volverse m\u00e1s deshonesta al delegar decisiones cr\u00edticas a los sistemas de inteligencia artificial (IA) con mayor frecuencia. As\u00ed lo concluye un nuevo estudio realizado por el Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Econom\u00eda de Toulouse, el cual confirma que las personas son m\u00e1s &hellip;<\/p>\n","protected":false},"author":1,"featured_media":44872,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"https:\/\/media.es.wired.com\/photos\/68e41c234df59d46b66b4553\/16:9\/w_1280,c_limit\/IA%20humanos%20deshonestidad%201497791111.jpg","fifu_image_alt":"","footnotes":""},"categories":[4],"tags":[],"class_list":["post-44870","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-historias-destacadas"],"_links":{"self":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/44870","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=44870"}],"version-history":[{"count":0,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/44870\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/media\/44872"}],"wp:attachment":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=44870"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=44870"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=44870"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}