{"id":32409,"date":"2025-06-19T20:58:38","date_gmt":"2025-06-20T00:58:38","guid":{"rendered":"https:\/\/noticiasveraces.com\/?p=32409"},"modified":"2025-06-19T20:58:38","modified_gmt":"2025-06-20T00:58:38","slug":"los-modelos-de-ia-mas-poderosos-contaminan-hasta-50-veces-mas-que-los-pequenos-tecnologia","status":"publish","type":"post","link":"https:\/\/noticiasveraces.com\/?p=32409","title":{"rendered":"Los modelos de IA m\u00e1s poderosos contaminan hasta 50 veces m\u00e1s que los peque\u00f1os | Tecnolog\u00eda"},"content":{"rendered":"<p> \n<\/p>\n<div data-dtm-region=\"articulo_cuerpo\">\n<p class=\"\">El boom de la inteligencia artificial (IA) ha disparado el consumo de energ\u00eda y las emisiones de carbono de las grandes tecnol\u00f3gicas, en tanto que su existencia implica procesar inmensas cantidades de datos con m\u00e1quinas de alta capacidad. Pero no todos los modelos de IA generativa tienen el mismo consumo. Un grupo de investigadores ha tratado de saber cu\u00e1les son las m\u00e1s contaminantes y cu\u00e1les los m\u00e1s eficientes. La conclusi\u00f3n: los modelos m\u00e1s peque\u00f1os (los que han sido entrenados con menos par\u00e1metros) pueden llegar a contaminar 50 veces menos que los grandes, pero sus respuestas son menos precisas, y viceversa. A mayor precisi\u00f3n, m\u00e1s poluci\u00f3n.<\/p>\n<p class=\"\">Los resultados de esta investigaci\u00f3n, que se publica hoy en la revista <i>Fronteras<\/i>se extraen de la comparaci\u00f3n de 14 modelos de IA generativa de c\u00f3digo abierto, los que permiten a los investigadores manipular sus tripas. Se tomaron modelos de distintos tama\u00f1os, incluyendo algunos que incorporan la opci\u00f3n de \u201crazonamiento\u201d: los que, m\u00e1s all\u00e1 de predecir las siguientes palabras en una oraci\u00f3n, como hacen los grandes modelos de lenguaje (LLM, por sus siglas inglesas), analizan y hacen inferencias. <\/p>\n<p class=\"\">Otra conclusi\u00f3n relevante: para resolver una tarea sencilla, mejor optar por un modelo peque\u00f1o, porque el resultado ser\u00e1 muy similar al arrojado por el modelo grande, pero contaminar\u00e1 por lo general cuatro veces menos.<\/p>\n<aside class=\"a_ei\">\n<header class=\"a_ei_h _db\">M\u00e1s informaci\u00f3n<\/header>\n<\/aside>\n<p class=\"\">\u00bfPara qu\u00e9 puede servir la informaci\u00f3n que aporta este trabajo? Idealmente, para que los usuarios elijan qu\u00e9 modelo utilizar en funci\u00f3n de la complejidad de la tarea que quieran realizar. De la misma manera que los desplazamientos cortos los podemos hacer andando o en bicicleta, pero para los largos preferimos transporte p\u00fablico o coche, los modelos de IA m\u00e1s potentes los podr\u00edamos reservar, por ejemplo, para programaci\u00f3n avanzada y los m\u00e1s peque\u00f1os para hacer peque\u00f1as traducciones.<\/p>\n<p class=\"\">Pero escoger el modelo m\u00e1s adecuado para cada tarea es muy complicado. Por eso, Dauner y su equipo preparan una herramienta autom\u00e1tica que lo indique. \u201cEstamos trabajando en un planificador que seleccione el modelo adecuado en funci\u00f3n de la solicitud del usuario, de manera que se minimicen las emisiones de CO\u2082 equivalente\u201d, apunta el investigador.<\/p>\n<p class=\"\">Por ejemplo, hacer que el modelo chino DeepSeek R1 responda a 600.000 preguntas generar\u00eda unas emisiones de CO\u2082 equivalentes a un vuelo de ida y vuelta de Londres a Nueva York. En cambio, Qwen 2.5, del mismo tama\u00f1o, puede responder a m\u00e1s del triple de preguntas (alrededor de 1,9 millones) con tasas de precisi\u00f3n similares y generando las mismas emisiones.<\/p>\n<p class=\"\">Si se usara cada vez el modelo menos contaminante, se contribuir\u00eda a reducir la huella ambiental de la IA, que cada vez es m\u00e1s grande. El \u00faltimo informe de la Uni\u00f3n Internacional de Telecomunicaciones, la agencia de Naciones Unidas especializada en tecnolog\u00edas digitales, revela que el consumo el\u00e9ctrico de los centros de datos (que dan apoyo a los modelos de IA) ha crecido un 12% al a\u00f1o entre 2017 y 2023, cuatro veces m\u00e1s r\u00e1pido que la media del consumo mundial. Las cuatro mayores empresas enfocadas en el desarrollo de IA (Amazon, Microsoft, Alphabet y Meta) vieron aumentar sus emisiones en un 150% de media desde 2020<\/p>\n<p class=\"\">As\u00ed lo asegura la agencia de Naciones Unidas tras analizar la informaci\u00f3n p\u00fablica aportada en 2023, el \u00faltimo a\u00f1o del que hay datos completos, por las 200 mayores empresas tecnol\u00f3gicas del mundo sobre emisiones de gases de efecto invernadero, consumo energ\u00e9tico y cumplimiento de los compromisos medioambientales. \u201cA pesar de los avances logrados, las emisiones de gases de efecto invernadero siguen aumentando, lo que confirma que es m\u00e1s urgente que nunca que las empresas digitales adopten estrategias clim\u00e1ticas alineadas con la ciencia, transparentes y responsables\u201d, dijo Cosmas Luckyson Zavazava, uno de los responsables del informe, durante la presentaci\u00f3n del mismo. Seg\u00fan estos datos, las diez tecnol\u00f3gicas que m\u00e1s consumen (China Mobile, Amazon, Samsung, China Telecom, Alphabet, Microsoft, TSMC, China Unicom, SK Hynix y Meta) gastan en un a\u00f1o m\u00e1s energ\u00eda que toda Espa\u00f1a.<\/p>\n<h3 class=\"\">Modelos m\u00e1s y menos contaminantes<\/h3>\n<p class=\"\">\u201cNuestros resultados revelan fuertes correlaciones entre el tama\u00f1o de los grandes modelos de lenguaje, la versi\u00f3n de razonamiento, la generaci\u00f3n de tokens y las emisiones\u201d, escriben los autores del estudio, Maximilian Dauner y Gudrun Socher, de la Universidad de Ciencias Aplicadas de M\u00fanich. \u201cAunque los modelos m\u00e1s grandes y con capacidad de razonamiento logran una mayor precisi\u00f3n, de hasta un 84,9%, tambi\u00e9n generan emisiones considerablemente m\u00e1s altas, impulsadas en gran medida por un mayor volumen de <i>tokens<\/i> generados. Un an\u00e1lisis de las materias tratadas muestra, adem\u00e1s, que los dominios simb\u00f3licos y abstractos, como el \u00e1lgebra abstracta, exigen consistentemente m\u00e1s capacidad de c\u00f3mputo y presentan una menor precisi\u00f3n\u201d.<\/p>\n<figure class=\"a_m a_m-h \"><span class=\"_db a_m_w\"><img alt=\"Eggborough\" decoding=\"auto\" class=\"_re lazyload a_m-h\" height=\"305\" srcset=\"https:\/\/imagenes.elpais.com\/resizer\/v2\/DDFW2QF43CFM426X67BV7AELRQ.jpg?auth=04a6147355abcb721567b0be64f56c945892af27ca74e0271b2f361a41b255a0&amp;width=414 414w,https:\/\/imagenes.elpais.com\/resizer\/v2\/DDFW2QF43CFM426X67BV7AELRQ.jpg?auth=04a6147355abcb721567b0be64f56c945892af27ca74e0271b2f361a41b255a0&amp;width=828 640w,https:\/\/imagenes.elpais.com\/resizer\/v2\/DDFW2QF43CFM426X67BV7AELRQ.jpg?auth=04a6147355abcb721567b0be64f56c945892af27ca74e0271b2f361a41b255a0&amp;width=980 1000w,https:\/\/imagenes.elpais.com\/resizer\/v2\/DDFW2QF43CFM426X67BV7AELRQ.jpg?auth=04a6147355abcb721567b0be64f56c945892af27ca74e0271b2f361a41b255a0&amp;width=1960 1960w\" width=\"414\" sizes=\"auto, (min-width:1199px) 1155px,(min-width:1001px) calc(100vw - 44px),(min-width:768px) 767px, 100vw\" src=\"https:\/\/imagenes.elpais.com\/resizer\/v2\/DDFW2QF43CFM426X67BV7AELRQ.jpg?auth=04a6147355abcb721567b0be64f56c945892af27ca74e0271b2f361a41b255a0&amp;width=414\" loading=\"lazy\"\/><\/span><figcaption class=\"a_m_p\" aria-hidden=\"true\"><span>Humo de la combusti\u00f3n de carb\u00f3n en la central el\u00e9ctrica de Eggborough, en Inglaterra.<\/span><span class=\"a_m_m\">Prensa asociada<\/span><\/figcaption><\/figure>\n<p class=\"\">Los investigadores pusieron a prueba tres modelos Llama de Meta, de entre 8.000 y 70.000 millones de par\u00e1metros; cuatro versiones de Qwen, de Alibaba, de entre 7.000 y 72.000 millones de par\u00e1metros; otros tres de Deep Cogito de entre 8.000 y 70.000 millones de par\u00e1metros y tres m\u00e1s de DeepSeek de entre 7.000 y 70.000 millones de par\u00e1metros. Los autores advierten desde un primer momento que estos resultados no se pueden extrapolar a otros modelos m\u00e1s conocidos, como GPT, Gemini o Copilot, que no se usaron en el experimento al no ser de c\u00f3digo abierto.<\/p>\n<p class=\"\">A los 14 modelos puestos a prueba se les pidi\u00f3 responder a las mismas 500 preguntas sobre distintos temas. Se le lanz\u00f3 a cada modelo 100 preguntas sobre cada una de estas cinco tem\u00e1ticas: filosof\u00eda, historia universal, derecho internacional, \u00e1lgebra abstracta y matem\u00e1ticas, con un nivel de dificultad equivalente al exigido para entrar en la universidad. La prueba se realiz\u00f3 en dos fases. En la primera, se opt\u00f3 por el tipo test, d\u00e1ndole al modelo cuatro posibles respuestas entre las que elegir la correcta. En la segunda, la pregunta fue abierta, sin orientaciones en el prompt, y se us\u00f3 como corrector el modelo OpenAI o4-mini, \u201cque es r\u00e1pido y m\u00e1s peque\u00f1o que otros modelos GPT, lo que significa que emite menos CO\u2082\u201d, indica Dauner.<\/p>\n<p class=\"\">Todos los experimentos se llevaron a cabo en un procesador GPU Nvidia A100 con 80 GB de memoria, lo que permiti\u00f3 una medici\u00f3n precisa del consumo energ\u00e9tico, del uso de memoria y del tiempo de respuesta. \u201cDescartamos considerar en el estudio el agua consumida porque no pod\u00edamos medirla directamente, sino a trav\u00e9s de estimaciones\u201d, explica Dauner. El agua se usa para refrigerar los procesadores de alta densidad en los que se desarrollan los c\u00e1lculos que hacen posible la IA.<\/p>\n<p class=\"\">Los modelos m\u00e1s grandes arrojaron mejores resultados, tanto en las preguntas con respuesta abierta como en las de tipo test.<\/p>\n<h3 class=\"\">C\u00f3mo medir la huella ambiental<\/h3>\n<p class=\"\">Los investigadores han tenido en cuenta en el c\u00e1lculo todo el ciclo de vida de la IA, desde la extracci\u00f3n de minerales y materiales necesarios para construir las GPU hasta los recursos empleados en manufacturar los equipos, generar las bases de datos y en procesarlas, pasando por el proceso de dise\u00f1o y entrenamiento de los modelos y por el uso final de la herramienta. \u201cDebido a la limitada transparencia que hay en estas fases, los estudios suelen recurrir a estimaciones (&#8230;) o enfocarse en cantidades medibles, como el consumo de energ\u00eda durante las fases de entrenamiento e inferencia\u201d, explican los autores. La mayor\u00eda de an\u00e1lisis, a\u00f1aden, se centran en las emisiones producidas tras el lanzamiento de la propia herramienta. No es el caso de este trabajo.<\/p>\n<p class=\"\">Para hacer los c\u00e1lculos, se han convertido todos los gases de efecto invernadero (di\u00f3xido de carbono, metano y \u00f3xido nitroso) en equivalentes del di\u00f3xido de carbono, usando como medida el potencial de calentamiento global (GWP, por sus siglas inglesas) de cada gas con relaci\u00f3n al CO\u2082. <\/p>\n<p class=\"\">\u201cEl estudio es muy interesante para entender mejor la huella de carbono de los LLM\u201d, opina Shaolei Ren, profesor asociado de ingenier\u00eda el\u00e9ctrica y computacional de la Universidad de California, Riverside y especialista en sostenibilidad de la IA. \u201cPero lo hubiera sido m\u00e1s todav\u00eda si los autores hubieran usado intensidades de carbono espec\u00edficas por pa\u00eds o regi\u00f3n, ya que hay diferencias importantes\u201d.<\/p>\n<\/div>\n\n","protected":false},"excerpt":{"rendered":"<p>El boom de la inteligencia artificial (IA) ha disparado el consumo de energ\u00eda y las emisiones de carbono de las grandes tecnol\u00f3gicas, en tanto que su existencia implica procesar inmensas cantidades de datos con m\u00e1quinas de alta capacidad. Pero no todos los modelos de IA generativa tienen el mismo consumo. Un grupo de investigadores ha &hellip;<\/p>\n","protected":false},"author":1,"featured_media":32410,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"https:\/\/imagenes.elpais.com\/resizer\/v2\/D743SHIFEZBEFP4SORIGXGPPNM.jpg?auth=f4113dbb503b8800ecfaab172e771417d39741a085aec65927682253c2dda900&width=1200","fifu_image_alt":"","footnotes":""},"categories":[2],"tags":[],"class_list":["post-32409","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/32409","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=32409"}],"version-history":[{"count":0,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/32409\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/media\/32410"}],"wp:attachment":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=32409"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=32409"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=32409"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}