{"id":24965,"date":"2025-04-28T22:04:41","date_gmt":"2025-04-29T02:04:41","guid":{"rendered":"https:\/\/noticiasveraces.com\/?p=24965"},"modified":"2025-04-28T22:04:41","modified_gmt":"2025-04-29T02:04:41","slug":"en-busca-de-una-ia-mas-ecologica-tecnologia","status":"publish","type":"post","link":"https:\/\/noticiasveraces.com\/?p=24965","title":{"rendered":"En busca de una IA m\u00e1s ecol\u00f3gica | Tecnolog\u00eda"},"content":{"rendered":"<p> \n<br \/><img decoding=\"async\" src=\"https:\/\/imagenes.elpais.com\/resizer\/v2\/MKU5ZUW3IJH4PCGGUC2YCID554.jpg?auth=acfa857828953cb7eae9fd694800b9ac3cd70210c09fd1a49e6a783275a8accb\" \/><\/p>\n<div data-dtm-region=\"articulo_cuerpo\">\n<p class=\"\">En la alborotada carrera por la inteligencia artificial (IA) se suceden las novedades. Y entre los nuevos lanzamientos afloran cada vez m\u00e1s los llamados peque\u00f1os modelos, <i>modelos de lenguaje peque\u00f1o<\/i> o SLM. Son diferentes a los LLM, los grandes modelos que sirven como motor a ChatGPT o Google Gemini. Estos sistemas, m\u00e1s sencillos y orientados a una mayor eficiencia de los recursos, a veces se pueden ejecutar en un ordenador o incluso un m\u00f3vil.<\/p>\n<p class=\"\">Es lo opuesto al funcionamiento de los grandes sistemas de IA, que recurren a la computaci\u00f3n en la nube para funcionar. Esto significa procesar la informaci\u00f3n en la gran maquinaria de los centros de datos. Y los efectos en el medioambiente se dejar\u00e1n notar. El banco de inversi\u00f3n Goldman Sachs calcula que la IA incrementar\u00e1 las necesidades energ\u00e9ticas de los centros de datos en un 165% para 2030. El pron\u00f3stico se produce en el contexto de una fiebre por construir este tipo de infraestructuras.<\/p>\n<aside class=\"a_ei\">\n<header class=\"a_ei_h _db\">M\u00e1s informaci\u00f3n<\/header>\n<\/aside>\n<p class=\"\">La empresa estadounidense OpenAI tiene previsto invertir, junto a varios socios, hasta 500.000 millones de d\u00f3lares en levantar centros de datos. Solo en 2025, Amazon, Microsoft, Google y Meta planean desembolsar un total de m\u00e1s de 320.000 millones en este tipo de infraestructura. Al mismo tiempo, la Comisi\u00f3n Europea anunci\u00f3 un programa para dedicar 200.000 millones de euros, con financiaci\u00f3n mixta, para construir centros de datos destinados a la IA.<\/p>\n<p class=\"\">Ante esta batalla por acumular recursos de computaci\u00f3n, los peque\u00f1os modelos de IA podr\u00edan ser una alternativa m\u00e1s sostenible. Mistral Small 3.1, la opci\u00f3n de la <i>puesta en marcha<\/i> francesa del mismo nombre, funciona en un Mac con 32 gigabytes de memoria RAM, mientras que el proyecto de c\u00f3digo abierto TinyLlama 1.1B se puede implementar en ordenadores con m\u00e1s de 8 gigabytes de RAM, incluso hay quien lo ha probado en <i>tel\u00e9fonos inteligentes<\/i>. Como parte de su cat\u00e1logo de novedades en IA, Google lanz\u00f3 recientemente Gemma 3 1B, un modelo preparado para dispositivos m\u00f3viles. La idea es que los desarrolladores lo integren en sus <i>aplicaciones <\/i>para realizar tareas sin conectarse a internet.<\/p>\n<p class=\"\">\u201cLos peque\u00f1os modelos est\u00e1n optimizados de forma que tengan menor n\u00famero de par\u00e1metros, as\u00ed que al final la red es m\u00e1s peque\u00f1a.\u202fCuanto m\u00e1s peque\u00f1o es el modelo m\u00e1s eficiente es en consumo de energ\u00eda, porque necesita hacer menos operaciones y necesita menos espacio de almacenamiento\u201d, explica Ver\u00f3nica Bol\u00f3n-Canedo, investigadora de IA en el Centro de Investigaci\u00f3n en Tecnolog\u00edas de la Informaci\u00f3n y de las Comunicaciones\u202fde la Universidad de A Coru\u00f1a. Ella es una de las autoras de un estudio que explora f\u00f3rmulas para fomentar una IA m\u00e1s sostenible a nivel medioambiental.<\/p>\n<p class=\"\">\u201cSi adem\u00e1s consigues que el modelo se pueda ejecutar en un dispositivo, te ahorras tener que estar enviando cada nueva consulta a un centro de datos. Esto, obviamente, tiene el coste de transmitir los datos y, adem\u00e1s, los grandes centros de datos consumen m\u00e1s energ\u00eda. Todo eso te lo ahorras si lo haces en tu propio dispositivo\u201d, comenta Bol\u00f3n-Canedo.<\/p>\n<p class=\"\">Eso s\u00ed, los peque\u00f1os modelos que se ejecutan en un ordenador o un m\u00f3vil son menos precisos y no sirven para cualquier tarea. Todo lo que tenga que ver con generaci\u00f3n de im\u00e1genes se complica, por ejemplo. Aunque se hacen progresos r\u00e1pidamente.<\/p>\n<p class=\"\">\u201cEl desarrollo de modelos de lenguaje peque\u00f1os, modelos multimodales y de razonamiento de alta calidad avanza a gran velocidad. Las compa\u00f1\u00edas preparan estos modelos de manera activa para aplicaciones comerciales y para la inferencia (las operaciones que los modelos hacen para responder a una consulta) en el propio dispositivo\u201d, indica George Tsirtsis, director de tecnolog\u00eda de Qualcomm en Europa. Su empresa, que vende chips a una gran cantidad de marcas de tel\u00e9fonos, utiliz\u00f3 hace dos a\u00f1os el modelo Stable Diffusion en un m\u00f3vil para generar una imagen y comprob\u00f3 que tardaba 15 segundos. La tarea ocupa ahora menos de un segundo gracias al desarrollo de procesadores dise\u00f1ados para la IA.<\/p>\n<p class=\"\">Es dif\u00edcil de calcular, pero cabe pensar que el ahorro de energ\u00eda ser\u00eda considerable al ejecutar modelos en un dispositivo. \u201cLos grandes centros de datos tienen m\u00e1quinas mucho m\u00e1s potentes, que consumen m\u00e1s energ\u00eda. Y tienen muchos problemas de refrigeraci\u00f3n. En tu ordenador o tu dispositivo, todo eso te lo ahorras\u201d, apunta Canedo-Bol\u00f3n, que a\u00f1ade otras ventajas de ejecutar los sistemas en local. \u201cNo hay tantos problemas de privacidad. Tus datos no abandonan tu dispositivo, no se van a la nube. Adem\u00e1s, se gana en rapidez porque no existe la latencia derivada de enviar la informaci\u00f3n, procesarla y recibir la respuesta\u201d.<\/p>\n<p class=\"\">Un informe de la Agencia Internacional de la Energ\u00eda estima que los centros de datos, que ahora representan el 1,5% del total de la energ\u00eda consumida, supondr\u00e1n el 3% en 2030. Alcanzar\u00edan los 945 teravatios-hora anuales, una cifra superior a las necesidades energ\u00e9ticas de Jap\u00f3n. Las cargas de trabajo vinculadas a inteligencia artificial consumir\u00edan un 30% de electricidad m\u00e1s cada a\u00f1o.<\/p>\n<p class=\"\">\u201cEl procesamiento de la IA en un dispositivo suele ser mucho m\u00e1s eficiente a nivel energ\u00e9tico que preguntar a modelos de IA alojados en centros de datos, sobre todo en aplicaciones que requieren una respuesta en tiempo real o casi en tiempo real\u201d, se\u00f1ala Tsirtsis. Pero la ejecuci\u00f3n local tiene sus dificultades. La IA consume una gran cantidad de energ\u00eda y, si funciona solo dentro de un dispositivo, esto repercute en su bater\u00eda. De ah\u00ed que los fabricantes como Qualcomm hayan desarrollado las NPU (siglas en ingl\u00e9s de unidad de procesamiento neuronal), destinadas a manejar la inferencia de forma eficiente.<\/p>\n<p class=\"\">La compa\u00f1\u00eda tambi\u00e9n ha aplicado este tipo de procesadores a la primera generaci\u00f3n de los AI PC, una etiqueta inventada para pregonar la llegada de la IA a los ordenadores. \u201cNuestra plataforma Snapdragon X incorpora NPU de alto rendimiento y eficiencia energ\u00e9tica desarrolladas para la inferencia de la IA generativa. El dise\u00f1o de este <i>hardware<\/i> permite que los chips puedan gestionar tareas de IA complejas en el port\u00e1til, mientras que cuidan la bater\u00eda\u201d, expone Tsirtsis.<\/p>\n<p class=\"\">Pero a\u00fan queda por ver para qu\u00e9 tareas ser\u00e1n \u00fatiles las IA ejecutadas en local. En todo caso, los peque\u00f1os modelos no son un reemplazo de los grandes. \u201cHabr\u00e1 tareas para las que nos puede valer con el rendimiento que nos proporciona un modelo m\u00e1s peque\u00f1o que se ejecute en local, probablemente para generaci\u00f3n de texto\u201d, reflexiona la investigadora de IA. \u201cPero despu\u00e9s est\u00e1n las tareas que son m\u00e1s costosas computacionalmente, como una comprensi\u00f3n m\u00e1s profunda, un razonamiento o la IA multimodal (que integra informaci\u00f3n y conocimientos en distintos formatos, como texto, im\u00e1genes o audio). Para esas tareas seguramente necesites un modelo grande\u201d.<\/p>\n<p class=\"\">Algunas de las tareas aptas para llevar a cabo en el propio dispositivo podr\u00edan ser la redacci\u00f3n de textos sencillos, generar res\u00famenes, la lectura de escritura a mano en im\u00e1genes, traducci\u00f3n de textos o transcripciones de audio. Tsirtsis se muestra de acuerdo en que el futuro pasa por adoptar un enfoque h\u00edbrido. Su vaticinio es que ser\u00e1n las aplicaciones de IA las que llamar\u00e1n a la nube cuando sea necesario y resolver\u00e1n otras tareas en el propio dispositivo. Es una forma de avanzar hacia un equilibrio entre rendimiento y eficiencia energ\u00e9tica.<\/p>\n<\/div>\n\n","protected":false},"excerpt":{"rendered":"<p>En la alborotada carrera por la inteligencia artificial (IA) se suceden las novedades. Y entre los nuevos lanzamientos afloran cada vez m\u00e1s los llamados peque\u00f1os modelos, modelos de lenguaje peque\u00f1o o SLM. Son diferentes a los LLM, los grandes modelos que sirven como motor a ChatGPT o Google Gemini. Estos sistemas, m\u00e1s sencillos y orientados &hellip;<\/p>\n","protected":false},"author":1,"featured_media":24967,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"https:\/\/imagenes.elpais.com\/resizer\/v2\/MKU5ZUW3IJH4PCGGUC2YCID554.jpg?auth=acfa857828953cb7eae9fd694800b9ac3cd70210c09fd1a49e6a783275a8accb&width=1200","fifu_image_alt":"","footnotes":""},"categories":[2],"tags":[],"class_list":["post-24965","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/24965","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=24965"}],"version-history":[{"count":0,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/24965\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/media\/24967"}],"wp:attachment":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=24965"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=24965"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=24965"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}