{"id":57846,"date":"2026-01-31T21:01:16","date_gmt":"2026-02-01T01:01:16","guid":{"rendered":"https:\/\/noticiasveraces.com\/?p=57846"},"modified":"2026-01-31T21:01:16","modified_gmt":"2026-02-01T01:01:16","slug":"que-papel-les-queda-a-las-redes-gpu-descentralizadas-en-la-ia","status":"publish","type":"post","link":"https:\/\/noticiasveraces.com\/?p=57846","title":{"rendered":"\u00bfQu\u00e9 papel les queda a las redes GPU descentralizadas en la IA?"},"content":{"rendered":"<p> \n<\/p>\n<div data-testid=\"html-renderer-container\">\n<p data-ct-non-breakable=\"undefined\">Las redes de GPU descentralizadas se presentan como una capa de menor costo para ejecutar cargas de trabajo de IA, mientras que el entrenamiento de los modelos m\u00e1s recientes permanece concentrado dentro de los centros de datos a hiperescala.<\/p>\n<p>El entrenamiento de IA de frontera implica la construcci\u00f3n de los sistemas m\u00e1s grandes y avanzados, un proceso que requiere que miles de GPU operen en estricta sincronizaci\u00f3n.<\/p>\n<p data-ct-non-breakable=\"undefined\">Ese nivel de coordinaci\u00f3n hace que las redes descentralizadas sean poco pr\u00e1cticas para el entrenamiento de IA de alto nivel, donde la latencia y la fiabilidad de <em>Internet<\/em> no pueden igualar el hardware estrechamente acoplado\u00a0en los centros de datos centralizados.<\/p>\n<p data-ct-non-breakable=\"undefined\">La mayor\u00eda de las cargas de trabajo de IA en producci\u00f3n no se asemejan al entrenamiento de modelos a gran escala, abriendo espacio para que las redes descentralizadas manejen la inferencia y las tareas cotidianas.<\/p>\n<p data-ct-non-breakable=\"undefined\">\u201cLo que estamos empezando a ver es que muchos modelos de c\u00f3digo abierto y otros se est\u00e1n volviendo lo suficientemente compactos y optimizados como para funcionar de manera muy eficiente en GPU de consumo\u201d, dijo a Cointelegraph Mitch Liu, cofundador y CEO de Theta Network. \u201cEsto est\u00e1 creando un cambio hacia modelos de c\u00f3digo abierto m\u00e1s eficientes y enfoques de procesamiento m\u00e1s econ\u00f3micos\u201d.<\/p>\n<figure>    <img decoding=\"async\" alt=\"Nvidia, Negocios, Descentralizaci\u00f3n, IA, GPU, Caracter\u00edsticas\" src=\"https:\/\/s3.cointelegraph.com\/uploads\/2026-01\/019c0f2d-78d0-75de-9412-29c8b8aa9e3b.jpg\"\/><figcaption style=\"text-align: center;\"><em>El entrenamiento de modelos de IA de frontera requiere una gran cantidad de GPU y permanece concentrado en los centros de datos a hiperescala. Fuente: <\/em><em>Derya Unutmaz<\/em><\/figcaption><\/figure>\n<h2>Del entrenamiento de IA de frontera a la inferencia cotidiana<\/h2>\n<p>El entrenamiento de frontera se concentra entre unos pocos operadores a hiperescala, ya que ejecutar grandes trabajos de entrenamiento es costoso y complejo. El hardware de IA m\u00e1s reciente,\u00a0como Vera Rubin de Nvidia, est\u00e1 dise\u00f1ado para optimizar el rendimiento en entornos de centros de datos integrados.<\/p>\n<p>\u201cPuedes pensar en el entrenamiento de modelos de IA de frontera como la construcci\u00f3n de un rascacielos\u201d, dijo a Cointelegraph N\u00f6kkvi Dan Ellidason, CEO de la empresa de infraestructura Ovia Systems (antes Gaimin). \u201cEn un centro de datos centralizado, todos los trabajadores est\u00e1n en el mismo andamio, pas\u00e1ndose los ladrillos a mano\u201d.<\/p>\n<p data-ct-non-breakable=\"undefined\">Ese nivel de integraci\u00f3n deja poco espacio para la coordinaci\u00f3n laxa y la latencia variable t\u00edpicas de las redes distribuidas.<\/p>\n<p>\u201cPara construir el mismo rascacielos [en una red descentralizada]tienen que enviarse cada ladrillo por correo a trav\u00e9s de la <em>Internet<\/em> abierta, lo cual es muy ineficiente\u201d, continu\u00f3 Ellidason.<\/p>\n<figure>    <img decoding=\"async\" alt=\"Nvidia, Negocios, Descentralizaci\u00f3n, IA, GPU, Caracter\u00edsticas\" src=\"https:\/\/s3.cointelegraph.com\/uploads\/2026-01\/019c0f2d-fa71-71db-9f35-8a5afb912413.jpg\"\/><figcaption style=\"text-align: center;\"><em>Los gigantes de la IA contin\u00faan absorbiendo una cuota creciente del suministro global de GPU. Fuente: <\/em><em>Sam Altman<\/em><\/figcaption><\/figure>\n<p data-ct-non-breakable=\"undefined\">Meta\u00a0entren\u00f3\u00a0su modelo de IA Llama 4 utilizando un cl\u00faster de m\u00e1s de 100.000 GPU Nvidia H100. OpenAI no revela el tama\u00f1o de los cl\u00fasteres de GPU utilizados para entrenar sus modelos, pero el l\u00edder de infraestructura Anuj Saharan\u00a0dijo\u00a0que GPT-5 fue lanzado con el apoyo de m\u00e1s de 200.000 GPU, sin especificar cu\u00e1nto de esa capacidad se utiliz\u00f3 para entrenamiento frente a inferencia u otras cargas de trabajo.<\/p>\n<p data-ct-non-breakable=\"undefined\">La inferencia se refiere a la ejecuci\u00f3n de modelos entrenados para generar respuestas para usuarios y aplicaciones. Ellidason dijo que el mercado de la IA ha alcanzado un \u201cpunto de inflexi\u00f3n de inferencia\u201d. Si bien el entrenamiento domin\u00f3 la demanda de GPU tan recientemente como en 2024, estim\u00f3 que hasta el 70% de la demanda ser\u00e1 impulsada por la inferencia, los agentes y las cargas de trabajo de predicci\u00f3n en 2026.<\/p>\n<p>\u201cEsto ha convertido la computaci\u00f3n de un costo de investigaci\u00f3n en un costo de utilidad continuo y escalable\u201d, dijo Ellidason. \u201cAs\u00ed, el multiplicador de demanda a trav\u00e9s de bucles internos convierte la computaci\u00f3n descentralizada en una opci\u00f3n viable en la conversaci\u00f3n sobre la computaci\u00f3n h\u00edbrida\u201d.<\/p>\n<h2>D\u00f3nde encajan realmente las redes de GPU descentralizadas<\/h2>\n<p data-ct-non-breakable=\"undefined\">Las redes de GPU descentralizadas son las m\u00e1s adecuadas para cargas de trabajo que pueden dividirse, enrutarse y ejecutarse de forma independiente, sin requerir una sincronizaci\u00f3n constante entre m\u00e1quinas.<\/p>\n<p>\u201cLa inferencia es el negocio de volumen y escala con cada modelo desplegado y bucle de agente\u201d, dijo a Cointelegraph Evgeny Ponomarev, cofundador de la plataforma de computaci\u00f3n descentralizada Fluence. \u201cAh\u00ed es donde el costo, la elasticidad y la distribuci\u00f3n geogr\u00e1fica importan m\u00e1s que las interconexiones perfectas\u201d.<\/p>\n<p data-ct-non-breakable=\"undefined\">En la pr\u00e1ctica, eso hace que las GPU descentralizadas y\u00a0de grado <em>juego de azar<\/em> en entornos de consumo\u00a0sean m\u00e1s adecuadas para cargas de trabajo de producci\u00f3n que priorizan el rendimiento y la flexibilidad sobre la coordinaci\u00f3n estricta.<\/p>\n<figure>    <img decoding=\"async\" alt=\"Nvidia, Negocios, Descentralizaci\u00f3n, IA, GPU, Caracter\u00edsticas\" src=\"https:\/\/s3.cointelegraph.com\/uploads\/2026-01\/019c0f2e-7cf9-7aba-a03c-9aa039e33618.jpg\"\/><figcaption style=\"text-align: center;\"><em>Los bajos precios por hora de las GPU de consumo ilustran por qu\u00e9 las redes descentralizadas se dirigen a la inferencia en lugar del entrenamiento de modelos a gran escala. Fuente: <\/em><em>ensalada.com<\/em><\/figcaption><\/figure>\n<p>\u201cLas GPU de consumo, con menor VRAM y conexiones a <em>Internet<\/em> dom\u00e9sticas, no tienen sentido para el entrenamiento o las cargas de trabajo altamente sensibles a la latencia\u201d, dijo a Cointelegraph Bob Miles, CEO de Salad Technologies, un agregador de GPU de consumo inactivas.<\/p>\n<blockquote><p>\u201cHoy en d\u00eda, son m\u00e1s adecuadas para el descubrimiento de f\u00e1rmacos con IA, texto a imagen\/v\u00eddeo y grandes <em>tuber\u00edas<\/em> de procesamiento de datos; para cualquier carga de trabajo sensible al costo, las GPU de consumo destacan por su relaci\u00f3n rendimiento-precio.\u201d<\/p><\/blockquote>\n<p>Las redes de GPU descentralizadas tambi\u00e9n son muy adecuadas para tareas como la recopilaci\u00f3n, limpieza y preparaci\u00f3n de datos para el entrenamiento de modelos. Dichas tareas a menudo requieren un amplio acceso a la web abierta y pueden ejecutarse en paralelo sin una coordinaci\u00f3n estricta.<\/p>\n<p data-ct-non-breakable=\"undefined\">Este tipo de trabajo es dif\u00edcil de ejecutar de manera eficiente dentro de los centros de datos a hiperescala sin una infraestructura de <em>apoderado<\/em> extensa, dijo Miles.<\/p>\n<p>Al servir a usuarios de todo el mundo, un modelo descentralizado puede tener una ventaja geogr\u00e1fica, ya que puede reducir las distancias que las solicitudes tienen que recorrer y los m\u00faltiples saltos de red antes de llegar a un centro de datos, lo que puede aumentar la latencia.<\/p>\n<p data-ct-non-breakable=\"undefined\">\u201cEn un modelo descentralizado, las GPU se distribuyen en muchas ubicaciones a nivel mundial, a menudo mucho m\u00e1s cerca de los usuarios finales. Como resultado, la latencia entre el usuario y la GPU puede ser significativamente menor en comparaci\u00f3n con el enrutamiento del tr\u00e1fico a un centro de datos centralizado\u201d, dijo Liu de Theta Network.<\/p>\n<p data-ct-non-breakable=\"undefined\">Theta Network se enfrenta a una demanda presentada en Los \u00c1ngeles en diciembre de 2025 por dos exempleados que alegan fraude y manipulaci\u00f3n de tokens. Liu dijo que no pod\u00eda comentar sobre el asunto porque hay un litigio pendiente. Theta ha\u00a0negado\u00a0previamente las acusaciones.<\/p>\n<h2>Una capa complementaria en la computaci\u00f3n de IA<\/h2>\n<p>El entrenamiento de IA de vanguardia seguir\u00e1 siendo centralizado en el futuro previsible, pero la computaci\u00f3n de IA se est\u00e1 desplazando hacia la inferencia, los agentes y las cargas de trabajo de producci\u00f3n que requieren una coordinaci\u00f3n m\u00e1s flexible. Esas cargas de trabajo recompensan la eficiencia de costos, la distribuci\u00f3n geogr\u00e1fica y la elasticidad.<\/p>\n<p>\u201cEste ciclo ha visto el auge de muchos modelos de c\u00f3digo abierto que no est\u00e1n a la escala de sistemas como ChatGPT, pero que a\u00fan son lo suficientemente capaces como para ejecutarse en ordenadores personales equipados con GPU como la RTX 4090 o la 5090\u201d, dijo a Cointelegraph Jieyi Long, cofundador con Liu y jefe de tecnolog\u00eda de Theta.<\/p>\n<p data-ct-non-breakable=\"undefined\">Con ese nivel de hardware, los usuarios pueden ejecutar modelos de difusi\u00f3n, modelos de reconstrucci\u00f3n 3D y otras cargas de trabajo significativas localmente, creando una oportunidad para que los usuarios minoristas compartan sus recursos de GPU, seg\u00fan Long.<\/p>\n<p>Las redes de GPU descentralizadas no son un reemplazo para los hiperescaladores, pero se est\u00e1n convirtiendo en una capa complementaria.<\/p>\n<p data-ct-non-breakable=\"undefined\">A medida que el hardware de consumo se vuelve m\u00e1s capaz y los modelos de c\u00f3digo abierto se vuelven m\u00e1s eficientes, una clase creciente de tareas de IA puede moverse fuera de los centros de datos centralizados, permitiendo que los modelos descentralizados encajen en el <em>pila<\/em> por IA.<\/p>\n<p data-ct-non-breakable=\"undefined\"><strong>Aclaraci\u00f3n:<\/strong> La informaci\u00f3n y\/u opiniones emitidas en este art\u00edculo no representan necesariamente los puntos de vista o la l\u00ednea editorial de Cointelegraph. La informaci\u00f3n aqu\u00ed expuesta no debe ser tomada como consejo financiero o recomendaci\u00f3n de inversi\u00f3n. Toda inversi\u00f3n y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigaci\u00f3n antes de tomar una decisi\u00f3n de inversi\u00f3n.<\/p>\n<\/div>\n\n","protected":false},"excerpt":{"rendered":"<p>Las redes de GPU descentralizadas se presentan como una capa de menor costo para ejecutar cargas de trabajo de IA, mientras que el entrenamiento de los modelos m\u00e1s recientes permanece concentrado dentro de los centros de datos a hiperescala. El entrenamiento de IA de frontera implica la construcci\u00f3n de los sistemas m\u00e1s grandes y avanzados, &hellip;<\/p>\n","protected":false},"author":1,"featured_media":57848,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"https:\/\/images.cointelegraph.com\/cdn-cgi\/image\/f=auto,onerror=redirect,w=1200\/https:\/\/s3.cointelegraph.com\/uploads\/2026-01\/019c0f32-9148-7b9d-b7d7-79d5c1b0f97f.jpg","fifu_image_alt":"","footnotes":""},"categories":[5],"tags":[],"class_list":["post-57846","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-entretenimiento"],"_links":{"self":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/57846","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=57846"}],"version-history":[{"count":0,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/57846\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/media\/57848"}],"wp:attachment":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=57846"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=57846"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=57846"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}