
Microsoft posee muchos Nvidia Unidades de procesamiento de gráficos, pero no las está utilizando para desarrollar modelos de inteligencia artificial de última generación.
Hay buenas razones para ese puesto, Mustafa Suleyman, el CEO de AI de la compañía, dijo a Steve Kovach de CNBC en una entrevista el viernes. Esperar para construir modelos que tengan «tres o seis meses de retraso» ofrecen varias ventajas, incluidos costos más bajos y la capacidad de concentrarse en casos de uso específicos, dijo Suleyman.
Es «más barato dar una respuesta específica una vez que haya esperado los primeros tres o seis meses para que la frontera sea primero. Llamamos a eso fuera de frontier», dijo. «Esa es en realidad nuestra estrategia, es realmente jugar un segundo muy apretado, dada la intensividad de capital de estos modelos».
Suleyman se hizo un nombre como cofundador de Deepmind, el laboratorio de IA que Google compró en 2014, según los informes, por $ 400 millones a $ 650 millones. Suleyman llegó a Microsoft el año pasado junto con otros empleados de la Inflexión de inicio, donde había sido CEO.
Más que nunca, Microsoft cuenta con las relaciones con otras compañías para crecer.
Obtiene modelos de IA de la startup de San Francisco OpenAi y la potencia informática complementaria del recién público Coreweave en Nueva Jersey. Microsoft ha enriquecido repetidamente a Bing, Windows y otros productos con los últimos sistemas de Openai para escribir un lenguaje similar al humano y generar imágenes.
El copiloto de Microsoft obtendrá «memoria» para retener hechos clave sobre las personas que usan repetidamente al asistente, dijo Suleyman el viernes en un evento en la sede de Microsoft Redmond, Washington, para conmemorar el 50 cumpleaños de la compañía. Esa característica llegó primero a ChatGPT de Openai, que tiene 500 millones de usuarios semanales.
A través de ChatGPT, las personas pueden acceder a modelos de lenguaje grande de alto vuelo, como el modelo de razonamiento O1 que lleva tiempo antes de escupir una respuesta. Operai presentó esa capacidad en septiembre: solo unas semanas después, Microsoft trajo una capacidad similar llamada Think más profunda para copilotear.
Microsoft ocasionalmente libera modelos de lenguaje pequeño que pueden ejecutarse en PC. No requieren potentes GPU del servidor, haciéndolos diferentes de Openi’s O1.
Openai y Microsoft han tenido una relación estricta poco después de que la startup lanzó su chatgpt chatbot a fines de 2022, iniciando efectivamente la carrera generativa de IA. En total, Microsoft ha invertido $ 13.75 mil millones en la startup, pero más recientemente, las fisuras en la relación entre las dos compañías han comenzado a mostrarse.
Microsoft agregó OpenAI a su lista de competidores en julio de 2024, y Openai en enero anunció que estaba trabajando con el proveedor de la nube rival Oráculo en el proyecto Stargate de $ 500 mil millones. Eso llegó después de años de Openai confiando exclusivamente en la nube de Azure de Microsoft. A pesar de la asociación de Operai con Oracle, Microsoft en una publicación de blog anunció que la startup «recientemente había hecho un nuevo y grande compromiso azul».
«Mira, es absolutamente crítico que a largo plazo, podemos hacer AI autosuficientemente en Microsoft», dijo Suleyman. «Al mismo tiempo, pienso en estas cosas durante los períodos de cinco y 10 años. Ya sabes, hasta 2030, al menos, estamos profundamente asociados con Operai, quienes tienen [had an] relación enormemente exitosa para nosotros.
Microsoft se centra en construir su propia IA internamente, pero la compañía no se está presionando para construir los modelos más de vanguardia, dijo Suleyman.
«Tenemos un equipo de IA increíblemente fuerte, grandes cantidades de cómputo, y es muy importante para nosotros que, ya sabes, tal vez no desarrollemos la frontera absoluta, la mejor modelo del mundo primero», dijo. «Eso es muy, muy costoso de hacer e innecesario para causar esa duplicación».
MIRAR: Microsoft Copilot comienzo de un cambio sísmico en la integración de IA, dice el CEO de Microsoft AI, Suleyman