El jefe de IA de Microsoft dice que sólo los seres biológicos pueden ser conscientes

El jefe de IA de Microsoft dice que sólo los seres biológicos pueden ser conscientes

Mustafa Suleyman, director ejecutivo de Microsoft AI, habla en un evento que conmemora el 50 aniversario de la empresa en la sede de Microsoft en Redmond, Washington, el 4 de abril de 2025.

David Ryder | Bloomberg | Imágenes falsas

microsoft El jefe de IA, Mustafa Suleyman, dice que sólo los seres biológicos son capaces de tener conciencia y que los desarrolladores e investigadores deberían dejar de realizar proyectos que sugieran lo contrario.

«No creo que sea un trabajo que la gente deba hacer», dijo Suleyman a CNBC en una entrevista esta semana en la Conferencia AfroTech en Houston, donde estuvo entre los oradores principales. «Si haces la pregunta equivocada, terminarás con la respuesta equivocada. Creo que es una pregunta totalmente equivocada».

Suleyman, el principal ejecutivo de Microsoft que trabaja en inteligencia artificial, ha sido una de las voces líderes en este campo que está surgiendo rápidamente y se ha pronunciado en contra de la perspectiva de una IA aparentemente consciente, o de servicios de IA que puedan convencer a los humanos de que son capaces de sufrir.

En 2023, fue coautor del libro «The Coming Wave», que profundiza en los riesgos de la IA y otras tecnologías emergentes. Y en agosto, Suleyman escribió un ensayo titulado «Debemos construir IA para las personas, no para ser una persona».

Es un tema controvertido, ya que el mercado de acompañantes de IA está creciendo rápidamente, con productos de empresas como Meta y xAI de Elon Musk. Y es una cuestión complicada a medida que el mercado de la IA generativa, liderado por Sam Altman y OpenAI, avanza hacia la inteligencia artificial general (AGI), o IA que puede realizar tareas intelectuales a la par de las capacidades de los humanos.

Lea más informes de CNBC sobre IA

Altman dijo a «Squawk Box» de CNBC en agosto que AGI «no es un término muy útil» y que lo que realmente está sucediendo es que los modelos están avanzando rápidamente y que dependeremos de ellos «para más y más cosas».

Para Suleyman, es particularmente importante establecer un contraste claro entre la IA que se vuelve más inteligente y capaz y su capacidad de tener emociones humanas.

«Nuestra experiencia física del dolor es algo que nos entristece mucho y nos hace sentir terribles, pero la IA no se siente triste cuando experimenta ‘dolor'», dijo Suleyman. «Es una distinción muy, muy importante. En realidad se trata simplemente de crear la percepción, la aparente narrativa de la experiencia y de sí misma y de la conciencia, pero eso no es lo que realmente está experimentando. Técnicamente, lo sabes porque podemos ver lo que está haciendo el modelo».

Dentro del campo de la IA, existe una teoría llamada naturalismo biológico, propuesta por el filósofo John Searle, que dice que la conciencia depende de procesos de un cerebro vivo.

«La razón por la que hoy damos derechos a las personas es porque no queremos hacerles daño, porque sufren. Tienen una red de dolor y preferencias que implican evitar el dolor», dijo Suleyman. «Estos modelos no tienen eso. Es sólo una simulación».

Quedan algunos años en el ciclo de gasto de capital en IA, dice Gene Munster de Deepwater

Suleyman y otros han dicho que la ciencia de detectar la conciencia está todavía en su infancia. No llegó a decir que se debería impedir que otros investiguen el asunto, reconociendo que «diferentes organizaciones tienen diferentes misiones».

Pero Suleyman enfatizó cuán firmemente se opone a la idea.

«No están conscientes», dijo. «Así que sería absurdo realizar investigaciones que investiguen esa cuestión, porque no lo son ni pueden serlo».

‘Lugares a los que no iremos’

Suleyman está realizando una gira de conferencias, en parte para informar al público sobre los riesgos de buscar conciencia sobre la IA.

Antes de la Conferencia AfroTech, habló la semana pasada en la Cumbre del Consejo Internacional Paley en Silicon Valley. Allí, Suleyman dijo que Microsoft no creará chatbots para el erotismo, una postura que está en conflicto con otras en la industria tecnológica. Altman anunció en octubre que ChatGPT permitirá a los usuarios adultos entablar conversaciones eróticas, mientras que xAI ofrece un compañero de anime atrevido.

«Básicamente, puedes comprar esos servicios de otras empresas, por lo que estamos tomando decisiones sobre a qué lugares no iremos», reiteró Suleyman en AfroTech.

Suleyman se unió a Microsoft en 2024 después de que la compañía pagara a su startup, Inflection AI, 650 millones de dólares en un acuerdo de licencia y adquisición. Anteriormente cofundó DeepMind y lo vendió a Google por 400 millones de dólares hace más de una década.

Durante su sesión de preguntas y respuestas en AfroTech, Suleyman dijo que decidió unirse a Microsoft el año pasado en parte debido a la historia, la estabilidad y el vasto alcance tecnológico de la compañía. También fue perseguido por el director ejecutivo Satya Nadella.

«Lo otro que hay que decir es que Microsoft necesitaba ser autosuficiente en IA», dijo en el escenario. «Satya, nuestro director ejecutivo, emprendió esta misión hace aproximadamente 18 meses, para asegurarnos de que internamente tengamos la capacidad de entrenar nuestros propios modelos de principio a fin con todos nuestros propios datos, antes y después de la capacitación, el razonamiento y la implementación en productos. Y eso fue parte de incorporar a mi equipo».

Desde 2019, Microsoft ha sido un importante inversor y socio en la nube de OpenAI, y las empresas han utilizado sus respectivas fortalezas para construir grandes negocios de IA. Pero la relación ha mostrado signos de tensión últimamente, con OpenAI asociándose con rivales de Microsoft como Google y Oráculoy Microsoft se centra más en sus propios servicios de inteligencia artificial.

Las preocupaciones de Suleyman sobre la conciencia han cobrado resonancia. En octubre, el gobernador de California, Gavin Newsom, firmó la SB 243, que exige que los chatbots revelen que son IA y digan a los menores cada tres horas que «se tomen un descanso».

La semana pasada, Microsoft anunció nuevas funciones para su servicio Copilot AI, incluido un compañero de IA llamado Mico y la capacidad de interactuar con Copilot en chats grupales con otras personas. Suleyman dijo que Microsoft está creando servicios que son conscientes de que son IA.

«En pocas palabras, estamos creando IA que siempre están trabajando al servicio del ser humano», dijo.

Hay mucho espacio para la personalidad, añadió.

«El conocimiento está ahí y los modelos son muy, muy receptivos», dijo Suleyman. «Corresponde a todos intentar esculpir personalidades de IA con valores que quieran ver, usar e interactuar».

Suleyman destacó una característica que Microsoft lanzó la semana pasada llamada conversación real, que es un estilo de conversación de Copilot diseñado para desafiar las perspectivas de los usuarios en lugar de ser adulador.

Suleyman describió las conversaciones reales como atrevidas y dijo que recientemente lo habían criticado, llamándolo «el último paquete de contradicciones» por advertir sobre los peligros de la IA en su libro y al mismo tiempo acelerar su desarrollo en Microsoft.

«Ese fue simplemente un caso de uso mágico porque de alguna manera pensé que realmente me siento visto por esto», dijo Suleyman, señalando que la IA en sí está llena de contradicciones.

«Es decepcionante en algunos aspectos y, al mismo tiempo, totalmente mágico», afirmó. «Y si no te asusta, realmente no lo entiendes. Deberías tenerle miedo. El miedo es saludable. El escepticismo es necesario. No necesitamos un aceleramiento desenfrenado».

MIRAR: Microsoft está ganando dinero con la IA, dice Brent Thill de Jefferies

Microsoft está ganando dinero con la IA, dice Brent Thill de Jefferies

Check Also

¿Por qué el concreto romano era tan resistente? Gracias a Pompeya, se confirma la respuesta

¿Por qué el concreto romano era tan resistente? Gracias a Pompeya, se confirma la respuesta

En 2023, Ars Técnica informó sobre la conclusión de científicos del MIT de que los …