Hombre hospitalizado después de Chatgpt El consejo dietético conduce a envenenamiento tóxico

Hombre hospitalizado después de Chatgpt El consejo dietético conduce a envenenamiento tóxico

NUEVO¡Ahora puedes escuchar artículos de Fox News!

Un hombre que usó ChatGPT para consejos dietéticos terminó envenenándose a sí mismo y terminó en el hospital.

El hombre de 60 años, que buscaba eliminar la sal de la mesa de su dieta por razones de salud, utilizó el modelo de lenguaje grande (LLM) para obtener sugerencias sobre qué reemplazarla, según un estudio de caso publicado esta semana en los Anales de la Medicina Interna.

Cuando ChatGPT sugirió intercambiar cloruro de sodio (sal de mesa) por el bromuro de sodio, el hombre hizo el reemplazo por un período de tres meses, aunque, señaló el artículo de la revista, la recomendación probablemente se refería a él para otros fines, como la limpieza.

ChatGPT podría volver a cablear su cerebro en silencio mientras los expertos instan a la precaución para el uso a largo plazo

El bromuro de sodio es un compuesto químico que se asemeja a la sal, pero es tóxico para el consumo humano.

Una vez se usó como anticonvulsivo y sedante, pero hoy se usa principalmente para fines de limpieza, fabricación y agrícola, según los Institutos Nacionales de Salud.

Hombre hospitalizado después de Chatgpt El consejo dietético conduce a envenenamiento tóxico

Un hombre que usó ChatGPT para consejos dietéticos terminó envenenándose a sí mismo y terminó en el hospital. (Kurt «Cyberguy» Knutsson)

Cuando el hombre llegó al hospital, informó haber experimentado fatiga, insomnio, mala coordinación, acné facial, angiomas de cereza (protuberancias rojos en la piel) y sed excesivas, todos los síntomas del bromismo, una condición causada por la exposición a largo plazo al bromuro de sodio.

El hombre también mostró signos de paranoia, señaló el estudio de caso, ya que afirmó que su vecino estaba tratando de envenenarlo.

La inteligencia artificial detecta el cáncer con un 25% mayor de precisión que los médicos en el estudio de UCLA

También se descubrió que tenía alucinaciones auditivas y visuales, y finalmente fue puesto en espera psiquiátrica después de intentar escapar.

El hombre fue tratado con fluidos intravenosos y electrolitos, y también se puso en medicamentos antipsicóticos. Fue dado de alta del hospital después de tres semanas de monitoreo.

«Este caso también destaca cómo el uso de la inteligencia artificial (IA) puede contribuir potencialmente al desarrollo de resultados de salud adversos prevenibles», escribieron los investigadores en el estudio de caso.

«Estas son herramientas de predicción del lenguaje: carecen de sentido común y darán lugar a resultados terribles si el usuario humano no aplica su propio sentido común».

«Desafortunadamente, no tenemos acceso a su registro de conversación de ChatGPT y nunca podremos saber con certeza cuál era exactamente el resultado que recibió, ya que las respuestas individuales son únicas y se construyen a partir de entradas anteriores».

Es «muy poco probable» que un médico humano hubiera mencionado el bromuro de sodio al hablar con un paciente que busca un sustituto del cloruro de sodio, señalaron.

Los nuevos análisis de herramientas de inteligencia artificial se enfrentan a las fotos para predecir los resultados de salud

«Es importante considerar que ChatGPT y otros sistemas de IA pueden generar inexactitudes científicas, carecen de la capacidad de discutir críticamente los resultados y, en última instancia, alimentar la propagación de la información errónea», concluyeron los investigadores.

El Dr. Jacob Glanville, CEO de Centivax, una compañía de biotecnología de San Francisco, enfatizó que las personas no deberían usar ChatGPT como sustituto de un médico.

Hombre vertiendo sal en la olla

Cuando ChatGPT sugirió intercambiar cloruro de sodio (sal de mesa) por el bromuro de sodio, el hombre, no en la foto, hizo el reemplazo por un período de tres meses. (Istock)

«Estas son herramientas de predicción del lenguaje: carecen de sentido común y darán lugar a resultados terribles si el usuario humano no aplica su propio sentido común al decidir qué preguntar en estos sistemas y si atender sus recomendaciones», dijo Glanville, quien no participó en el estudio de caso, a Fox News Digital.

Haga clic aquí para obtener la aplicación Fox News

«Este es un ejemplo clásico del problema: el sistema esencialmente fue: ‘¿Quieres una alternativa de sal?

Dr. Harvey Castro, un certificado de la junta médico de medicina de emergencia y el orador nacional sobre inteligencia artificial con sede en Dallas, confirmó que la IA es una herramienta y no un médico.

Hombre Spooning Salt

Es «muy poco probable» que un médico humano haya mencionado el bromuro de sodio al hablar con un paciente que busca un sustituto del cloruro de sodio, dijeron los investigadores. (Istock)

«Los modelos de idiomas grandes generan texto predecir la secuencia de palabras más estadísticamente probable, no al verificar los hechos», dijo a Fox News Digital.

«El error de bromuro de Chatgpt muestra por qué el contexto es el rey en los consejos de salud», continuó Castro. «La IA no es un reemplazo para el juicio médico profesional, alineándose con las renuncias de Operai».

Castro también advirtió que hay una «brecha de regulación» cuando se trata de usar LLM para obtener información médica.

«Nuestros términos dicen que ChatGPT no está destinado a su uso en el tratamiento de ninguna condición de salud, y no es un sustituto de asesoramiento profesional».

«Las prohibiciones de la FDA sobre el bromuro no se extienden al consejo de IA: la supervisión global de la IA de salud sigue sin definirse», dijo.

También existe el riesgo de que LLMS pueda tener sesgo de datos y una falta de verificación, lo que lleva a información alucinada.

Haga clic aquí para registrarse en nuestro boletín de salud

«Si los datos de entrenamiento incluyen referencias obsoletas, raras o enfocadas químicamente, el modelo puede superficialmente en contextos inapropiados, como el bromuro como sustituto de sal», señaló Castro.

«Además, las LLM actuales no tienen una verificación cruzada incorporada contra bases de datos médicas actualizadas a menos que se integren explícitamente».

Aplicación Operai Chatgpt en el sitio web de App Store

Un experto advirtió que hay una «brecha de regulación» cuando se trata de usar modelos de idiomas grandes para obtener información médica. (Jakub Porzycki/Nurphoto)

Para prevenir casos como este, Castro pidió más salvaguardas para LLM, como bases de conocimiento médico integrado, banderas de riesgo automatizadas, indicaciones contextuales y una combinación de supervisión humana y de IA.

El experto agregó: «Con salvaguardas específicas, los LLM pueden evolucionar de generalistas riesgosos a herramientas más seguras y especializadas; sin embargo, sin regulación y supervisión, probablemente se recurrirán a casos raros como este».

Para más artículos de salud, visite www.foxnews.com/Health

Operai, el fabricante de chatgpt con sede en San Francisco, proporcionó la siguiente declaración a Fox News Digital.

«Nuestros términos dicen que ChatGPT no está destinado a su uso en el tratamiento de ninguna condición de salud, y no es un sustituto del asesoramiento profesional. Tenemos equipos de seguridad que trabajan para reducir los riesgos y hemos capacitado nuestros sistemas de IA para alentar a las personas a buscar orientación profesional».

Check Also

Los médicos explican los síntomas del cáncer de lengua y el vínculo con el VPH

Los médicos explican los síntomas del cáncer de lengua y el vínculo con el VPH

NUEVO¡Ahora puedes escuchar los artículos de Fox News! Inmediatamente después del anuncio del comediante Dave …