Los humanos ya repiten palabras que aprenden de ChatGPT, como “ahondar” o “meticuloso” | Tecnología

El investigador Ezequiel López estaba hace poco en una conferencia académica y le sorprendería oír la insistencia de los ponentes en alguna palabra, como ahondar, que es ahondar, adentrarse o profundizar, en inglés. Otro investigador del Instituto Max Planck para el Desarrollo Humano (Berlín) tuvo una sensación parecida: algunas había palabras que, de repente, se repetían en las presentaciones y que antes apenas se oían.

Había ya alguna investigación sobre cómo se habían colado repetidamente palabras curiosas en artículos científicos, frases o párrafos escritos por ChatGPT u otras inteligencias artificiales. ¿Podría ser que ahora los humanos estuvieran ya repitiendo oralmente palabras popularizadas por las máquinas? Decidieron analizarlo. El primer reto fue encontrar suficientes ponencias recientes. Reunieron unos 300.000 vídeos de conferencias académicas y crearon un modelo para comprobar la frecuencia de aparición de algunas palabras durante los últimos años: “Nuestra pregunta es si puede que haya un efecto de adopción y transmisión cultural, que las máquinas están cambiando nuestra cultura y que luego se propaga”, dice López.

La respuesta es que sí. En 2022 detectaron un punto de inflexión en palabras en inglés que antes se oían poco como ahondar (ahondar), meticuloso (meticuloso), reino (reino, dominio) o adepto (ser diestro en algo). Iyad Rahwan, profesor del Instituto Max Planck y coautor de la investigación, afirma: “Es surrealista. Hemos creado una máquina que puede hablar, que aprendió a hacerlo de nosotros, de nuestra cultura. Y ahora estamos aprendiendo de la máquina. Es la primera vez en la historia que una tecnología humana puede enseñarnos cosas de manera tan específica”.

No es tan extraño que los humanos repitamos palabras nuevas que acabamos de aprender. Y más si son hablantes no nativos, como se da en una parte importante de la muestra en este caso. “No creo que sea un motivo de alarma porque al final está democratizando la habilidad de la comunicación. Si tú eres japonés y eres líder mundial de tu campo científico, pero cuando hablas en inglés en una conferencia pareces un americano de parvulario, se generan unos sesgos también sobre tu autoridad”, dice López.

ChatGPT permite que estos hablantes no nativos capturen mejores matices e incorporen palabras que antes no usaban. “Si no eres nativo inglés y mañana vas al cine y hay una palabra nueva que te sorprende, es probable que la adoptes también, como ocurre con margen de maniobra (margen de maniobra) es oppenheimer; o con aislamiento durante la pandemia”, dice López. Pero hay una salvación, señala este investigador. Es muy particular que las palabras adoptadas en esas conferencias académicas no sean sustantivos que ayuden a describir algo con más precisión, sino palabras instrumentales como verbos o adjetivos.

Hay dos consecuencias curiosas de esta adopción. Primero, desde que se ha hecho evidente en el mundo académico que estas palabras son creaciones de ChatGPT, se han convertido en malditas: usarlas puede llegar a estar mal visto. “Yo ya lo estoy viendo esto en mi propio laboratorio. Cada vez que alguien usa ‘ahondar’, todos lo pillan al instante y se burlan de él. Se ha vuelto una palabra tabú para nosotros”, dice Rahwan.

La segunda consecuencia puede ser peor. ¿Qué pasaría si, en lugar de hacernos adoptar palabras de manera aleatoria, estas máquinas pudieron medirnos en la cabeza palabras más connotadas? “Por un lado, lo que encontramos es bastante inofensivo. Pero esto muestra el enorme poder de la IA y de las pocas empresas que la controlan. ChatGPT es capaz de tener conversaciones simultáneas con mil millones de personas. Esto le da un poder considerable para influir en cómo vemos y describimos el mundo”, afirma Rahwan. Una máquina como esta podría determinar la forma en que la gente habla de guerras como las de Ucrania u Oriente Medio, o cómo describir a personas de una raza en particular o aplicar una visión sesgada a eventos históricos.

De momento, por su adopción global, el inglés es el idioma donde es más fácil detectar estos cambios. ¿Pero pasará también en español? “Me lo he preguntado. Supongo que algo similar pasará, pero el horrible de ciencia y tecnología es en inglés”, dice López.

También afecta la inteligencia colectiva

La IA generativa puede tener consecuencias insospecchadas en muchos otros ámbitos aparte del lenguaje. En otra investigación publicada en naturaleza comportamiento humano, López y sus coautores han encontrado que la inteligencia colectiva, tal y como la entendemos, está en peligro si empezamos a usar masivamente la IA. Las páginas de código colaborativo como GitHub o Stack Overflow perderán su rol si cada programador emplea un bot para generar código. Ya no habrá necesidad de consultar lo que han hecho antes otros colegas, ni mejorarlo o comentarlo.

Fotogramas extraídos de las conferencias analizadas para comprobar el crecimiento de las palabras promovidas por ChatGPT y otras IA generativas.
Fotogramas extraídos de las conferencias analizadas para comprobar el crecimiento de las palabras promovidas por ChatGPT y otras IA generativas.

Para Jason Burton, profesor de la Universidad de Negocios de Copenhague y coautor del artículo, “los modelos de lenguaje no significan el fin de GitHub o Stack Overflow. Pero ya están cambiando cómo las personas contribuyentes y se relacionan con estas plataformas. Si la gente recurre a ChatGPT en lugar de buscar cosas en foros públicos, es probable que sigamos viendo una disminución de actividad en esas plataformas, porque los posibles colaboradores ya no tendrán su audiencia”.

La programación es solo una posible víctima de la IA. La Wikipedia y sus escritores igual pasan a ser simples revisores si todo lo escribe un bot. Incluso la educación es algo que habría que revisar, según López: “Imaginamos que, en el sistema educativo actual, profesores y alumnos se van apoyando cada vez más en estas tecnologías; unos para diseñar preguntas y otros para buscar las respuestas. En algún momento habrá que replantearse cuál es la función que deben tener estos sistemas y cuál sería nuestro nuevo rol eficiente en convivencia con ellos. Sobre todo para que la educación no acabe consistiendo en que alumnos y profesores finjan por ambas partes y representen, durante ocho horas al día, una obra de teatro”.

Estos modelos de lenguaje no son solo la promesa de algo malo para la inteligencia colectiva. También son capaces de resumir, agregar o mediar en complejos procesos de deliberación colaborativa. Pero, como señala Burton, la cautela debe ser básica en estos procesos para evitar la coincidencia en el pensamiento grupal: “Incluso si cada capacidad individual se ve mejorada al usar una aplicación como ChatGPT, esto aún podría llevar a malos resultados a nivel colectivo. Si todos comienzan a depender de la misma aplicación, podría homogeneizar sus perspectivas y hacer que muchas personas cometan los mismos errores y pasen por alto las mismas cosas, en lugar de que cada persona cometa errores diferentes y se corrijan entre sí”. Por eso, con su estudio, estos investigadores piden reflexión y posibles intervenciones políticas para permitir un campo más diverso de desarrolladores de modelos de lenguaje y, así, evitar un panorama dominado por un solo modelo.



Verifique también

El primer satélite de madera lanzado al espacio

Por primera vez en el mundo, los científicos lanzaron al espacio un satélite hecho de …

Comments are closed.