Reddit ya no es lo que era, y la IA tiene la culpa

Reddit ya no es lo que era, y la IA tiene la culpa

Y correo en Reddit sobre una novia que exige a una invitada a la boda vestir un tono específico y poco favorecedor seguramente provocaría indignación, al igual que otro sobre una dama de honor o la madre del novio que quiere ir de blanco. Una situación en la que un padre pide a alguien en un avión cambiar de asiento para poder sentarse junto a su hijo pequeño también es probable que genere el mismo enojo. Pero estos mensajes pueden irritar a un moderador de Reddit por una razón distinta: son temas recurrentes dentro de un género creciente de publicaciones falsas generadas por inteligencia artificial.

Estos son los ejemplos que le vienen a la mente a Cassie, una de las docenas de moderadores de r/AmItheAsshole. Con más de 24 millones de miembros, es uno de los subreddits más grandes, y prohíbe explícitamente el contenido generado por IA y otras historias inventadas. Desde finales de 2022, cuando ChatGPT se hizo público por primera vez, Cassie (a la que solo se puede hacer referencia por su nombre de pila) y otras personas que se ofrecen voluntarias para moderar las publicaciones de Reddit han estado luchando contra la afluencia de contenido generado por IA. Algunos de ellos están generados completamente por IA, mientras que otros usuarios han empezado a editar sus mensajes y comentarios con programas de IA como Grammarly.

«Es más frecuente de lo que cualquiera quisiera admitir, porque es muy fácil meter tu mensaje en ChatGPT y decirle: ‘Oye, haz que esto suene más emocionante'», refiere Cassie, que cree que hasta la mitad de todo el contenido que se publica en Reddit puede haber sido creado o reelaborado con IA de alguna manera.

r/AmItheAsshole es un pilar de la cultura de Reddit

Es subreddit ha inspirado a cientos de derivados como r/AmIOverreacting, r/AmITheDevil y r/AmItheKameena. Actualmente cuenta con más de 100,000 miembros descrito como «Soy el idiota, pero la versión india». Los mensajes suelen contener historias sobre conflictos interpersonales, en las que los usuarios pueden opinar sobre quién está equivocado («YTA» significa «Tú eres el idiota», mientras que «ESH» significa «Aquí todo el mundo da asco»), quién tiene razón y cuál es el mejor curso de acción para seguir adelante. Los usuarios y moderadores de estas variantes de r/AmItheAsshole han informado de que han visto más contenido que sospechan que está generado por IA, y otros dicen que es un problema que afecta a todo el sitio y a todo tipo de subreddits.

«Si tienes un subreddit de bodas en general o de AITA, relaciones o algo así, recibirás un duro golpe», menciona una moderadora de r/AITAH, una variante de r/AmItheAsshole que tiene casi 7 millones de miembros. Esta persona, una jubilada que habló bajo condición de anonimato, lleva activa en Reddit 18 años, la mayor parte de su existencia, y también tenía décadas de experiencia en el negocio de la web antes de eso. Considera que la IA es una amenaza potencial para la plataforma.

«Reddit tendrá que hacer algo o la serpiente se tragará su propia cola. Está llegando el punto en el que la IA se alimenta de la IA», cuenta la moderadora.

En una respuesta a una solicitud de comentarios, un portavoz de Reddit dijo: «Reddit es el lugar más humano de internet, y queremos que siga siéndolo. Prohibimos el contenido manipulado y el comportamiento no auténtico, incluidas las cuentas de bots de IA engañosas que se hacen pasar por personas y las campañas de influencia extranjeras. Los contenidos generados por IA claramente etiquetados suelen estar permitidos siempre que se ajusten a las normas de la comunidad y a las de todo el sitio». El portavoz añadió que hubo más de 40 millones de «eliminaciones de spam y contenido manipulado» en la primera mitad de 2025.


Ilustración de una persona con cara de nervios y siendo escaneada por el «Snoo» de Reddit.
«¿Soy el idiota?» cumple 10 años en Reddit y hablamos con dos usuarios que sí resultaron serlo

Durante más de una década, el subapartado de Reddit «Am I The Asshole?» (¿Soy el idiota?) ha servido como un tesoro de historias con moraleja y consejos (muy) reales sobre relaciones.


Cambio a peor

Ally, una joven de 26 años que trabaja como tutora en un colegio comunitario de Florida y que habló utilizando solo su nombre de pila por su privacidad, ha notado que Reddit «ha ido realmente cuesta abajo» en el último año debido a la IA. Sus sentimientos son compartidos por otros usuarios en subreddits como r/EntitledPeople, r/simpleliving y r/self, donde los mensajes del último año han lamentado el aumento de la supuesta IA. La mera posibilidad de que algo pueda estar generado por IA ya ha erosionado la confianza entre los usuarios. «La IA está convirtiendo Reddit en un montón de basura. Incluso si un correo sospechoso de ser IA no lo es, la mera intriga es como tener un espía en la habitación. La sospecha en sí misma es un enemigo», escribió una cuenta en r/AmITheJerk. Ally solía disfrutar leyendo subreddits como r/AmIOverreacting. Pero ahora ya no sabe si sus interacciones son reales, y pasa menos tiempo en la plataforma que en años pasados.

«La IA quema a todo el mundo. Veo que la gente pone una inmensa cantidad de esfuerzo en encontrar recursos para las personas, solo para que le respondan con ‘Ja, te lo has creído, todo esto es mentira'», dice el moderador de r/AITAH.


Cómo detectar la IA

Hay pocas formas infalibles de demostrar que algo es IA o no, y la mayoría de la gente común confía en su propia intuición. El texto puede ser incluso más difícil de evaluar que las fotos y los vídeos, que a menudo tienen indicios bastante definitivos. Cinco redactores que hablaron con WIRED tenían diferentes estrategias para identificar el texto generado por IA. Cassie se da cuenta de cuando los mensajes repiten el título textualmente en el cuerpo o utilizan guiones, así como cuando un mensaje tiene una ortografía y puntuación terribles en su historial de comentariospero publica algo con una gramática perfecta. A Ally le desconciertan las cuentas de Reddit recién creadas y los mensajes con emojis en el título. El moderador de r/AITAH tiene una sensación de valle inquietante (valle misterioso) con ciertos mensajes. Pero estos «indicios» también pueden estar presentes en un mensaje que no utilice IA en absoluto.

«En este punto, se trata de una especie de ‘lo sabes cuando lo ves'», afirma Travis Lloyd, estudiante de doctorado en Cornell Tech que ha publicado una investigación sobre los nuevos retos a los que se enfrentan los moderadores de Reddit impulsados por la IA. Añade: «Ahora mismo no hay herramientas fiables para detectarlo el 100% de las veces. Así que la gente tiene sus estrategias, pero no son necesariamente infalibles».

Check Also

Los ETF complejos que ofrecen grandes recompensas aumentan los riesgos del mercado

Los ETF complejos que ofrecen grandes recompensas aumentan los riesgos del mercado

Desde fondos de acciones únicas hasta fondos cotizados en bolsa inversos, las empresas han estado …