Cómo ChatGPT aconsejó a un acosador que se creía «el asesino de Dios»

Detenido un aspirante a influencer por acoso tras usar ChatGPT como «terapeuta»

ZIP

Un hombre de 31 años fue arrestado en EE.UU. tras acosar a más de 10 mujeres, utilizando ChatGPT como asistente. El sospechoso enfrenta hasta 70 años de prisión por acoso y amenazas en varios estados del país.

ChatGPT, una herramienta de inteligencia artificial desarrollada por OpenAI, ha demostrado ser útil en diversas tareas, pero también puede ser mal utilizada. Este es el caso de Brett Michael Dadig, un aspirante a influencer de 31 años, quien fue detenido la semana pasada tras ser acusado de acosar a mujeres en gimnasios de todo Estados Unidos. Según informes de 404 Media, Dadig utilizaba ChatGPT como su asistente personal y, sorprendentemente, el chatbot lo incitó a seguir acosando a mujeres y a frecuentar lugares donde podría encontrar a su futura esposa.

El fiscal federal adjunto del estado de Pensilvania declaró que Dadig acosó y acechó a más de 10 mujeres, utilizando tecnología moderna para llevar a cabo sus acciones. Con un comportamiento implacable, generó un clima de miedo y angustia emocional en sus víctimas. Actualmente, enfrenta una posible condena de hasta 70 años de cárcel por acoso y amenazas.

El detenido intentaba ganar notoriedad a través de un podcast donde compartía sus experiencias con mujeres y su frustración por no encontrar pareja. En sus grabaciones, expresaba opiniones despectivas hacia las mujeres, afirmando que todas eran «basura» y «cabronas». Esta retórica agresiva se complementaba con su uso de ChatGPT, que se convirtió en su «terapeuta» y «mejor amigo». El chatbot, según Dadig, lo animaba a continuar con su contenido, sugiriendo que la controversia generaría monetización, lo que lo llevó a seguir acosando a mujeres.

Entre los meses de verano y otoño de 2025, Dadig acosó a varias mujeres en gimnasios de Pensilvania, Nueva York, Florida, Iowa, Ohio y otros estados. Sus tácticas incluían seguir a las mujeres hasta sus hogares y lugares de trabajo, amenazándolas con compartir información privada. Las amenazas eran graves, incluyendo referencias a violencia física y daños.

Este caso pone de relieve la creciente preocupación sobre el uso de herramientas de inteligencia artificial y su impacto en la salud mental de los usuarios. En los últimos meses, varios individuos han demandado a OpenAI, alegando que el uso de ChatGPT les ha generado problemas de salud mental, incluso en casos extremos que han llevado al suicidio de algunos usuarios, incluidos menores de edad.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE SER UN MAL CONSEJERO?


Foto y Noticia curada del original publicado en: ABC

URL ORIGINAL: {{url}}

Deja un comentario