Un fallo federal en Nueva York estableció que las conversaciones con chatbots pueden ser utilizadas como prueba judicial, al no estar protegidas por secreto profesional. El fallo, denominado United States v. Heppner, involucra a Bradley Heppner, ex chairman de GWG Holdings, imputado por fraude bursátil y de uso de medios electrónicos, quien utilizó un chatbot para preparar su defensa antes de ser arrestado en noviembre de 2025.
El juez Jed Rakoff determinó que hablar con una IA no garantiza confidencialidad, ya que estas interacciones son con un tercero que puede compartir datos con autoridades. Heppner no tenía “expectativa razonable de confidencialidad” al usar el chatbot, ya que aceptó un contrato que lo indicaba. Este es el primer pronunciamiento federal sobre el tema, lo que ha llevado a estudios legales a advertir sobre los riesgos de usar IA en asuntos sensibles.
Firmas legales como Sher Tremonte han añadido cláusulas en sus contratos que indican que compartir asesoría legal con un chatbot implica perder el privilegio de confidencialidad. Otros despachos han recomendado tratar las plataformas de IA pública como entornos no confidenciales. La investigadora Jennifer King concluyó que las políticas de privacidad de las principales plataformas de IA permiten el uso de datos de manera similar, lo que expone a los usuarios a riesgos.
La interacción con chatbots puede llevar a los usuarios a abrirse más que con humanos, debido a la percepción de anonimato y la ausencia de juicio social. Un estudio del King’s College London mostró que chatbots diseñados para extraer información personal lograron obtener datos sensibles de manera más efectiva que sistemas estándar. Esto es crítico, ya que la herramienta que invita a confesar puede ser utilizada por fiscales en procedimientos legales.
El fallo tiene implicaciones más allá del caso específico, afectando divorcios, juicios laborales y auditorías fiscales. Las cortes en América Latina y España podrían enfrentar casos similares, haciendo que el precedente Rakoff sea relevante en futuras disputas legales.
¿Cómo afectará este fallo a la forma en que los profesionales manejan la información sensible en el contexto de la inteligencia artificial?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN Infobae EL 26 Abr, 2026. Leer original
https://www.infobae.com/estados-unidos/2026/04/26/todo-lo-que-escribis-en-una-ia-puede-ser-usado-en-tu-contra/