Las pruebas realizadas por KUTV muestran que las herramientas de inteligencia artificial, como Gemini de Google y ChatGPT de OpenAI, pueden encontrar información sobre individuos, pero no son tan invasivas como se teme, gracias a sus salvaguardias integradas. En un experimento, se investigó al foto periodista Jeremy Dubas, quien tiene un perfil público bajo, y se identificaron detalles sobre su trabajo en Salt Lake City, pero el sistema se negó a proporcionar información sensible como su dirección. Google prohíbe el 'doxxing' y bloquea respuestas que solicitan información privada.
El equipo también probó ChatGPT, centrándose en Jim Spiewak, un periodista de transmisión más visible en línea. ChatGPT resumió su historial de reportes pero evitó compartir detalles personales. Ambas plataformas mostraron advertencias indicando que no proporcionarían información privada. Sin embargo, el experto Pete Ashdown advirtió que estas protecciones no son universales, ya que se pueden descargar IA y ejecutar servidores en casa con reglas personalizadas. Ashdown enfatizó que el riesgo puede provenir de actores malintencionados que utilizan la tecnología para crear deepfakes, clonar voces y realizar estafas más sofisticadas.
Los expertos recomiendan pasos básicos para proteger la información personal en línea, como mantener el software actualizado, usar cifrado, separar cuentas de correo electrónico para actividades sensibles, limitar permisos de aplicaciones y asumir que cualquier cosa publicada podría ser almacenada y utilizada por IA.
¿Son suficientes las salvaguardias actuales de las plataformas de IA para proteger la privacidad personal frente a los riesgos emergentes?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN KUTV EL 14 de mayo de 2026. Leer original
https://kutv.com/news/local/major-ai-platforms-use-built-in-safeguards-to-protect-personal-privacy