La empresa de inteligencia artificial DeepSeek sufrió una grave filtración de datos al exponer una base de datos interna que contenía historiales de chat y otra información sensible. El incidente, revelado por TechCrunch, pone en evidencia los riesgos de seguridad en plataformas de inteligencia artificial (IA) y el manejo de datos de los usuarios.
¿Qué ocurrió?
Investigadores descubrieron que la base de datos de DeepSeek estaba accesible sin autenticación, permitiendo el acceso a conversaciones privadas y datos internos de la compañía. No está claro si actores maliciosos accedieron a esta información antes de que la vulnerabilidad fuera corregida.
Riesgos y repercusiones
La filtración plantea preocupaciones sobre la privacidad de los usuarios, la seguridad de las plataformas de IA y la importancia de ser cautelosos antes de utilizar la última novedad en inteligencia artificial.
Este incidente subraya la falta de visibilidad en torno a la seguridad en las plataformas de inteligencia artificial.
Aún cuando sabemos que las compañías deben fortalecer sus protocolos para proteger la información de los usuarios y evitar futuras exposiciones de datos, no podemos estar confiados. Tenemos que tomar nuestras propias medidas de precaución.