Resulta que Samsung, esa gran compañía que nos ha regalado tantos dispositivos increíbles, ha metido la pata y grande con su más reciente innovación. ¿Qué pasó? Pues, que desde que presentó ChatGPT a sus empleados hace tres semanas, ¡se ha filtrado tres veces información confidencial!
Samsung quería que ChatGPT acelerara los procesos de sus empleados, pero parece que esta IA les salió medio chismosa😅. Resulta que algunos trabajadores metieron datos confidenciales en ChatGPT y, ¡pum!, esa información se convirtió en parte de su base de datos de aprendizaje, ¡disponible para cualquiera que use este chatbot!
Imagínense, los datos de medición de equipos semiconductores de Samsung ahora forman parte del conocimiento de esta IA.
Y no se queda ahí, en otra ocasión un empleado quiso optimizar rendimientos e información y, sin querer queriendo, también filtró datos al meter el código en ChatGPT. ¡Ay, ay, ay! 😵
Pero la cereza del pastel fue cuando otro empleado le pidió a ChatGPT que creara actas de una reunión y, una vez más, toda esa información se añadió a la base de conocimientos de la IA. ¡Esto parece una novela! 📺
Como era de esperarse, Samsung se puso las pilas y tomó medidas para evitar más filtraciones. Ahora, le exige a sus empleados que tengan cuidado con la información que comparten con ChatGPT y limitó la capacidad de cada entrada en el chatbot a 1.024 bytes. Además, la compañía aclaró que los datos que se meten en ChatGPT se transmiten a servidores externos y no se pueden recuperar ni eliminar. 🚨