Cosas que no deberías contarle a ChatGPT
Según una encuesta recogida por la publicación Business Insider, el 43% de los trabajadores utiliza herramientas de Inteligencia Artificial como ChatGPT o Bing para ayudarse en sus tareas profesionales, en tanto son herramientas que proporcionan información y funcionan como buscadores avanzados.
Sin embargo, a medida que hacemos cada vez más uso de estas herramientas los expertos inciden en la necesidad de tomar medidas para proteger nuestra intimidad y la información sensible o confidencial de las empresas.
En este sentido es importante tener en cuenta que a la vez que un modelo de Inteligencia Artificial proporciona respuestas, también generalmente utiliza la pregunta y la información contenida en la consulta para aprender y mejorar su capacidad de respuesta.
Y aunque en general esa información obtenida se utiliza de manera agregada y anónima (sin identificar a quien la proporciona) hay que tener en cuenta que podrá utilizarse después para comprender mejor y responder nuevas consultas, también hechas por otros usuarios.
Datos que no deberías compartir con ChatGPT (y similares)
Por tanto, con los modelos de Inteligencia Artificial como ChatGPT no deberías compartir ninguna información que pueda considerarse personal, privada, secreta o confidencial. Como por ejemplo:
- Datos que permitan identificar a una persona concreta, revelar información personal o facilitar el robo de identidades: nombre y apellidos, fecha de nacimiento, dirección postal, DNI, teléfono, correo electrónico…
- Datos confidenciales, código de programación muy específico de tu desarrollo, información sobre productos no anunciados o secretos comerciales de tu empresa, para evitar que queden expuestos por una filtración de datos, por un acceso no autorizado a tu cuenta del modelo de IA y prevenir que aparezcan en futuras respuestas a otros usuarios.
- Datos o información bancaria que, si se filtra, pueda servir para cometer fraude, robo de identidad o para preparar ataques de ingeniería social.
Además, no conviene compartir datos médicos, como el resultado de un análisis o un diagnóstico y cualquier otra información relacionada con la salud, que pueda quedar registrada en tu histórico de conversaciones y vinculado a tu usuario en la app o web del modelo de Inteligencia Artificial.
Algunas medidas para hacer consultas más seguras
A la hora de compartir información con modelos de Inteligencia Artificial como ChatGPT es conveniente tomar algunas medidas para proteger tu intimidad, tus datos y la información sensible o confidencial de tu empresa:
- Incluye en tu consulta únicamente información pública y lo más limitada posible, sin incluir datos personales que permitan identificar a una persona.
- Si la consulta lo requiere, utiliza información ficticia o genérica y no proporciones detalles que puedan vincularte con otras personas, empresas o lugares.
- Aunque es una tendencia creciente, en general no es buena idea compartir información demasiado precisa sobre cuáles son tus fechas de vacaciones y tu itinerario detallado del viaje.
- En los modelos de Inteligencia Artificial gratuitos (como ChatGPT) considera la posibilidad de tener dos cuentas y que una de ellas sea anónima y no pueda relacionarse contigo.
- En caso de duda, siempre es más seguro utilizar la conexión del móvil que una red wifi abierta o pública como la de una cafetería o un hotel.
- No compartas credenciales y no le pidas a ChatGPT que te genere una contraseña que se ajuste a los requisitos de longitud y tipo de caracteres de un servicio concreto.
- No compartas datos médicos, información bancaria… ni en general cualquier dato o información que esté o deba estar protegida.
También conviene que conozcas las políticas de uso y privacidad de los modelos de Inteligencia Artificial (los modelos de IA son muy buenos resumiéndolas, puedes aprovecharlo) para conocer cómo se utilizan los datos tanto de tu cuenta como la información que proporcionas al modelo, y si se comparten (cómo y con qué fin) con terceros, como otras empresas.
⚠ Algunos servicios de IA avisan sobre la posibilidad de 'revisión humana' de las consultas, por cuestiones de calidad o por estar en fase experimental, y piden no introducir datos personales o información confidencial.
Los modelos de Inteligencia Artificial como ChatGPT pueden ser de gran utilidad y ayuda para muchas tareas, desde preparar una salsa holandesa a redactar un mail en otro idioma.
Pero es importante tener en cuenta que aplican los mismos riesgos de seguridad y privacidad ya conocidos, como ocurre con las redes sociales, por lo que es igualmente necesario tomar algunas medidas para sacar partido de sus ventajas de la manera más segura posible.
Imagen de frimufilms en Freepik.