Esto es lo que nunca le deberías preguntar a ChatGPT
Qué no debes preguntarle a ChatGPT: expertos alertan sobre riesgos de privacidad y seguridad
El uso de asistentes de inteligencia artificial como ChatGPT se ha vuelto habitual para resolver dudas y optimizar tareas diarias. Sin embargo, expertos en ciberseguridad advierten que no toda la información debe compartirse con este tipo de plataformas, debido a riesgos relacionados con la privacidad, la protección de datos y la confiabilidad de las respuestas.
Especialistas de WeLiveSecurity señalan cuatro tipos de consultas que los usuarios deberían evitar:
1. Información personal y sensible
Nunca se deben ingresar contraseñas, datos bancarios, documentos de identidad o información médica. Las conversaciones con asistentes de IA no cuentan con cifrado de extremo a extremo, lo que implica riesgos de exposición o uso indebido de los datos.
2. Información empresarial o profesional
Compartir reportes internos, bases de datos, estrategias comerciales o documentos confidenciales puede comprometer a las organizaciones. Estos datos pueden almacenarse en servidores externos y quedar fuera del control de la empresa.
3. Consultas médicas, legales o financieras
La IA puede ofrecer información general, pero no reemplaza el criterio de médicos, abogados o asesores financieros. Tomar decisiones basadas únicamente en respuestas automatizadas puede tener consecuencias graves.
4. Uso de la IA como terapeuta o consejero emocional
ChatGPT no tiene conciencia ni comprensión emocional real. Aunque puede ofrecer orientación general, no sustituye el acompañamiento humano ni la atención profesional ante situaciones personales complejas.
Los expertos recomiendan establecer límites claros, evitar compartir información identificable y usar la inteligencia artificial de forma responsable, reconociendo sus beneficios, pero también sus limitaciones.
FUENTE INFOBAE