Las trampas de ChatGPT: estas son las cosas que es peligroso contarle
¡Aguas con lo cuentas a tu IA de confianza! Expertos advierten que en vez de ayudarte, podría ponerte en riesgo.

Hoy en día, cada vez son más las personas que hacen uso de la inteligencia artificial (IA) y se ha convertido para muchos en una herramienta indispensable, ya sea para pedirle recetas de cocina, crear rutinas de ejercicio o resolver preguntas. Pero lo preocupante es que también hay personas quienes la utilizan como “compañía” o, peor aún, como terapeuta para hablar sobre temas personales o emocionales.
Un reportaje de DW informó sobre algunos de los riesgos de confiarle demasiado a este tipo de tecnologías, especialmente cuando se usa como sustituto del acompañamiento psicológico. Te contamos.
¿ChatGPT es amigo o enemigo?
Primero, debemos entender que las inteligencias artificiales como ChatGPT son una especie de robots capaces de realizar tareas o resolver problemas tal y como lo haría una persona humana. Estas usualmente manejan un tono amigable hacia quien haga la petición e incluso preguntan cómo prefiere uno ser llamado, creando una relación más cercana con los usuarios. Y es ahí donde la gente confunde el fin de estas tecnologías para usarlas como un espacio de desahogo o para pedir ayuda.
Sin embargo, a diferencia de un profesional de la salud mental, ChatGPT o cualquier otra inteligencia no cuestiona, no analiza ni puede interpretar contextos emocionales con la misma precisión con la que lo haría un humano. El problema, según señala DW, es que la IA tiende a validar lo que el usuario expresa, dando siempre la razón, incluso cuando se trata de pensamientos autodestructivos o distorsiones cognitivas.
Para dejarlo más claro, hubo un caso que dejó impresionados a todos. Sophie Rottenberg era una adolescente que acudió a ChatGPT para contarle sobre sus pensamientos de autolesión y lo que hizo la IA fue no cuestionar y, al contrario, reforzar su pensar. También ayudó a perfeccionar la “carta de despedida” que la joven escribió para su familia antes de quitarse la vida.
Datos que NUNCA deberías compartir con una IA
Según sitios y diversos medios como Forbes, aunque plataformas como esta cuentan con filtros y políticas de privacidad, se recomienda no revelar información sensible como:
- Detalles personales como dirección, número de teléfono o datos bancarios.
- Información emocional, psicológica o cualquier tema de salud que requiera atención profesional.
- Opiniones delicadas que puedan ser malinterpretadas o registradas fuera de contexto.
Ya lo sabes, la IA no puede ser tu terapeuta, ni tu amigo y mucho menos se trata de una persona atrás de la pantalla. Sí, pueden ser buenos aliados con tareas prácticas como pulir correos, estudiar, practicar algún idioma o investigar cualquier tema de interés, pero recuerda… ¡siempre ten mucho cuidado con lo que compartes!
Más Leídas




Apasionada por la publicidad, los medios y todo lo que merezca contarse. Con enfoque en estilo de vida, ofertas y consumo inteligente, escribo sobre moda y tendencias, además de recomendaciones para viajar, comer y disfrutar sin gastar de más. Ver más














