Gadgets México
Artículos de Interés

Estas son las preguntas que no deberías hacerle a ChatGPT

Hablar con una inteligencia artificial como ChatGPT puede parecer ciencia ficción hecha realidad: responde rápido, entiende contextos complejos y hasta escribe textos completos. Pero esa misma fluidez puede hacer que muchos usuarios olviden un detalle fundamental: la IA no tiene conciencia ni emociones, y su conocimiento tiene límites. Bajo ese enfoque, ESET —empresa especializada en ciberseguridad— advierte sobre los riesgos de confiar demasiado en estas plataformas y lanza una guía clave sobre qué tipo de preguntas deben evitarse para proteger tu privacidad y usar esta herramienta con responsabilidad.

Aunque las consultas más frecuentes en estas plataformas incluyen temas como salud mental, pérdida de peso o cómo empezar un negocio, la compañía recuerda que no todo debe compartirse con una IA. Sobre todo cuando se trata de información personal o decisiones importantes.

blank

Lo que no debes preguntarle a ChatGPT (y por qué)

Uno de los errores más comunes es tratar estas plataformas como entornos seguros y privados, cuando en realidad no están diseñadas para manejar información sensible. Según Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, si un ciberdelincuente logra acceder a una cuenta de ChatGPT, puede revisar todo lo que el usuario ha compartido, incluyendo datos privados que muchas veces se introducen sin pensar.

Estas son algunas categorías de preguntas que deberías evitar:

Datos personales o bancarios: Nunca compartas contraseñas, números de tarjeta, direcciones o cualquier tipo de dato privado. Aunque parezca un entorno cerrado, los chats no están cifrados ni garantizan anonimato absoluto. Información confidencial de empresas: Si trabajas en una organización, evita compartir estrategias, proyectos o información interna. Las IAs no saben diferenciar entre lo público y lo confidencial, lo que representa un riesgo directo para la seguridad de la empresa. Asesoría médica, legal o financiera: ChatGPT puede ayudarte a entender términos o procesos, pero no sustituye a un profesional. Tomar decisiones serias de salud o dinero basándote solo en una respuesta automática puede ser peligroso. Preguntas emocionales o personales: Aunque ChatGPT puede simular empatía, no siente ni tiene opiniones reales. Si preguntas “¿qué harías tú?” o “¿te gusto?”, recibirás una frase elaborada con base en datos, no en emociones. Decisiones de vida importantes: Desde mudanzas hasta cambios de carrera o temas familiares delicados, la IA puede ayudarte a organizar ideas, pero no debe ser tu única guía. Para esos temas, necesitas contexto, humanidad y criterio, algo que solo te puede dar una persona real.

Una herramienta poderosa, pero no infalible

El mensaje de fondo es claro: la inteligencia artificial es una herramienta, no un oráculo. Puede ayudarte a ahorrar tiempo, investigar temas complejos o escribir con mayor eficiencia, pero no debe convertirse en tu única fuente de verdad. Saber qué no preguntarle a ChatGPT es una forma de usar esta tecnología de manera inteligente y proteger tanto tu privacidad como tus decisiones.

Lo ideal es entender sus límites y complementarla con criterio humano, profesionalismo y sentido común. Así, no solo se aprovecha mejor la herramienta, sino que también se evitan errores que podrían costar caro.