top of page

ESET advierte sobre los riesgos de compartir información sensible con ChatGPT

  • Foto del escritor: Maynor Moncada Funez
    Maynor Moncada Funez
  • 30 may
  • 2 Min. de lectura

La compañía de ciberseguridad ESET advirtió sobre los riesgos de realizar ciertas consultas a herramientas de inteligencia artificial como ChatGPT, debido a los peligros asociados a la privacidad, la seguridad digital y el uso inadecuado de la información que estas plataformas pueden generar.

ree

Según el Laboratorio de Investigación de ESET Latinoamérica, muchas personas comparten datos sensibles o formulan preguntas inapropiadas sin tener en cuenta que estas aplicaciones no operan en entornos privados ni cifrados. Entre los casos más frecuentes figuran consultas relacionadas con la salud mental, las finanzas, cuestiones legales o decisiones personales importantes.


Camilo Gutiérrez Amaya, jefe del laboratorio de ESET, explicó que, por defecto, ChatGPT puede utilizar la información proporcionada por los usuarios para entrenar su modelo, a menos que se modifique la configuración de privacidad o se usen chats temporales. “Si un ciberdelincuente accede a una cuenta, podría obtener toda la información introducida en las conversaciones, incluidos datos personales”, advirtió.


ESET identificó cinco tipos de preguntas que los usua

ree

rios deberían evitar al interactuar con este tipo de herramientas:


  1. Información confidencial o sensible. No se deben compartir datos bancarios, contraseñas, números de identificación u otra información personal. Aunque la IA simule un entorno seguro, no garantiza protección ante filtraciones o accesos no autorizados.


  2. Datos corporativos o empresariales. Los empleados deben abstenerse de ingresar estrategias, informes financieros o datos de clientes. La IA no distingue entre información pública y confidencial, lo que pone en riesgo la integridad de datos empresariales.


  3. Asesoramiento médico, legal o financiero definitivo. Estas plataformas pueden aclarar conceptos generales, pero no reemplazan la atención de profesionales. Basar decisiones en sus respuestas podría conducir a errores por falta de contexto o análisis especializado.


  4. Consultas sobre sentimientos u opiniones. ChatGPT no posee conciencia ni emociones. Preguntas como “¿Qué harías tú?” o “¿Te gusto?” solo generan respuestas simuladas, sin contenido emocional real.


  5. Decisiones personales importantes. Temas como cambios de carrera, salud mental o asuntos familiares deben abordarse con expertos o personas de confianza. La IA no tiene capacidad para interpretar el contexto emocional o subjetivo de cada situación.

    ree

Finalmente, ESET subrayó la importancia de utilizar la inteligencia artificial de manera responsable, reconociendo sus limitaciones y protegiendo tanto la información personal como la corporativa. También recomendó emplearla como una herramienta complementaria, y no como fuente única de respuestas.

Comentarios


MÁS NOTICIAS

Más Noticias

Entretenimiento

2.png
bottom of page