¿Son seguros los LLM? El riesgo de fuga de datos y la alternativa profesional para auditores

6 ene 2026

En la carrera por la eficiencia, muchas firmas de auditoría han empezado a integrar herramientas de inteligencia artificial generativa en su operativa diaria. Sin embargo, usar modelos abiertos o comerciales como ChatGPT plantea un dilema crítico: ¿dónde terminan tus datos y dónde empieza el entrenamiento de la máquina?

Para un auditor, la confidencialidad no es una sugerencia: es un mandato ético y legal. Utilizar plataformas que no garantizan la privacidad de la información puede suponer un riesgo inaceptable para la reputación de la firma y su cumplimiento normativo.

El riesgo de los modelos entrenados públicamente

El principal problema de las versiones gratuitas o comerciales básicas de los grandes modelos de lenguaje (LLM) es que los datos introducidos pueden usarse para mejorar el algoritmo. Cuando un auditor pega un hallazgo o una evidencia sensible en un chat abierto, esa información puede ser procesada por el modelo.

La Agencia Española de Protección de Datos (AEPD) ya ha publicado directrices sobre el uso de la Inteligencia Artificial y el cumplimiento del RGPD, enfatizando la importancia de la transparencia y del control sobre quién accede a la información. En un entorno de auditoría, perder soberanía sobre un dato técnico puede derivar en una brecha de seguridad involuntaria pero crítica.

Soberanía del dato: la diferencia entre “abierto” y “privado”

A diferencia de las herramientas genéricas, una plataforma profesional como Comply se construye sobre el principio de Privacy by Design. La clave no es solo usar IA, sino cómo se despliega esa IA:

  • Instancias privadas: tus datos de auditoría se procesan en entornos aislados.
  • Sin reentrenamiento: la información introducida en la plataforma no se usa para entrenar modelos globales. Lo que ocurre en tu proyecto se queda en tu proyecto.
  • Control de acceso: a diferencia de una cuenta compartida de ChatGPT, una plataforma dedicada permite gestionar permisos específicos (quién puede ver qué), lo cual es esencial para cumplir el principio de integridad del Reglamento General de Protección de Datos (RGPD).

Asegurar la confianza del cliente

La seguridad de la IA no es solo un asunto técnico; es la base de la confianza del cliente. Al presentar una auditoría, el cliente debe tener la certeza de que su información sensible (financiera, de proceso o de personal) se ha tratado con las mismas garantías de seguridad que una infraestructura bancaria.

Usar herramientas profesionales que aseguren la soberanía de la información permite a las firmas innovar sin miedo. No se trata de elegir entre velocidad y seguridad, sino de adoptar tecnologías que entiendan que, en el mundo del compliance, un dato sin control es un riesgo que nadie se puede permitir.