Volver al blog

Compartir publicación:

A laptop displays "what can i help with?"

6 ene 2026

¿Son seguras las LLMs? El riesgo de filtración de datos y la alternativa profesional para auditores.

¿Son seguras las LLMs? El riesgo de filtración de datos y la alternativa profesional para auditores.

¿Son seguras las LLMs? El riesgo de filtración de datos y la alternativa profesional para auditores.

En la carrera por la eficiencia, muchas firmas de auditoría han empezado a integrar herramientas de inteligencia artificial generativa en su día a día. Sin embargo, el uso de modelos abiertos y comerciales como ChatGPT plantea un dilema crítico: ¿dónde terminan tus datos y dónde empieza el entrenamiento de la máquina?

Para un auditor, la confidencialidad no es una sugerencia, es un mandato ético y legal. Utilizar plataformas que no garantizan la privacidad de la información puede suponer un riesgo inasumible para la reputación de la firma y el cumplimiento normativo.

El riesgo de los modelos de entrenamiento públicos

El principal problema de las versiones gratuitas o comerciales básicas de los grandes modelos de lenguaje (LLM) es el uso de los datos de entrada para mejorar el algoritmo. Cuando un auditor pega un hallazgo o una evidencia sensible en un chat abierto, esa información puede ser procesada por el modelo.

La Agencia Española de Protección de Datos (AEPD) ya ha publicado guías sobre el uso de la Inteligencia Artificial y el cumplimiento del RGPD, subrayando la importancia de la transparencia y el control sobre quién accede a la información. En un entorno de auditoría, perder la soberanía sobre un dato técnico puede derivar en una brecha de seguridad involuntaria pero letal.

Soberanía de datos: La diferencia entre "abierto" y "privado"

A diferencia de las herramientas genéricas, una plataforma profesional como Comply nace bajo el principio de Privacy by Design. La clave no es solo usar IA, sino cómo se despliega esa IA:

  • Instancias Privadas: Los datos de tus auditorías se procesan en entornos aislados.

  • Sin re-entrenamiento: La información volcada en la plataforma no se utiliza para entrenar modelos globales. Lo que sucede en tu proyecto, se queda en tu proyecto.

  • Control de Accesos: A diferencia de una cuenta compartida de ChatGPT, una plataforma dedicada permite gestionar permisos específicos (quién puede ver qué), algo esencial para cumplir con el principio de integridad que marca el Reglamento General de Protección de Datos (RGPD).

Blindar la confianza del cliente

La seguridad en la IA no es solo una cuestión técnica; es el pilar de la confianza con el cliente. Al presentar una auditoría, el cliente debe tener la certeza de que su información sensible (financiera, de procesos o de personal) ha sido tratada con las mismas garantías de seguridad que una infraestructura bancaria.

El uso de herramientas profesionales que aseguran la soberanía de la información permite a las firmas innovar sin miedo. No se trata de elegir entre velocidad y seguridad, sino de adoptar tecnologías que entiendan que, en el mundo del cumplimiento, un dato fuera de control es un riesgo que nadie se puede permitir.