NeuralTrust

Descripción
NeuralTrust es una empresa líder en seguridad y gobernanza de la inteligencia artificial (IA), que que ayuda a organizaciones a auditar, gestionar riesgos y garantizar el cumplimiento normativo en el uso de IA generativa, todo en tiempo real.
Áreas de servicio
Tecnologías
Sectores de la administración
Contratos con el sector público
Valor total de los contratos ganados
Clientes públicos destacados
- Generalitat de Catalunya
Canales (UTE y Subcontratación)
Información general
Certificaciones
Premios
- Ganadores del Premio Más Escalable en el South Summit Madrid 2025
- Ganadores Trust Tech & Date en South Summit Madrid 2025
- Finalista en los Premios 22@ Start 2024
Tipo de oferta
Datos de la empresa
- Ventas anuales: 500k€
- Número de empleados: 15
- Inversión levantada: 2.8M€
- Inversores: VentureFriends, Seaya, IESE Business School, PLUGandPLAY, BStartup
Datos de la empresa
Protegiendo los LLMs de la Administración
Contexto
La incorporación de modelos de lenguaje de gran escala (LLMs) en la Administración pública está abriendo nuevas posibilidades para automatizar tareas, mejorar la atención ciudadana y optimizar la gestión de la información.
Sin embargo, esta transformación tecnológica también plantea retos importantes en materia de seguridad, gobernanza de los modelos y cumplimiento normativo.
A medida que las administraciones avanzan en sus estrategias de digitalización, resulta esencial garantizar que los sistemas de IA se despliegan de forma controlada, ética y segura, especialmente cuando interactúan con la ciudadanía o manejan datos sensibles.
La necesidad de herramientas que permitan supervisar, proteger y auditar el uso de estos modelos se vuelve crítica para asegurar una adopción responsable y alineada con las exigencias regulatorias y las expectativas sociales.
Problema
La adopción de modelos de IA generativa por parte de las administraciones públicas enfrenta varios retos clave:
- Falta de herramientas específicas de seguridad, ya que la mayoría de los entornos institucionales carecen de soluciones diseñadas para controlar y proteger el uso de modelos de lenguaje, lo que expone a las organizaciones a vulnerabilidades técnicas y operativas.
- Riesgo de fugas de datos y privacidad, dado que sin un control adecuado, los modelos pueden divulgar datos sensibles o información personal, incumpliendo normativas como el GDPR o el EU AI Act.
- Contenido inapropiado o sesgado, ya que los LLMs pueden producir respuestas ofensivas, desinformación o sesgos que afecten negativamente la experiencia ciudadana y la reputación institucional.
- Falta de trazabilidad, pues no existe una visibilidad clara sobre cómo se comportan los modelos, qué datos procesan o cómo evolucionan sus respuestas, lo que impide auditar su uso y responder ante incidentes de forma eficaz.
Requisitos de integración
Solución propuesta
NeuralTrust propone una solución de seguridad y observabilidad específica para modelos de lenguaje (LLMs), diseñada para proteger su uso dentro de entornos institucionales. Esta tecnología actúa como una capa intermedia entre el usuario y los modelos de IA, asegurando que su funcionamiento sea seguro, controlado y alineado con las políticas de la Administración.
La solución incorpora una pasarela de control (AI Gateway) que permite supervisar en tiempo real las interacciones con los modelos, interceptar peticiones maliciosas, prevenir respuestas inadecuadas y garantizar el cumplimiento normativo (como el EU AI Act y el GDPR). Además, ofrece capacidades de registro y auditoría completa del comportamiento de los modelos, lo que proporciona trazabilidad y respaldo ante posibles incidencias o revisiones internas.
La plataforma también minimiza la dependencia de los desarrolladores individuales al permitir definir políticas de uso a nivel organizativo, y aplicar filtros semánticos avanzados que detectan comportamientos anómalos, escaladas de prompts o usos indebidos antes de que afecten al usuario final. De esta forma, cualquier Administración puede incorporar IA generativa en sus procesos con confianza, seguridad y transparencia.
Impacto
La implementación de la solución de NeuralTrust permite a las administraciones públicas avanzar hacia una adopción segura, estratégica y controlada de la inteligencia artificial generativa. Entre los principales impactos destacan:
- Reducción de riesgos reputacionales y legales: Al establecer filtros de seguridad y trazabilidad sobre el comportamiento de los modelos, se minimizan las posibilidades de respuestas inapropiadas, fugas de información o incumplimientos normativos.
- Confianza institucional: La Administración gana capacidad para auditar y supervisar el uso de LLMs en tiempo real, lo que fortalece la rendición de cuentas y la gestión ética de la tecnología.
- Aceleración de la innovación: La solución actúa como habilitador para explorar nuevos casos de uso de IA generativa en distintos ámbitos de la Administración, sin comprometer la seguridad ni la gobernanza.
- Escalabilidad y sostenibilidad: Gracias a su arquitectura modular y sus políticas configurables a nivel organizativo, la plataforma puede adaptarse a distintos contextos administrativos y crecer al ritmo de la demanda tecnológica pública.
Aplicaciones destacadas
Gestión segura de consultas ciudadanas
Contexto
Las entidades públicas están incorporando modelos de lenguaje de gran escala (LLMs) para automatizar la atención al ciudadano: respuestas a consultas frecuentes, agilización de trámites y filtrado inicial de solicitudes.
Esta mejora de la eficiencia implica procesar datos personales y ofrecer información relevante en tiempo real, pero también plantea riesgos de seguridad, cumplimiento normativo y calidad de las respuestas.
Problema
- Riesgo de divulgación de datos sensibles: Sin un control intermedio, el LLM podría exponer información personal (nombres, direcciones, datos de expediente) al generar respuestas.
- Inconsistencia en la calidad de las respuestas: El modelo puede ofrecer respuestas incompletas o desactualizadas si no se aplica un filtro que valide la exactitud y actualidad de la información.
- Falta de trazabilidad: Las interacciones entre ciudadanos y LLMs quedan dispersas. Sin registros centralizados, resulta difícil auditar qué se preguntó y cómo respondió el sistema.
- Riesgo de incumplimiento normativo: Normativas como el GDPR o las directrices nacionales en materia de IA exigen controles específicos que no suelen estar contemplados en las implementaciones estándar.
Requisitos de integración
Solución propuesta
NeuralTrust se inserta como capa de seguridad y observabilidad entre la plataforma de atención ciudadana y los LLMs, ofreciendo:
- Filtrado de contenido y enmascaramiento de datos: Se interceptan las peticiones para ocultar automáticamente información personal y evitar fugas de datos.
- Validación semántica y de fuentes: Se comprueba que las respuestas provengan de repositorios oficiales o bases de datos actualizadas, descartando información obsoleta o inapropiada.
- Registro integral de interacciones: Cada petición y respuesta se almacena con metadatos (usuario, hora, versión de modelo), facilitando auditorías y análisis de uso.
- Políticas configurables: Permite definir en un panel central las reglas de acceso, los niveles de sensibilidad de la información y los flujos de aprobación para respuestas complejas.
Impacto
- Protección de la privacidad gracias a la eliminación automática de datos personales en todos los flujos de atención.
- Con esta solución, cualquier organismo gubernamental puede desplegar IA generativa en sus canales de atención de forma segura, transparente y escalable.
- Transparencia y una correcta auditoría al tener un registro unificado de todas las interacciones, con capacidad de generar informes completos en pocos clics.
- Mejora de la calidad de las respuestas ya que se validan contra fuentes oficiales, reduciendo errores y desinformación.
- Adopción responsable de la tecnología por parte de la entidad pública, cumpliendo con los requisitos regulatorios y reforzando la confianza ciudadana en sus servicios digitales.