Une AI française. Privée. Isolée.
v-AI tourne sur des GPU hébergés en France, sur une instance dédiée à chaque utilisateur. Aucune donnée ne sort de l'UE, aucun document ne sert à entraîner un modèle partagé.
Pourquoi ChatGPT ne nous suffit pas.
Pas d'API tierce
v-AI n'envoie aucune requête à OpenAI, Anthropic, Google ou Mistral cloud. Tout est exécuté sur notre infrastructure.
LLM open-source
Modèles open-source (Mistral, Mixtral, Llama) fine-tunés sur les documents administratifs français. Auditable, vérifiable.
Base vectorielle isolée
Vos embeddings vivent dans une base de données dédiée à votre compte. Aucun risque de fuite vers un autre utilisateur.
Aucun entraînement sur vos données
Vos documents ne servent jamais à améliorer le modèle pour quelqu'un d'autre. Garantie contractuelle, écrite, opposable.
Inférence côté serveur, en France
Les GPU qui exécutent vos requêtes sont à Roubaix ou Paris. Pas une seule milliseconde aux États-Unis.
Logs minimaux
Les requêtes ne sont pas archivées au-delà du temps nécessaire au traitement. Pas d'historique exploitable a posteriori.
« Nous n'envoyons jamais vos données à un fournisseur d'IA américain ou non-européen, ni pour entraînement, ni pour inférence. »
Cet engagement est inscrit dans nos CGU. Il est vérifiable par audit. Sa violation engagerait notre responsabilité contractuelle directe.