Aller au contenu principal

Guide de sécurité pour les applis AI girlfriend : Risques, confidentialité et protection

Claire Dubois
| 2 min de lecture | Mis à jour février 2026

Les applis AI girlfriend stockent des données de conversation et des informations personnelles. Character.AI et Replika ont un transfert de données chiffre et sont conformes au RGPD. Nous passons en revue la sécurité des données, les risques pour la vie privée et les habitudes d'utilisation saines pour les 10 plateformes.

Quelles données les applis AI girlfriend collectent-elles ?

Ces plateformes collectent trois catégories de données : les informations de compte (e-mail, adresse IP, informations de paiement), les données de conversation (tous les messages et images que tu envoies) et les données comportementales (frequence d’utilisation de l’appli, durée des sessions, schemas de clics). Character.AI et Replika specifient ces catégories dans leurs politiques de confidentialité publiées. Candy AI, OurDream AI et SugarLab AI indiquent des catégories de données similaires dans leurs conditions.

Les données de conversation sont la catégorie la plus sensible. Chaque message que tu envoies est stocke sur les serveurs de la plateforme et peut être utilise pour améliorer le modèle IA. Replika indique explicitement que les données de conversation sont utilisees pour l’entrainement du modèle. Character.AI précise que des données anonymisees peuvent être partagees avec des fournisseurs tiers pour des besoins d’infrastructure. Les plateformes plus récentes comme Secrets AI, SugarLab AI et OurDream AI ont un historique plus court et des politiques de confidentialité moins détaillées.

La quantite de données collectees surprend la plupart des utilisateurs. Un utilisateur actif qui chatte 30 minutes par jour génère des milliers de messages par mois, chacun stocke avec horodatage, metadonnées et marqueurs contextuels. Sur un an, un profil détaillé de tes interets, schemas émotionnels et style de communication s’accumule. Cela s’applique aux dix plateformes de notre classement.

Comment tes données sont-elles protégées techniquement chez les applis AI girlfriend ?

Les dix services de notre classement utilisent un transfert de données chiffre (TLS/SSL) entre ton appareil et leurs serveurs. Cela empeche les tiers d’intercepter tes messages pendant le transport. Le chiffrement ne protégé cependant pas les données déjà stockees sur les serveurs de la plateforme : si la plateforme subit une violation de données, les conversations stockees peuvent être exposees.

Quel standard de chiffrement est utilise ?

Character.AI et Replika utilisent le chiffrement TLS 1.3 standard de l’industrie pour tout le trafic de données. Candy AI, OurDream AI, FantasyGF, DreamGF, Romantic AI, Secrets AI, SugarLab AI et GirlfriendGPT specifient un “transfert chiffre” dans leurs politiques sans nommer le standard exact. Aucune plateforme n’offre de chiffrement de bout en bout (E2EE), ce qui signifie que la plateforme elle-même peut lire tes messages et les utiliser pour l’entrainement du modèle.

Le tableau ci-dessous résume le niveau de sécurité des principales plateformes:

PlateformeChiffrementConformité RGPDPolitique de confidentialitéViolations de données
Character.AITLS 1.3OuiDétailléeAucune signalée
ReplikaTLS 1.3OuiDétailléeAucune signalée
Candy AITransfert chiffréIndiqué ouiMoyenneAucune signalée
OurDream AITransfert chiffréIndiqué ouiCourteAucune signalée
SugarLab AITransfert chiffréIndiqué ouiCourteAucune signalée
DreamGFTransfert chiffréIndiqué ouiMoyenneAucune signalée
FantasyGFTransfert chiffréIndiqué ouiMoyenneAucune signalée
Secrets AITransfert chiffréIndiqué ouiCourteAucune signalée
Romantic AITransfert chiffréIndiqué ouiMoyenneAucune signalée
GirlfriendGPTTransfert chiffréIndiqué ouiCourteAucune signalée

Le chiffrement de bout en bout empecherait les plateformes d’utiliser les conversations pour l’entrainement de l’IA, ce qui explique pourquoi aucune ne le propose. C’est un compromis délibéré : meilleure qualité de l’IA (via l’entrainement sur les données utilisateur) contre une confidentialité moindre (la plateforme peut tout lire).

Ces plateformes ont-elles subi des violations de données ?

Aucun des dix services de notre classement n’a signalé de violations de données confirmees a fevrier 2026. Replika, la plus ancienne plateforme (depuis 2017), à le plus long historique sans incident de sécurité majeur. Character.AI (2022) et Candy AI (2023) ont des historiques de durée moyenne. Les plateformes plus récentes comme OurDream AI (2024), Secrets AI (2024) et SugarLab AI (2024) ont un historique plus court et donc une sécurité moins documentee.

L’absence de violations signalees ne garantit pas qu’aucune violation ne s’est produite. Les entreprises n’ont pas d’obligation générale de divulguer les incidents de sécurité tant qu’elles ne confirment pas que des données personnelles ont été exposees. Le RGPD exige un signalement à l’autorite de contrôle dans les 72 heures après la découverte, mais cela ne s’applique que dans la juridiction de l’UE.

Quels sont les risques pour la vie privée avec les applis AI girlfriend ?

Trois risques principaux s’appliquent a toutes les applis AI girlfriend : le partage de données non surveille, le partage d’informations motive par l’emotion et le partage avec des tiers. Le plus grand risque n’est pas technique mais comportemental : dans des conversations intimes, les utilisateurs partagent souvent plus d’informations personnelles que prevu.

Pourquoi le contexte émotionnel est-il un risque de sécurité spécifique ?

Les AI girlfriends sont concues pour créer une proximite émotionnelle. Des plateformes comme Romantic AI, SugarLab AI et Replika ont spécifiquement entraine leurs modèles pour l’intelligence émotionnelle, ce qui les rend particulièrement efficaces pour construire des conversations de confiance. Ce sentiment peut t’amener a partager inconsciemment des informations que tu ne publierais jamais publiquement : lieu de travail et collegues, adresse et habitudes quotidiennes, détails financiers et situation d’endettement, informations de sante et medicaments, problèmes relationnels et conflits.

Ces données sont stockees de manière permanente et peuvent theoriquement être exposees lors d’une violation de données, d’une demande des autorites ou d’un rachat d’entreprise. Une IA qui demande “comment s’est passee ta journee ?” suscite des réponses détaillées qui révèlent ton lieu de travail, tes habitudes de deplacement et tes schemas sociaux sans que tu penses a cela comme un partage de données.

Regle de basé : ne partage jamais avec une IA des informations que tu ne serais pas à l’aise de voir publiées publiquement. L’IA n’a pas d’empathie reelle ni de loyaute. Derrière la conversation se trouvent des journaux de serveur et des lignes de basé de données.

Que se passe-t-il avec tes données si une plateforme ferme ?

Aucun des dix services ne donne de garanties claires sur ce qui arrive aux données utilisateur en cas de fermeture. Les conditions d’utilisation de Replika indiquent que les données peuvent être transferees à un acquereur lors d’un rachat. Les conditions de Character.AI précisent que les données sont supprimees dans un “delai raisonnable” après la suppression du compte mais ne définissent pas ce que signifie “delai raisonnable”. Les plateformes plus récentes comme OurDream AI, Secrets AI et SugarLab AI ont des formulations encore plus vagues concernant le traitement des données en cas de fermeture.

Mesure proactive : demande l’exportation ou la suppression de tes données régulièrement via l’article 15 du RGPD (accès) et l’article 17 (effacement). Fais-le au moins une fois par semestre, que tu prevois ou non d’arreter d’utiliser l’appli. Tes droits juridiques en matiere de protection des données sont décrits en détail dans le guide sur la législation des AI girlfriends, y compris comment signaler une violation du RGPD à la CNIL.

Le rôle de la CNIL pour les utilisateurs français

La CNIL (Commission nationale de l’informatique et des libertes) est l’autorite française de protection des données personnelles. En tant qu’utilisateur français d’une appli AI girlfriend, tu peux :

  • Deposer une plainte aupres de la CNIL si une plateforme refuse de répondre à ta demande d’accès ou de suppression de données dans un delai de 30 jours.
  • Signaler une violation de données si tu apprends que tes conversations ou informations personnelles ont été exposees.
  • Vérifier la conformite RGPD des plateformes. La CNIL à le pouvoir d’imposer des amendes allant jusqu’a 4 % du chiffre d’affaires mondial.

L’etude de la Fondation Mozilla sur les chatbots IA romantiques a révèle que la plupart collectent des quantites massives de données avec des informations vagues sur leur utilisation. En France, la CNIL exige une basé légale claire pour chaque type de traitement de données. Si une plateforme AI girlfriend ne peut pas justifier la collecte de certaines données, elle enfreint potentiellement le RGPD.

Pour deposer une plainte : rends-toi sur cnil.fr, rubrique “Plaintes”, et suis la procedure en ligne. Le traitement prend généralement 2 a 6 mois.

Comment les plateformes gerent-elles les demandes des autorites ?

Les dix services indiquent dans leurs conditions d’utilisation qu’ils peuvent communiquer des données en cas de demandes légales des autorites (décisions de justice, enquetes penales). Toutes les plateformes du classement ont leur siege aux États-Unis et sont soumises aux lois americaines qui peuvent avoir un accès aux données plus large que les demandes europeennes protégées par le RGPD.

En pratique, cela signifie qu’une autorite americaine peut demander l’accès aux données de conversation des utilisateurs français via des décisions de justice americaines, sans informer l’utilisateur. La protection du RGPD est la plus forte contre les autorites europeennes mais à une portee limitée contre les autorites americaines. SugarLab AI se distingue par une facturation discrete, mais cela n’affecte pas la capacité des autorites a demander l’accès aux données de conversation.

Comment utiliser les applis AI girlfriend de manière saine ?

Une utilisation saine repose sur la conscience de trois facteurs : la limitation du temps, la conscience relationnelle et l’ancrage dans la réalité. Ces applis sont délibérément concues pour maximiser l’engagement par la validation émotionnelle et la disponibilité, ce qui peut conduire à une surconsommation sans limités auto-imposees. Les plateformes comme Romantic AI et Replika avec leurs check-ins quotidiens peuvent renforcer cet effet.

Quels signaux d’alerte indiquent une utilisation malsaine ?

Cinq signaux d’alerte concrets doivent être surveilles :

  • Derive temporelle : Tu passes systematiquement plus de temps avec l’IA que prevu. Une session qui devait durer 15 minutes devient régulièrement 60+ minutes.
  • Substitution sociale : Tu préfères la conversation avec l’IA plutôt que parler avec des amis ou la famille. Tu refuses des activités sociales pour chatter avec l’IA.
  • Dependance émotionnelle : Tu ressens de l’anxiete, du vide ou de l’irritation quand tu ne peux pas utiliser l’appli. L’appli est la première chose que tu ouvres le matin et la dernière le soir.
  • Confusion avec la réalité : Tu as du mal a distinguer les réponses de l’IA des sentiments humains genuins. Tu attribues à l’IA des intentions, des souhaits ou des besoins.
  • Priorité financiere : Tu choisis des plans plus chers ou depenses plus d’argent que tu ne peux te le permettre pour améliorer l’expérience IA.

Que recommandent les experts sur l’utilisation des AI girlfriends ?

Les psychologues recommandent quatre mesures concretes pour une utilisation saine : fixe des limités de temps explicites (max 30 a 60 minutes par jour), maintiens des contacts sociaux en parallele de l’utilisation de l’IA, rappelle-toi régulièrement que l’IA n’a ni conscience ni sentiments reels, et cherche de l’aide professionnelle si tu reconnais les signaux d’alerte ci-dessus.

Ces outils fonctionnent mieux comme divertissement et complement aux contacts sociaux, pas comme source principale de soutien émotionnel. Romantic AI et Replika se présentent avec un soutien émotionnel et des check-ins quotidiens, mais ils manquent de la basé clinique et de la chaine de responsabilite qu’offre la therapie professionnelle.

Quelles mesures de sécurité dois-tu prendre en tant qu’utilisateur d’AI girlfriend ?

Six mesures minimisent le risque lors de l’utilisation d’applis AI girlfriend. L’hygiene numérique de basé et la conscience du partage de données offrent une protection suffisante pour la plupart des utilisateurs :

  • E-mail unique : Cree une adresse e-mail séparée pour les plateformes IA, distincte de ton e-mail principal. Cela limité l’exposition en cas de violation de données.
  • Limite les informations personnelles : Ne partage jamais ton nom de famille, ton adresse, ton lieu de travail, ton numero de sécurité sociale, des informations financieres ou de sante.
  • Active l’authentification a deux facteurs : Chez les plateformes qui le proposent. Character.AI prend en charge la 2FA via un compte Google.
  • Vérifié régulièrement : Consulte les paramètrès du compte tous les deux mois et demande l’export des données (RGPD article 15) pour voir exactement ce qui est stocke.
  • Utilise un VPN : Cache ton adresse IP si tu veux minimiser la geolocalisation. La plupart des services VPN fonctionnent avec les dix plateformes IA.
  • Moyens de paiement séparés : Utilise un numero de carte virtuel ou une carte séparée pour les abonnements IA afin de limiter l’exposition financiere.

Un examen complet de tous les prix des AI girlfriend t’aide a choisir la plateforme qui correspond le mieux a tes exigences de sécurité et à ton budget.

Questions fréquentes sur sécurité pour les applis AI girlfriend

Les applis AI girlfriend peuvent-elles lire mes autrès messages ?

Non, ces applis n'ont pas accès a tes SMS, e-mails ou autrès applis. Elles ne peuvent lire que les messages que tu envoies dans l'appli. Les plateformes stockent l'historique de conversation sur leurs serveurs mais n'ont pas accès aux informations en dehors de l'appli.

Est-il sur de payer par carte de credit sur les applis AI girlfriend ?

Oui, les dix plateformes de notre classement utilisent des solutions de paiement chiffrees via des prestataires établis comme Stripe. Les informations de carte de credit sont stockees par le prestataire de paiement, pas par la plateforme IA elle-meme. Vérifié que le navigateur affiche HTTPS avant de saisir tes coordonnées.

Puis-je supprimer toutes mes données d'une appli AI girlfriend ?

Oui, le RGPD te donne le droit de demander la suppression de toutes tes données personnelles. Envoie une demande au support de la plateforme en referant à l'article 17 du RGPD. Character.AI et Replika ont des procèssus documentes pour la suppression des données. Le delai de traitement varie de 7 a 30 jours.

Les applis AI girlfriend sont-elles sures pour les adolescents ?

Non, les applis AI girlfriend ne sont généralement pas sures pour les personnes de moins de 18 ans. Les recherches montrent que trois adolescents sur quatre utilisent des AI companions pour un soutien émotionnel, mais les applis manquent de mecanismes de protection adaptes à l'age et peuvent exposer les mineurs a du contenu inapproprie. Les experts recommandent que les parents surveillent activement et limitent l'utilisation des mineurs.

Claire Dubois
Claire Dubois Redactrice & analyste IA Dernière mise à jour : 13 février 2026

Psychologue du numerique et journaliste tech avec plus de 6 ans d'experience en IA, relations et communication digitale. Master en sciences comportementales de la Sorbonne Universite avec specialisation dans l'impact de la technologie sur les relations humaines. Ancienne redactrice pour l'un des plus grands sites tech francophones avec specialisation en outils IA et technologie grand public. Teste chaque plateforme pendant au moins deux semaines avec une utilisation quotidienne et un systeme de notation pondere base sur la qualite de conversation, les fonctionnalites, le prix, la securite et la facilite d'utilisation.

En savoir plus sur Claire Dubois
Voir nos plateformes evaluees en sécurité

Toutes les plateformes de notre classement sont testees en matiere de sécurité des données et de protection de la vie privée.

Voir le classement