Depuis son lancement officiel en France au printemps 2025, Apple Intelligence et son assistant Siri renforcé soulèvent une question que des millions d'utilisateurs français se posent en avril 2026 : quand vous parlez à Siri, où vont vos données ? Et qui peut y accéder ?
Siri version 2026 : une refonte totale qui change la donne
Apple a profondément remanié Siri dans le cadre d'Apple Intelligence, son système d'IA générative déployé progressivement depuis iOS 18.4. En France, les utilisateurs disposent désormais d'un assistant capable de répondre à des questions complexes, de résumer des emails, de déclencher des actions dans d'autres applications, et bientôt d'effectuer des recherches web enrichies similaires à Perplexity ou Google.
Selon les informations publiées par Apple sur sa page légale française, deux modes de traitement coexistent :
- Le traitement sur l'appareil : la majorité des requêtes Siri est analysée directement sur la puce Apple Silicon de votre iPhone ou Mac, sans quitter votre terminal.
- Le Private Cloud Compute : pour les requêtes plus complexes, les données transitent vers des serveurs Apple chiffrés. Apple affirme que ces données ne sont pas conservées après le traitement.
Ce second point est celui qui mérite l'attention d'un expert en informatique — et c'est précisément là que les choses se compliquent sur le plan du RGPD.
Ce que le RGPD impose — et ce qu'Apple doit prouver
Le Règlement Général sur la Protection des Données (RGPD), qui s'applique à toute entreprise traitant des données de résidents européens, impose plusieurs obligations strictes. Le principe de minimisation des données exige que seules les données strictement nécessaires soient collectées. La transparence impose de savoir exactement quelles données sont traitées, où, et pendant combien de temps.
Or, selon les tensions documentées entre Apple et les régulateurs européens (notamment via le Digital Markets Act), Apple a lui-même reconnu que les contraintes réglementaires européennes l'ont poussé à retarder plusieurs fonctionnalités d'Apple Intelligence en France — parfois de plusieurs mois.
D'après le règlement européen sur l'IA (AI Act), entré progressivement en vigueur depuis août 2024, les systèmes d'IA générative comme Apple Intelligence doivent désormais respecter des obligations de transparence supplémentaires : informer l'utilisateur qu'il interagit avec une IA, documenter les données d'entraînement utilisées, et respecter les droits en matière de droits d'auteur.
Concrètement, pour un utilisateur français : si Siri traite une conversation médicale, un document juridique ou des informations financières via le Private Cloud Compute, ces données transitent vers des serveurs dont la localisation géographique exacte n'est pas toujours transparente.
Ce que les utilisateurs français risquent concrètement
Trois risques concrets méritent l'attention :
1. Les données sensibles dans les conversations Siri Beaucoup d'utilisateurs dictent des emails professionnels, des rappels médicaux ou des messages bancaires à Siri sans réaliser que certaines de ces requêtes passent par le Private Cloud Compute. Même si Apple affirme ne pas conserver ces données, l'utilisateur n'a aucun moyen de vérifier indépendamment que le traitement a bien eu lieu uniquement en mémoire temporaire.
2. La dépendance au partenariat Apple-Google En janvier 2026, Apple et Google ont annoncé un partenariat pluriannuel : les prochains modèles d'Apple Intelligence seront partiellement basés sur la technologie Gemini de Google. Cela soulève une question légitime : vos requêtes Siri pourraient-elles, à terme, être partiellement traitées par l'infrastructure de Google, avec ses propres pratiques de données ?
3. L'absence de contrôle granulaire Contrairement à certains paramètres RGPD disponibles pour les cookies, il n'existe pas, à ce jour, d'interface permettant à un utilisateur français de choisir précisément quelles requêtes Siri sont traitées sur l'appareil versus dans le cloud. Vous pouvez désactiver Apple Intelligence dans les Réglages, mais c'est tout ou rien.
Quand faut-il consulter un expert en informatique ?
Si vous êtes professionnel de santé, avocat, comptable, ou si vous gérez des données clients sensibles, la question n'est pas théorique : utiliser Siri ou Apple Intelligence dans un contexte professionnel peut engager votre responsabilité au titre du RGPD si vous transmettez des données personnelles de tiers à un service cloud sans base légale valide ni accord de traitement des données (DPA) signé avec Apple.
Un informaticien spécialisé en cybersécurité peut vous aider à :
- Auditer l'utilisation d'Apple Intelligence dans votre organisation
- Vérifier si votre politique de sécurité couvre les assistants vocaux IA
- Configurer des profils de gestion MDM pour désactiver Apple Intelligence sur les appareils professionnels si nécessaire
- Évaluer si les traitements effectués par Siri nécessitent une mise à jour de votre registre de traitement RGPD
Pour les professionnels libéraux et les TPE, consulter un expert en intelligence artificielle sur Expert Zoom peut permettre d'obtenir un diagnostic personnalisé de vos risques liés à l'IA en entreprise.
Ce que vous pouvez faire dès aujourd'hui
Quelques gestes simples permettent de limiter les risques en attendant une clarification réglementaire plus complète :
- Vérifiez vos paramètres Siri : dans Réglages > Siri et recherche, vous pouvez désactiver l'historique Siri et les suggestions basées sur vos données d'applications.
- Désactivez Apple Intelligence pour les apps sensibles : certaines applications professionnelles peuvent être exclues des fonctionnalités d'Apple Intelligence.
- Lisez la documentation légale d'Apple : la page apple.com/legal/privacy/data/fr/intelligence-engine détaille les traitements effectués. Elle est opposable en cas de litige.
- Signalez tout problème à la CNIL : la Commission Nationale de l'Informatique et des Libertés reste l'autorité compétente pour tout manquement au RGPD constaté sur votre compte Apple en France.
La CNIL a d'ailleurs rappelé dans ses lignes directrices sur l'IA que les utilisateurs doivent être informés clairement lorsqu'un système d'IA traite leurs données, et que le consentement doit être libre, éclairé et révocable — des standards qu'Apple devra démontrer de manière de plus en plus documentée à mesure que ses outils d'IA gagnent en puissance.
Note : Cet article traite de questions juridiques liées à la protection des données personnelles (RGPD). Il ne constitue pas un avis juridique. Pour toute situation spécifique impliquant des données professionnelles ou personnelles sensibles, consultez un expert qualifié.
