Accéder au contenu principal

VIELLE RÉGLEMENTAIRE

VIELLE RÉGLEMENTAIRE

VIELLE RÉGLEMENTAIRE

Veille règlementaire CNIL RGPD

Appel à communication – Journée de recherche sur la vie privée à Paris le 24 juin 2026

à communication est ouvert à toutes les disciplines (informatique, sciences sociales, droit, conception d’interfaces, etc.).

Thématiques

Cette liste n'est pas exhaustive et les soumissions peuvent porter sur tout autre sujet pertinent relatif à la vie privée et à la protection des données.

« Protection des mineurs et des utilisateurs vulnérables »

Cette thématique explore les défis spécifiques en matière de vie privée et de sécurité auxquels sont confrontés les utilisateurs dont la situation personnelle, sociale ou professionnelle engendre des vulnérabilités particulières (public mineur ou âgé ou victime d’exclusion ou de marginalisation). L'accent sera mis sur les risques et usages émergents, qu'ils soient liés au déploiement de l' (santé mentale, hypertrucages ou deepfakes) ou aux nouvelles formes de contrôle et de protection (vérification de l'âge, , contrôle parental).

Les questions clés incluent notamment :

  • Quels sont les risques spécifiques aux différents groupes d'utilisateurs ? Qu'est-ce qui, concrètement, rend un utilisateur vulnérable ?
  • Quelles sont les stratégies de protection envisagées et/ou mises en œuvre par les mineurs et les utilisateurs vulnérables eux-mêmes ?
  • Comment protéger ces utilisateurs tout en préservant leur autonomie ?
  • Comment concevoir des services qui s'adaptent aux différents profils de risque ?

« Internationalisation des législations sur la vie privée »

On considère souvent que le RGPD a engendré un « Brussels Effect », avec aujourd'hui une prolifération de lois sur la protection des données produisant de nouveaux « effets ». Dans le contexte du G7, il serait particulièrement pertinent d'examiner les effets transfrontaliers de ces textes : le « California Effect » avec le CCPA / CPRA , le « Beijing Effect » avec la PIPL , le concept de vie privée dès la conception (privacy by design) originaire de l’Ontario (Canada), etc.

Ce thème est plus largement ouvert aux travaux portant sur la coopération internationale permise ou encouragée par ces règlementations, leurs effets sur les transferts de données, ainsi que sur le rôle des technologies protectrices de la vie privée (PETs ou Privacy Enhancing Technologies). Ces technologies offrent des garanties techniques indépendamment des cadres règlementaires et peuvent, de ce fait, agir comme des facilitateurs de conformité à l’international.

Les questions clés incluent notamment :

  • Quels enjeux juridiques découlent de l'interaction entre les différentes législations nationales ou internationales ?
  • Quels sont les dénominateurs communs entre ces différentes législations ?
  • De quels outils juridiques et techniques disposent les exportateurs et les importateurs de données ?
  • Les PETs facilitent-elles la mise en conformité avec certaines règlementations ?
  • Comment les utilisateurs peuvent-ils être informés de leurs droits au sein de différents cadres juridiques ?
  • Comment les standards de protection de la vie privée circulent-ils et s'adaptent-ils aux spécificités régionales ?

« L'intelligence artificielle au prisme de... » :

  • La protection des données : les nécessitent de vastes volumes de données (souvent à caractère personnel) pour leur entrainement et brouillent la frontière entre les données et les modèles d'IA, dont des données personnelles peuvent souvent être extraites.
  • La sécurité : les systèmes d'IA peuvent amplifier l'ampleur des cyberattaques et en permettre de nouvelles méthodes d’attaques (par exemple, les attaques par canaux auxiliaires (side-channel attacks) capables de déchiffrer les frappes au clavier grâce au son).
  • La régulation : les régulateurs et les cadres juridiques évoluent et s'adaptent à ces défis, particulièrement ceux associés aux systèmes d'IA dits « agentiques », incluant les questions de responsabilité et l'usage potentiel de tels systèmes par les régulateurs eux-mêmes.

Les questions clés incluent notamment :

  • Comment l'interface et le fonctionnement des systèmes d'IA contribuent-ils au traitement d'un volume croissant de données personnelles ?
  • Quelles sont les nouvelles menaces émergentes, et comment l'IA modifie-t-elle les pratiques de sécurité ou l'exercice des droits ?
  • De manière générale, comment les organismes de régulation sont-ils exposés à ces nouveaux défis ?

« Objets connectés et dispositifs portables (IoT) »

L'intégration de capacités d'analyse et d'une connectivité omniprésente permet aux objets connectés - dont la taille a considérablement diminué - d'analyser leur environnement en continu et de collecter des données. L'acceptabilité et l'usage de ces objets, en particulier les lunettes connectées, soulèvent de nouveaux défis en matière de vie privée. Cette thématique couvre également les équipements de la maison connectée (smart home), dont le déploiement au sein des foyers se fait de manière tout aussi discrète.

Les questions clés incluent notamment :

  • Quelles sont les perceptions de la vie privée liées aux objets connectés et aux « wearables » (objets portables) ?
  • Comment la réduction de la taille et de la visibilité des objets connectés affecte-t-elle la capacité de l'utilisateur à rester conscient de la collecte de données, et quels mécanismes peuvent être efficaces pour les appareils dépourvus d'écran ?
  • Ces nouveaux objets soulèvent-ils des questions juridiques et des cas d'usage différents de ceux des smartphones ?

« Une régulation fondée sur la science »

Ce thème vise à explorer les cas où la recherche scientifique est mobilisée par ou destinée aux régulateurs, et à observer les situations dans lesquelles ces derniers transforment les travaux scientifiques en matière exploitable – c'est-à-dire des outils techniques ou des preuves empiriques utilisés pour motiver des décisions juridiques et façonner la doctrine. L'objectif est de mieux comprendre les défis concrets liés à l'utilisation des ressources scientifiques (typologies, résultats d'enquêtes, méthodes, outils, recommandations) au service de la régulation.

Les questions clés incluent notamment :

  • Quelles conditions permettent une interaction efficace entre la science et la régulation ?
  • Comment les régulateurs transforment-ils des données scientifiques complexes en une « objectivité règlementaire » et en preuve administrative ?
  • Quelles contributions académiques ont été utilisées dans le cadre de contentieux ou de décisions de régulation, et de quelle manière ?
  • Quelles méthodes quantitatives ou qualitatives sont utilisées pour quantifier et sanctionner les préjudices numériques, souvent « invisibles » ?

« Monétisation des données personnelles et modèles d'affaires dans l'économie numérique »

Ce thème accueille des contributions analysant les modèles d'affaires dans l'économie des plateformes sous une perspective pluridisciplinaire. En partant des enjeux économiques de la collecte et du traitement des données personnelles et des risques associés, les discussions porteront sur les évolutions actuelles et prévisibles de ces modèles (par exemple, les modèles dits « consentir ou payer » (consent-or-pay), le rôle des développements technologiques, les architectures de choix et les règlementations correspondantes.

Les questions clés incluent notamment :

  • Comment la valeur économique des données personnelles est-elle perçue par les plateformes, et comment cette perception se compare-t-elle à celle des utilisateurs ?
  • À quelles conditions le modèle « consentir ou payer » (consent-or-pay) respecte-t-il le consentement exigé par des règlementations telles que le RGPD ? Quel serait le prix approprié pour de tels modèles ?
  • Dans quelle mesure les nouveaux cadres règlementaires (règlement sur les marchés numériques ou DMA, règlement sur les données ou Data Act, etc.) rééquilibrent-ils les rapports de force entre les « contrôleurs d’accès » (gatekeepers) et les utilisateurs ? Selon quelles dispositions et quels outils ?

« Sécurité des données : des outils techniques aux pratiques sociales »

Ce thème examine la protection de la vie privée à la fois comme un défi technique et comme une question d'appropriation sociale, en analysant comment les individus et les organisations s'équipent pour faire face aux vulnérabilités numériques.

  • Mise en œuvre des technologies protectrices de la vie privée (PETs) : ce volet explore la façon dont des techniques telles que le chiffrement avancé, la (differential privacy) et les preuves à divulgation nulle de connaissance (zero-knowledge proofs) sont désormais intégrées dans les produits de grande consommation et les infrastructures. Les contributions peuvent analyser comment ces outils aident à répondre aux exigences du RGPD en réduisant nativement la collecte de données, en simplifiant les obligations administratives, en sécurisant les flux de données et, dans certains cas, en renforçant la compétitivité.
  • Utilisabilité de la vie privée et de la sécurité (Usable Privacy and Security) : ce volet se concentre sur l'interface entre les outils et les utilisateurs, en s'appuyant sur la recherche en sciences sociales, le design et l'interaction homme-machine (IHM). L'enjeu est de comprendre la transition, souvent complexe, entre l'existence d'une solution technique (par exemple, les gestionnaires de mots de passe ou l'authentification à deux facteurs) et son adoption effective. Les travaux de recherche peuvent examiner les mécanismes de perception du risque, y compris les écarts entre les menaces réelles et les craintes exprimées par les utilisateurs.

Les questions clés incluent notamment :

  • Comment les PETs émergentes concilient-elles une utilité élevée des données avec des garanties de sécurité robustes dans les produits commerciaux ?
  • Dans quelle mesure les PETs peuvent-elles « automatiser » les exigences du RGPD (telles que la des données) et réduire la charge juridique pour les organisations ?
  • Pourquoi existe-t-il un écart persistant entre la disponibilité des PETs et leur déploiement effectif ?
  • En quoi les modèles mentaux et les « craintes exprimées » des utilisateurs diffèrent-ils des menaces techniques réelles, et comment cela influence-t-il leurs stratégies de défense ?
  • Vues : 90