CHAIRE CONFIANCE NUMÉRIQUE SESSION N° 2
16 novembre 2018
Confiance numérique et protection des données personnelles
Programme :
14h-18h : Amphi Ettori
18h : Visite de l’exposition The Glass Room Experience à la Bibliothèque Universitaire
Présentation :
André Giudicelli et Eric Caprioli
JEAN FRAYSSINET, Professeur émérite, Aix-Marseille Université, membre de la Commission de contrôle des fichiers
d’Interpol.
« Evolution de la confiance numérique dans les textes relatifs à la protection des données »
Résumé : Nos données personnelles sont révélatrices de ce que nous sommes, de tous les aspects de notre
personnalité et de nos comportements, y compris les plus intimes ; leurs collecte, traitement, divulgation par nousmême
ou par des tiers, souvent à notre insu, ont de multiples conséquences visibles ou invisibles sur notre vie
personnelle et nos rapports sociaux. C'est pourquoi, dans un contexte où les technologies, les modes de traitement,
les applications et services évoluent rapidement, la confiance est un facteur essentiel.
De la loi de 1978 Informatique, fichiers et libertés, créant la CNIL, au Règlement général européen de protection des
données personnelles (RGPD), applicable depuis mai 2018, le droit tente d'augmenter le niveau de confiance en
prévoyant des règles et des procédures présentées comme renforçant nos droits individuels, diminuant les risques
d'atteintes à nos libertés, établissant une gestion responsable et équilibrée des données personnelles.
Mais, paradoxalement, on peut s'interroger : l'évolution du droit en la matière rapprochée des réalités et des
comportements des acteurs ne devient-elle pas source de méfiance ?
YVES POULLET, Professeur émérite de l’Université de Namur, Fondateur du Centre de recherche informatique et droit
« Le consentement, une panacée ou un piège ? »
Résumé : Le consentement s'est imposé progressivement comme « le » fondement de la légitimité des traitements,
en particulier dans le secteur privé. Ses exigences ont été portées à la hausse par le RGPD et sont à géométrie
variable. Cette tendance soulève bien des questions : jusqu'où le consentement ? Derrière ce fondement, une
tendance vers la reconnaissance d'une appropriation des données ne se cache-t-elle pas ? Le Consumer Privacy Act
californien, voté tout récemment, franchit le pas. Est-ce la bonne approche à l'heure de l'Intelligence artificielle et du
sharing data ?
Propriétés ou libertés, il faut choisir.
JESSICA EYNARD, Maître de conférences à l’Université de Toulouse Capitole 1
« L'information, un vecteur de confiance suffisant ? »
Résumé : Il s’agira d’interroger l'élargissement de l'obligation d'information des responsables de traitement,
notamment en ce qui concerne les décisions automatisées (décisions algorithmiques). Celui qui recourt à des
algorithmes pour prendre des décisions est désormais tenu de donner à la personne concernée une information sur
la logique sous-jacente du traitement ainsi que sur l'importance et les conséquences prévues de ce traitement. La
difficulté est de savoir ce qu'il faut entendre par "logique sous-jacente" et comment mettre en oeuvre cette
information. Cette question se pose avec acuité dès lors que l'intelligence artificielle est utilisée. Le RGPD ne
montrerait-il pas déjà ses limites à ce sujet ? Le droit français semble en cette matière être allé plus loin, puisque le
Conseil constitutionnel vient de décider de bannir le machine learning en matière de décision administrative ayant
des effets juridiques sur une personne parce que son information n'était pas possible.
TRISTAN NITOT, Vice-Président Advocacy de Qwant
« Le traitement des données personnelles : le point de vue d’une entreprise »