Page 39 - RIMD_2011-1
P. 39
Revue de l’Institut du Monde et du Développement | 39
volontaire les données, peut-on concevoir des machines capables, comme le
cerveau humain, d’oublier intelligemment, et même conformément à l’esprit de
la loi informatique et libertés ?
Dans une perspective de renforcement de la vie privée, de sécurité informatique,
et même d’un allègement des obligations parfois illusoires qui pèsent sur les
responsables de traitement, on peut imaginer intervenir en amont et concevoir
des solutions techniques pour faire en sorte que les machines oublient
« intelligemment », conformément aux équilibres juridiques que la loi a cherché
à instaurer.
7
C’est dans la lignée notamment de la Nouvelle École de Chicago , sous l’égide
de Lawrence Lessig, constitutionnaliste aux États-Unis, qu’une telle réflexion
peut être menée.
Le postulat de départ est le suivant. Les technologies ne sont pas neutres : elles
reflètent intrinsèquement, dans leur essence et leur constitution, la politique et les
desiderata de leurs architectes, souvent les ingénieurs sous la houlette des
industriels.
Selon les thèses de la Nouvelle École de Chicago, il est possible de retourner
cette absence fondamentale de neutralité en faveur du droit.
Prenons un exemple que j’aime souvent donner aux étudiants du Master : une
politique de sécurité routière peut reposer sur (i) le libre commerce de voitures
non-bridées, une liberté d’action totale pour les conducteurs, l’instauration de
limitations de vitesse, et d’un système de répression pénale en cas de
dépassement (approche libérale-répressive), et/ou (ii) une intervention a priori
imposant que des ordinateurs embarqués à bord des véhicules soient capables de
réguler automatiquement la vitesse maximale du moteur en fonction des
informations reçues par satellite sur les limites applicables sur la route en
question (approche technico-préventive, voir sur le sujet de la régulation routière
e projet e-Safety de la Commission européenne).
L’idée donc, c’est d’inciter, voire d’obliger, les industriels et les ingénieurs
informatiques à concevoir des programmes d’ordinateurs, des architectures, des
applications, qui intègrent ab initio des principes techniques de fonctionnement,
des garde-fous informatiques qui reflètent les équilibres de la loi.
Pour le sujet qui nous intéresse, la solution qui pourrait se dégager consisterait à
définir un standard technique consistant en un système de « métadonnées à
caractère personnel » ou de « Digital Right Management » en matière de vie
privée.
C’est l’idée toute simple d’information sur l’information.
Elle s’accompagne d’un politique d’archivage automatique définie pour chaque
donnée, d’un cadre d’exploitation limité sur le plan technique, d’une matrice
d’habilitation restreignant les accès par cryptologie et mots de passe sécurisés.
Un exemple ? Si mon âge et mon taux de cholestérol sont des données à
caractère personnel – parce qu’associées à une information identifiante – je
pourrais associer ces données à une durée de péremption de (i) trois ans pour
mon médecin traitant (ii) trois mois pour le spécialiste qui s’occupe de mes dents
(iii) trois jours pour les organismes de sécurité sociale – durées à l’issue
desquelles les données sont cryptées et/ou uniquement accessibles aux titulaires
d’une clé dédiée aux professionnels de santé que je connais et/ou totalement
7 L. Lessig, The New Chicago School, 1998, Hein Online – 27 J. Legal Stud. 661.
RIMD – n° 1 – 2011
volontaire les données, peut-on concevoir des machines capables, comme le
cerveau humain, d’oublier intelligemment, et même conformément à l’esprit de
la loi informatique et libertés ?
Dans une perspective de renforcement de la vie privée, de sécurité informatique,
et même d’un allègement des obligations parfois illusoires qui pèsent sur les
responsables de traitement, on peut imaginer intervenir en amont et concevoir
des solutions techniques pour faire en sorte que les machines oublient
« intelligemment », conformément aux équilibres juridiques que la loi a cherché
à instaurer.
7
C’est dans la lignée notamment de la Nouvelle École de Chicago , sous l’égide
de Lawrence Lessig, constitutionnaliste aux États-Unis, qu’une telle réflexion
peut être menée.
Le postulat de départ est le suivant. Les technologies ne sont pas neutres : elles
reflètent intrinsèquement, dans leur essence et leur constitution, la politique et les
desiderata de leurs architectes, souvent les ingénieurs sous la houlette des
industriels.
Selon les thèses de la Nouvelle École de Chicago, il est possible de retourner
cette absence fondamentale de neutralité en faveur du droit.
Prenons un exemple que j’aime souvent donner aux étudiants du Master : une
politique de sécurité routière peut reposer sur (i) le libre commerce de voitures
non-bridées, une liberté d’action totale pour les conducteurs, l’instauration de
limitations de vitesse, et d’un système de répression pénale en cas de
dépassement (approche libérale-répressive), et/ou (ii) une intervention a priori
imposant que des ordinateurs embarqués à bord des véhicules soient capables de
réguler automatiquement la vitesse maximale du moteur en fonction des
informations reçues par satellite sur les limites applicables sur la route en
question (approche technico-préventive, voir sur le sujet de la régulation routière
e projet e-Safety de la Commission européenne).
L’idée donc, c’est d’inciter, voire d’obliger, les industriels et les ingénieurs
informatiques à concevoir des programmes d’ordinateurs, des architectures, des
applications, qui intègrent ab initio des principes techniques de fonctionnement,
des garde-fous informatiques qui reflètent les équilibres de la loi.
Pour le sujet qui nous intéresse, la solution qui pourrait se dégager consisterait à
définir un standard technique consistant en un système de « métadonnées à
caractère personnel » ou de « Digital Right Management » en matière de vie
privée.
C’est l’idée toute simple d’information sur l’information.
Elle s’accompagne d’un politique d’archivage automatique définie pour chaque
donnée, d’un cadre d’exploitation limité sur le plan technique, d’une matrice
d’habilitation restreignant les accès par cryptologie et mots de passe sécurisés.
Un exemple ? Si mon âge et mon taux de cholestérol sont des données à
caractère personnel – parce qu’associées à une information identifiante – je
pourrais associer ces données à une durée de péremption de (i) trois ans pour
mon médecin traitant (ii) trois mois pour le spécialiste qui s’occupe de mes dents
(iii) trois jours pour les organismes de sécurité sociale – durées à l’issue
desquelles les données sont cryptées et/ou uniquement accessibles aux titulaires
d’une clé dédiée aux professionnels de santé que je connais et/ou totalement
7 L. Lessig, The New Chicago School, 1998, Hein Online – 27 J. Legal Stud. 661.
RIMD – n° 1 – 2011

