Le numérique, menace ou vecteur de droits fondamentaux ?

La révolution numérique inviterait « à une vigilance constante et à un examen continuellement renouvelé de la pertinence et de l’adéquation des instruments juridiques de protection des droits et libertés fondamentaux »[1]. C’est là tout l’enjeu de l’utilisation du numérique à notre époque, qui devrait en tout état de cause supposer une coexistence et un respect des droits fondamentaux. 

Il est un constat que nul ne peut remettre en cause : le numérique prend de plus en plus de place dans notre vie quotidienne. Il infiltre chaque recoin de notre existence et irrigue tous les champs : médical et sanitaire, social, politique, économique… Son développement connait une accélération sans précédent depuis les années 1990 et la naissance d’Internet. Aujourd’hui, d’aucuns pourraient affirmer que le numérique constitue notre nouvel environnement de travail, qu’il s’agit de « l’espace dans lequel nous vivons »[2]. Plus précisément, c’est par le biais « d’outils » que le public utilise le numérique : interfaces ou appareils fonctionnant avec des données informatiques, il s’agit notamment des smartphones, ordinateurs, et appareils photos. Ils permettent de quantifier et d’échantillonner tout type d’information grâce à des algorithmes. Ces derniers ont d’abord été utilisés bien avant la naissance du numérique, dès l’Antiquité. Ils sont aujourd’hui combinés à l’utilisation des statistiques en vue d’intervenir sur la société. 

L’ambivalence inéluctable des outils du numérique 

Toutefois, comme le souligne Claire Richard, « un algorithme, c’est une simple séquence de commandes à effectuer afin d’obtenir un résultat déterminé »[3]. Une telle séquence laisse donc nécessairement transparaitre son créateur, justifiant le lien entre droits humains et outils du numérique. Ainsi, leur essor et le mouvement de « mise en données » de la société suscitent des interrogations quant à leur rôle. Sont-ils bénéfiques ? La réalité est dans les nuances. En effet, leurs buts sont divers : certains ont vocation à faciliter la circulation de l’information tandis que d’autres, plus complexes, pourraient presque constituer le prolongement de l’être humain. Dès lors, la grande variété du numérique rend impossible son appréhension uniformisée. 

Néanmoins, ce constat donne naissance à des questionnements communs. Entre autres, se pose la question de la coexistence de ces outils avec les droits fondamentaux. En effet, certains connaissent grâce au numérique des extensions sans précédent, parfois au point de ne plus être régulés de manière effective. D’autres, au contraire, peinent à faire face à des menaces nouvelles, toujours plus nombreuses. Tel est le cas du droit au respect de la vie privée. Ainsi, le phénomène numérique semble se caractériser par une ambivalence inéluctable qui appelle une réponse adaptée. Celle-ci suppose de trouver un point d’équilibre entre d’une part l’idée d’encadrer les usages du numérique, et d’autre part celle de veiller à ne pas porter une atteinte disproportionnée, par ce même encadrement, à l’exercice des droits et libertés en extension. 

Le numérique, une terre fertile favorisant l’extension des droits fondamentaux 

Le développement du numérique a provoqué des changements juridiques majeurs, permettant notamment la naissance de nouveaux droits fondamentaux. Ceux-ci ont pour vocation de s’adapter aux enjeux liés à l’utilisation de ces outils, notamment via Internet. A cet égard, le Conseil constitutionnel a déduit de l’article 11 de la Déclaration des droits de l’Homme et du citoyen que la liberté de communication implique celle d’accéder aux « services de communication au public en ligne »[4]. En d’autres termes, le Conseil a ici reconnu un droit fondamental d’accès à Internet, qui propose ces services. Par ailleurs, le mouvement de « mise en données » de la société a rendu urgente la reconnaissance d’un droit à la protection des données personnelles. Ces dernières correspondent aux informations relatives à une personne physique donnée : nom, prénom, adresse personnelle… L’article 8 de la Charte des droits fondamentaux de l’Union européenne dispose ainsi que « toute personne a droit à la protection des données à caractère personnel la concernant ». En revanche, le Conseil constitutionnel français ne semble pas encore avoir individualisé ce droit. Ce silence a pu être déploré en doctrine[5]. Certains préconisent en effet sa consécration expresse, à l’instar d’autres pays européens qui l’ont déjà reconnu : la Grèce via sa Constitution[6], ou l’Espagne via sa jurisprudence constitutionnelle[7]

En outre, parallèlement à l’émergence de nouveaux droits, les outils du numérique ont permis une extension favorable de certaines libertés existantes. Tel est le cas de la liberté d’entreprendre, qui « implique désormais le droit à une existence numérique »[8], c’est-à-dire la possibilité de fournir des services sur Internet, d’obtenir un nom de domaine, ou encore de conclure des contrats par voie électronique. En pratique, en effet, la plupart des entreprises ont recours à Internet ; l’on peut penser aux grands groupes de distribution, autant dans le domaine de l’alimentaire que dans celui du textile et de la mode. Sans aucun doute, Internet procure une immense marge de manœuvre à ses utilisateurs. Ainsi les outils du numérique sont-ils devenus les principaux vecteurs de la liberté d’expression par exemple. En permettant l’ouverture et la promotion de débats publics, ils contribuent dès lors à renforcer la démocratie. La même observation vaut concernant la possibilité désormais généralisée pour les communautés marginalisées de constituer « des réseaux de solidarité et favoriser des espaces publics plus ouverts, plus inclusifs et plus divers »[9]. Pour autant, le numérique est aussi un terrain propice aux abus. 

Un catalyseur de la délinquance et de la criminalité ?

Le numérique constitue sans aucun doute un terrain fertile sur lequel se développent des menaces pour les droits fondamentaux. Il peut s’agir d’atteintes directes et frontales ou d’abus plus pernicieux. Par exemple, les groupes terroristes se sont aujourd’hui emparés des réseaux sociaux en vue de diffuser leur idéologie, notamment à des fins de recrutement ou de financement. Les plateformes numériques ont ainsi été le « théâtre macabre » de l’assassinat de Samuel Paty, depuis la publication d’une vidéo par un parent d’élève jusqu’à la revendication terroriste de l’assassinat. Outre le cyberterrorisme, deux types d’atteintes aux droits fondamentaux existent : d’une part, des atteintes verticales par les personnes publiques, et d’autre part, des atteintes horizontales par des personnes privées. Cette seconde hypothèse renvoie notamment à l’intrusion faite dans la vie privée des utilisateurs. Il peut aussi s’agir de divers usages frauduleux perpétrés dans l’univers numérique et portant atteinte à la sécurité. Par exemple, on peut citer les atteintes aux données personnelles : accès aux informations personnelles par des tiers à l’insu de leur détenteur, altération ou destruction des données. Ainsi, ces outils peuvent agir comme un catalyseur de la délinquance et de la criminalité. A cet égard, la pédophilie et la pédopornographie, ainsi que l’escroquerie, foisonnent dans l’univers numérique. 

=> LIRE AUSSI : La crise terroriste depuis la place Beauvau : récit d’un Premier ministre, Bernard Cazeneuve

En outre, ces outils constituent le théâtre favorisé d’une concurrence entre différents droits et libertés. A cet égard, la CJUE dans son arrêt Digital Rights Ireland du 8 avril 2014 a constaté l’invalidité d’une directive européenne[10] qui prévoyait l’obligation faite aux États d’imposer la conservation des données de connexion pendant une durée de six mois à deux ans. L’objectif de cette directive était de garantir l’accès à ces données par les autorités nationales en vue de détecter et poursuivre des infractions graves. La Cour de justice a jugé qu’elle instaurait une obligation générale de conservation, constitutive d’une ingérence particulièrement grave dans les droits à la vie privée et à la protection des données personnelles garantis par les articles 7 et 8 de la Charte. Or, par sa décision French Data Network du 21 avril 2021[11], le Conseil d’État fait valoir que les exigences européennes telles qu’interprétées par la Cour de justice sont contraires à la Constitution et notamment à l’article 12 de la Déclaration de 1789. Il juge ainsi que la menace pour la sécurité nationale justifie une conservation généralisée des données. Néanmoins, il admet « qu’une telle conservation emporte une ingérence grave dans les droits fondamentaux des personnes concernées ». A ce titre, le Conseil d’État ordonne au gouvernement de justifier cette atteinte régulièrement au regard des objectifs de lutte contre la criminalité. Il lui enjoint aussi de subordonner l’utilisation des données personnelles à l’autorisation d’une autorité indépendante. L’opposition entre impératifs d’intérêt général et droits fondamentaux semble dans ce cas exacerbée par l’utilisation des outils du numérique. La nécessité d’une réponse juridique adaptée s’impose alors.

Un renforcement nécessaire de la protection des droits fondamentaux

Les enjeux présentés par l’encadrement des usages du numérique sont nombreux au regard de la protection des droits. La question est d’autant plus complexe qu’aucune autorité de surveillance globale n’existe à l’échelle mondiale. L’origine d’une régulation effective est ainsi questionnée par la communauté internationale, dont une partie affirme que « la gouvernance de notre monde numérique doit être arrachée aux entreprises privées comme aux États autoritaires pour que la démocratie puisse survivre »[12]. Face à l’essor grandissant de ces outils, une absence de coopération internationale préjudicierait grandement à la protection des droits fondamentaux. Dès lors, la question du droit territorialement applicable sur internet revêt une importance majeure. A cet égard, il devient urgent de définir un socle commun de règles à valeur impérative et applicable à tous. 

Au niveau européen, la principale source de protection est matérialisée par un règlement du Parlement et du Conseil du 27 avril 2016, dit règlement général sur la protection des données (RGPD). Son champ d’application est le territoire de l’Union. Peu importe que le traitement des données à caractère personnel ait lieu ou non en son sein[13]. L’une des plus fortes garanties posées par ce texte est sans doute le principe de transparence. Celui-ci renvoie à l’absence de secret et permet ainsi un contrôle des actions des États, et notamment des entreprises. L’article 5 précise que les données personnelles doivent être traitées de manière licite, loyale et transparente, et exige que tout ce qui touche au traitement de ces données soit accessible et raisonnablement simple à comprendre. Ce règlement ne distinguant pas de responsabilité particulière, sont donc potentiellement concernées toutes les personnes morales de droit public ou de droit privé.

L’émergence d’un droit à l’autodétermination informationnelle

Toutefois, face aux lacunes persistantes de la protection des droits fondamentaux au regard de l’usage du numérique, certains auteurs suggèrent d’accroitre directement les capacités d’action des individus. Ainsi, la notion d’autodétermination informationnelle semble peu à peu émerger sous l’impulsion de la Cour constitutionnelle fédérale de l’Allemagne. Elle se définit comme « la capacité à décider librement du devenir des informations numériques qui nous concernent »[14]. Dans sa décision du 15 décembre 1983[15], la Cour a consacré cette notion en considérant que la Loi fondamentale « garantit en principe la capacité de l’individu à décider de la communication et de l’utilisation de ses données à caractère personnel ». Le fondement de cette décision était notamment le principe de dignité de la personne humaine. 

Par la suite, ce droit a été précisé, la Cour allemande ayant admis la possibilité de lui porter atteinte lorsque sont en cause des intérêts publics impérieux. L’autodétermination informationnelle permettrait une protection active et effective des droits fondamentaux. Elle constituerait un gage d’épanouissement de la personne humaine et de la société dans sa globalité. En d’autres termes, il s’agirait de fonder un « principe essentiel donnant sens à d’autres droits fondamentaux, afin de mieux les garantir »[16]. Or, même dans le meilleur des mondes, l’encadrement du numérique ne suffirait pas à garantir la sauvegarde des droits fondamentaux. Encore faudrait-il neutraliser tous les biais sociaux inévitablement intégrés par ces outils.

=> LIRE AUSSI : Télétravail et coronavirus : « zoom » sur le droit à la déconnexion en France

Des biais sociaux intégrés par les outils du numérique

Au cœur des outils du numérique se trouvent les algorithmes. Loin d’être objectivement neutres, ceux-ci laissent toujours transparaitre un éclat de leur créateur ; ils ne proviennent pas « de nulle part ». En somme, « un algorithme, c’est une opinion formalisée dans du code »[17]. Tenter de les saisir à travers le droit revient à interroger et mettre en exergue les biais inconscients qui règnent au sein de notre société. Ceux-ci sous-tendent la plupart de nos actions, et par extension celles des algorithmes. En effet, ces derniers reproduisent voire intensifient inéluctablement les schémas discriminatoires à l’œuvre dans les relations entre individus. Ainsi, les risques induits ne sont pas négligeables. Ils sont notamment pointés du doigt par le Conseil d’État dans son rapport annuel de 2014, qui dénonce une « confiance abusive dans les résultats d’algorithmes perçus comme objectifs et infaillibles ». Des affaires récentes ont pu souligner des atteintes à l’égalité et à l’équité. 

Par exemple, en droit du travail, les employeurs ont de plus en plus recours aux intelligences artificielles à des fins de recrutement. Or, la plupart témoignent de « biais algorithmiques », souvent involontaires, liés aux paramétrages de la machine. Une étude de l’université d’Harvard[18] partait du constat que des employeurs soucieux de la santé de leurs salariés avaient paramétré un algorithme de recrutement au regard du temps de trajet. De cette façon, les candidats ne pouvaient être recrutés s’ils habitaient à une distance jugée trop grande de l’entreprise. L’idée sous-jacente était la suivante : de longs trajets à répétition étaient susceptibles de fatiguer les salariés. Or, les personnes qui habitaient des zones moins bien desservies par les transports provenaient parfois de milieux défavorisés. Sans le vouloir, ces employeurs avaient créé un biais discriminatoire. De telles observations peuvent aussi être formulées concernant l’existence de biais « genrés » dans les processus décisionnels des algorithmes[19]. En somme, ces failles portent indubitablement atteinte aux droits fondamentaux.

Vers une neutralité du net ?

Certes, éliminer ces biais relève presque de l’impossible. L’objectif, à travers l’encadrement du numérique, serait plutôt de les identifier et de les expliciter. La vocation du droit est alors de tendre vers un principe de « neutralité du net ». Cette idée se raccroche aux notions d’égalité de traitement et de non-discrimination dans un contexte de trafic numérique et connecté. En toute hypothèse, cette neutralité supposerait que les plateformes traitent toutes les données, sans considération pour leur contenu, expéditeur, ou destinataire, d’une manière égale. Ce principe a été consacré par le règlement européen du 25 novembre 2015 sur l’Internet ouvert, et le législateur l’a retranscrit en droit français par la loi pour une République numérique du 7 octobre 2016. Depuis, il a été utilisé dans le cadre de décisions juridictionnelles, notamment dans l’arrêt Telenor rendu par la Cour de justice de l’Union européenne le 15 septembre 2020.

En somme, les outils du numérique recèlent une ambivalence certaine. Entre vecteurs de droits fondamentaux et sources de menaces à leur encontre, ils appellent une réponse juridique nuancée, adaptée mais aussi urgente et continue en vue de garantir la sauvegarde des droits fondamentaux.


[1] A. ROUVROY, « Des données et des hommes. Droits et libertés fondamentaux dans un monde des données massives », Conseil de l’Europe, T-PD-BUR (2015) 09REV, 2016, p. 45.

[2] M. VITALI-ROSATI, Chapitre 4. Pour une définition du « numérique » In : Pratiques de l’édition numérique [en ligne]. Montréal : Presses de l’Université de Montréal, 2014 (consulté le 05 novembre 2022).

[3] C. RICHARD, « Dans la boîte noire des algorithmes. Comment nous nous sommes rendus calculables », Revue du Crieur 2018/3, n°11, p. 68  

[4] Conseil constitutionnel, décision n° 2009-580 DC. 10 juin 2009, Loi favorisant la diffusion et la protection de la création sur internet, §12.

[5] I. FALQUE-PIERROTIN, « La constitution et le numérique », N3C 2012/3, n° 36, p. 37.

[6] Article 9 A de la constitution de la Grèce. « Chaque individu a le droit d’être protégé contre la collecte, le traitement et l’utilisation, en particulier par voie électronique, de ses données personnelles, selon des conditions prévues par la loi. La protection des données personnelles est assurée par une autorité indépendante, qui est constituée et fonctionne selon des conditions prévues par la loi. »

[7] Sentencia 292/2000, de 30 de noviembre de 2000 del Tribunal Constitucional, Recurso de inconstitucionalidad respecto de los arts. 21.1 y 24. 1 y 2 de la Ley orgánica 15/1999, de 13 de diciembre, de protección de datos de carácter personal.

[8] Étude annuelle du Conseil d’État, Le numérique et les droits fondamentaux, 2014. Conférence de presse – Mardi 9 septembre 2014, p. 6.

[9] Recommandation CM/Rec (2022) 13. Les effets des technologies numériques sur la liberté d’expression. Comité des Ministres du Conseil de l’Europe, 6 avril 2022, p. 6.

[10] Directive n° 2006/24/CE du 15 mars 2006

[11] Conseil d’État, Assemblée, 21/04/2021, 393099, Publié au recueil Lebon

[12] M. SCAAKE, Forum sur l’information et la démocratie, 2020.

[13] RGPD, Article 3 – Champ d’application territorial

[14] P. TÜRK, « L’autodétermination informationnelle : un droit fondamental émergent ? », Dalloz IP/IT 2020/11 p. 616

[15] BVerfGE 65,1, Volkszählung, 15 déc. 1983.

[16] Étude annuelle du Conseil d’État, Le numérique et les droits fondamentaux, 2014. Conférence de presse – Mardi 9 septembre 2014, p. 28.

[17] C. O’NEIL, Algorithmes, la bombe à retardement, 2018, Les Arenes Eds.

[18] J. B. FULLER, M. RAMAN, E. SAGE-GAVIN, K. HINES, “Hidden workers: untapped talent. How leaders can improve hiring practices to uncover missed talent pools, close skills gaps, and improve diversity”, Harvard Business School

[19] J. CHARPENET et C. LEQUESNE ROTH, « Discrimination et biais genrés. Les lacunes juridiques de l’audit algorithmique », Dalloz 2019 p. 1852

Heures © ACDS | collegededroitsorbonne.com/mentions-legales
%d blogueurs aiment cette page :
search previous next tag category expand menu location phone mail time cart zoom edit close