Page

Contenus illicites sur Internet et hébergeurs

Francis DONNAT - Directeur des politiques publiques Google France(*)

Nouveaux Cahiers du Conseil constitutionnel n° 52 (dossier : La Constitution et l’innovation) - juin 2016 - p. 37 à 46

Internet est trop souvent décrit - et décrié - comme une zone de non-droit. Les normes qui y sont applicables sont pourtant à la fois nombreuses, précises et contraignantes. C'est notamment le cas de celles qui s'appliquent à l'un des principaux acteurs de l'Internet, l'hébergeur. Son statut, et notamment ce qui le distingue de celui d'éditeur, est clairement établi (I) tout comme l'est le cadre juridique permettant de lutter contre les contenus illicites en ligne (II).

I - Statut et responsabilité de l'hébergeur

La summa divisio éditeurs/hébergeurs, issue du droit communautaire, a été transposée par la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (1). Les obligations en découlant ont été précisées par la jurisprudence (2).

1. -- La directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur, dite « directive sur le commerce électronique », définit en son article 14 l'hébergement et précise à cet égard que :

« 1. Les États membres veillent à ce que, en cas de fourniture d'un service de la société de l'information consistant à stocker des informations fournies par un destinataire du service, le prestataire ne soit pas responsable des informations stockées à la demande d'un destinataire du service à condition que :

a) le prestataire n'ait pas effectivement connaissance de l'activité ou de l'information illicites et, en ce qui concerne une demande en dommages et intérêts, n'ait pas connaissance de faits ou de circonstances selon lesquels l'activité ou l'information illicite est apparente

ou

b) le prestataire, dès le moment où il a de telles connaissances, agisse promptement pour retirer les informations ou rendre l'accès à celles-ci impossible. »

C'est la loi du 21 juin 2004 pour la confiance dans l'économie numérique qui a transposé les objectifs fixés par la directive. Les dispositions du 2 de l'article 6-I de cette loi définissent les hébergeurs comme des « personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services ». Les éditeurs sont qualifiés par les dispositions du I de l'article 6-III de la même loi comme étant « Les personnes dont l'activité est d'éditer un service de communication au public en ligne ».

L'article 1^er ^de la loi du 21 juin 2004 définissant par ailleurs la communication au public en ligne comme étant « toute mise à disposition du public ou de catégories de public, par un procédé de communication électronique, de signes de signaux, d'écrits, d'images, de sons ou de messages de toute nature qui n'ont pas le caractère d'une correspondance privée », il découle du texte que les messageries électroniques ou celles offertes par les réseaux sociaux sont exclues de son champ d'application.

Quoi qu'il en soit, la ligne de partage est nette, qui distingue les éditeurs, qui ont un rôle actif sur les contenus qu'ils mettent en ligne, des hébergeurs, dont la tâche consiste à rendre accessibles les contenus mis en ligne par des tiers sans avoir, à l'égard de ces contenus, un rôle actif. En d'autres termes, le contrôle ou l'absence de contrôle sur le contenu accessible sur le site est le critère départageur entre éditeurs et hébergeurs.

C'est ainsi que la Cour de justice a jugé que le statut de l'hébergeur s'appliquait au prestataire d'un service de référencement en ligne lorsque celui-ci ne joue pas « un rôle actif de nature à lui confier une connaissance ou un contrôle des données stockées » (CJUE, 23 mars 2010, Google France c/ Vuitton, C-236/08) ou, de même, à l'exploitant d'une place de marché en ligne, sauf toutefois si cet exploitant joue un rôle actif à l'égard d'offres à la vente dont il optimise la présentation ou qu'il promeut (CJUE, 12 juillet 2011, L'Oréal c/ eBay, C-324/09).

La jurisprudence nationale est globalement dans le même sens. Il a ainsi été jugé que le fait de mettre à disposition des outils de classification des contenus sans commander un quelconque choix de l'utilisateur, et de l'assortir de publicités sans capacité d'action sur les contenus mis en ligne, ne suffisait pas à constituer un rôle actif d'éditeur (Cass. civ., 17 février 2011, Christian C. e.a. c/ Dailymotion, 09-67.896). De même, s'agissant d'un site d'hébergement de vidéos, le fait d'offrir aux internautes la possibilité de rechercher des vidéos au travers de thèmes proposés, parmi lesquels figurent les vidéos « les plus populaires » et une « sélection vidéo » ne signifie pas que le site organise le contenu ou contrôle le contenu des vidéos postées (TGI Paris, 29 mai 2012, TF1 c/ YouTube, n° 10/11205 ; Cour d'appel de Paris, 21 juin 2013, SPPF c/ YouTube). S'agissant en revanche d'une place de marché en ligne aux caractéristiques assez particulières, il a été jugé que le fait de fournir aux vendeurs des informations leur permettant d'optimiser leurs ventes et de les assister dans la description des objets mis en vente suffisait à caractériser un rôle actif de nature à conférer à cette place de marché la connaissance ou le contrôle des données qu'elle stockait (Cass., com., 3 mai 2012, Parfums Christian Dior e.a. c/ eBay, 11-10.508). De même, les sites qui modèrent a priori les articles mis en ligne ou les commentaires postés par les internautes, par exemple lorsque ces commentaires sont validés par des modérateurs, doivent être regardés comme contrôlant le contenu mis en ligne et, par suite, être qualifié d'éditeur (TGI Paris, 8 juin 2011, Zahia B. c/ Fondation Agoravox).

De la différence de statuts entre hébergeurs et éditeurs découle des régimes de responsabilité distincts. Celui des éditeurs est, assez naturellement, calqué sur celui que la grande loi du 29 juillet 1881 a établi pour la presse. Les hébergeurs, quant à eux, ne peuvent voir leur responsabilité civile ou pénale engagée à raison de contenus stockés par eux s'ils « nbsp ;*n'avaient pas effectivement connaissance de leur caractère illicite  » ou si, « nbsp ;dès le moment où ils en ont eu cette connaissance », ils « *ont agi promptement pour retirer ces données ou en rendre l'accès impossible  » (2 et 3 de l'article 6-I de la loi du 21 juin 2004).

2. Saisi de la constitutionnalité de ces dispositions, au sujet desquelles il était soutenu qu'elles portaient atteinte à la liberté de communication proclamée par l'article 11 de la Déclaration des droits de l'homme et du citoyen de 1789, le Conseil constitutionnel, dans sa décision n° 2004-496 DC du 10 juin 2004, a jugé qu'elles se bornaient à tirer les conséquences nécessaires des dispositions inconditionnelles et précises du 1 de l'article 14 de la directive 2000/31 du 8 juin 2000 sur le commerce électronique, sur lesquelles il ne lui appartenait pas de se prononcer.

Il a toutefois pris soin d'assortir son arrêt d'une réserve d'interprétation importante, aux termes de laquelle « ces dispositions ne sauraient avoir pour effet d'engager la responsabilité d'un hébergeur qui n'a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n'a pas été ordonné par un juge ».

Cette précision sur le caractère « manifestement » illicite est bienvenue : ainsi que le relève le Conseil constitutionnel lui-même dans son commentaire autorisé sur la décision, dire ce qui est illicite et ce qui ne l'est pas est souvent complexe. Appartient-il à une entreprise privée de se livrer à cet exercice délicat ? Le risque était réel de voir les hébergeurs, légitimement soucieux d'éviter toute mise en cause de leur responsabilité, supprimer systématiquement, au moindre doute, tout contenu qui leur aurait été signalé. Le résultat obtenu en définitive n'aurait été heureux ni au regard de la liberté de communication ni au regard de l'objectif de la directive de 2000 qui est de favoriser la libre circulation et la croissance des services en ligne. Le critère du « manifestement » illicite permettait précisément d'éviter ces écueils.

Un raisonnement similaire a été mené par la Cour européenne des droits de l'homme s'agissant de la responsabilité d'un éditeur de site au regard des commentaires mis en ligne par les internautes. Après avoir relevé que ces commentaires n'étaient pas, en l'espèce, « clairement » illicites, la CEDH a considéré la mise en jeu de la responsabilité pénale du responsable d'un site pouvait avoir un effet dissuasif sur la liberté d'expression sur Internet (CEDH, 2 février 2016, Index.hu/Hongrie, aff. n° 22947/13(1)).

Il ressort en définitive de la combinaison des textes et de la jurisprudence constitutionnelle que la responsabilité d'un hébergeur peut donc être engagée dans deux hypothèses : lorsque celui-ci ne retire pas promptement un contenu manifestement illicite qui lui a été signalé par un tiers(2) ; lorsque celui-ci ne retire pas un contenu dont le retrait a été ordonné par un juge.

L'hébergeur n'est en revanche pas tenu de mettre en place un mécanisme général de surveillance des contenus illicites. C'est ce que la Cour de justice de l'Union européenne a jugé avec force, d'abord s'agissant d'un fournisseur d'accès à Internet (CJUE, 24 novembre 2011, Scarlet Extended, C-70/10), puis d'un hébergeur (CJUE, 16 février 2012, SABAM c/ Netlog, C-360/10) : le droit communautaire, et notamment l'article 15, paragraphe 1, de la directive 2000/31 du 8 juin 2000, s'oppose à toute injonction qui imposerait à un prestataire de services d'hébergement de mettre en place un mécanisme de filtrage ou de surveillance généralisé. Un tel mécanisme, a jugé la Cour, est non seulement explicitement proscrit par la directive, mais imposerait en outre une charge disproportionnée à l'hébergeur au regard de sa liberté d'entreprendre et « risquerait de porter atteinte à la liberté d'information, puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d'entraîner le blocage de communications à contenu licite ». La jurisprudence nationale est dans le même sens (C. cass., 1^re ^civ., 12 juillet 2012, n° 11.13-669).

Il serait donc contraire au droit communautaire et au droit national d'imposer à un hébergeur de mettre en place un système de filtrage généralisé. Rien ne leur interdit en revanche de le faire volontairement. C'est ce que font bon nombre d'hébergeurs, qui proposent des solutions techniques visant à empêcher que les contenus stockés ne portent atteinte au droit d'auteur (c'est par exemple le cas de Dailymotion et de son système « Signature ») ou poursuivant le même objectif tout en offrant une gestion des droits en ligne (système « Content Id » de YouTube). Ce dernier fournit ainsi aux ayants droit un mécanisme leur permettant de prendre une empreinte de la vidéo à protéger. De façon automatisée, cet outil vérifie ainsi en permanence que, parmi les 400 heures de vidéo supplémentaires téléchargées chaque minute par les internautes du monde entier, aucune ne coïncide avec l'empreinte préalablement communiquée par l'ayant droit. Si tel est le cas, celui-ci peut décider soit de bloquer la vidéo qu'il a protégée, soit de la laisser en ligne mais en la monétisant et en percevant lui-même la majorité des recettes publicitaires y afférentes, soit encore de la laisser en ligne sans monétisation mais en obtenant des informations sur le type de public intéressé par ce type de contenus.

II - La lutte contre les contenus illicites en ligne

Le cadre juridique permettant de lutter contre les contenus illicites en ligne est bien déterminé, tant en ce qui concerne les acteurs publics responsables (1) que les contenus illicites pour lesquels des obligations de signalement ou de retrait sur ordre administratif existent (2).

1. La question s'est posée de savoir si l'autorité administrative pouvait, de son propre chef, ordonner des mesures visant à lutter contre les contenus illicites en ligne, ou si l'intervention préalable d'un juge était indispensable. Des réponses différentes ont été apportées aux cas de figure distincts : blocage de l'accès à Internet ou blocage de contenus illicites.

S'agissant de la première hypothèse, la jurisprudence du Conseil constitutionnel est nettement en ce sens que seul un juge peut valablement prendre une mesure de blocage de l'accès à Internet. Saisi de la loi favorisant la diffusion et la protection de la création sur Internet, le Conseil constitutionnel devait examiner le moyen tiré de ce que le législateur aurait méconnu l'article 11 de la Déclaration des droits de l'homme et du citoyen de 1789, qui consacre le droit à la liberté d'expression et de communication, en conférant à une autorité administrative indépendante (l'HADOPI) des pouvoirs de sanction consistant à suspendre l'accès à Internet. Dans sa décision 2009-580 DC du 10 juin 2009, il a tout d'abord considéré que, « eu égard au développement généralisé des services de communication au public en ligne ainsi qu'à l'importance prise par ces services pour la participation à la vie démocratique et l'expression des idées et des opinions », le droit à la liberté d'expression et de communication impliquait la liberté d'accéder à Internet. Rappelant alors que la liberté d'expression et de communication est l'une des conditions de la démocratie et l'une des garanties du respect des autres droits et libertés, et qu'elle jouissait à ce titre d'un statut particulier, il a jugé que le législateur ne pouvait confier à une autorité administrative le pouvoir de restreindre ou d'empêcher l'accès à Internet de titulaires d'abonnement ainsi que leur entourage dans le but de protéger les droits des titulaires du droit d'auteur et de droits voisins.

La question reste ouverte de savoir si la solution resterait la même au regard d'un objectif d'intérêt général encore plus impérieux que celui de lutter contre les pratiques attentatoires au droit d'auteur. Il est possible de le penser au regard de la jurisprudence particulièrement protectrice dont bénéficie la liberté d'expression et de communication qui impose au Conseil constitutionnel un plein contrôle de proportionnalité de toute mesure qui y porterait atteinte. Le commentaire autorisé de la décision du Conseil constitutionnel est d'ailleurs assez catégorique, affirmant que « le Conseil a estimé que seule une juridiction pouvait être habilitée à prendre des mesures portant une atteinte de cette nature à la liberté d'expression et de communication ».

Il en va différemment s'agissant des mesures de blocage de sites Internet, le Conseil constitutionnel ayant clairement tranché dans un sens excluant la nécessité d'un recours préalable au juge. Aux requérants qui soutenaient devant lui que la loi d'orientation et de programmation pour la performance de la sécurité intérieure (LOPPSI) ne pouvait, sans porter une atteinte disproportionnée à la liberté de communication, instituer sans autorisation judiciaire préalable un dispositif de blocage des adresses électroniques donnant accès à certains sites Internet, le Conseil constitutionnel a répondu par la négative. Constatant que les dispositions législatives attaquées ne conféraient à l'autorité administrative que le pouvoir de restreindre l'accès à des services de communication au public en ligne lorsque et dans la mesure où ils diffusent des images de pornographie enfantine et rappelant que la décision de l'autorité administrative est susceptible d'être contestée à tout moment et par toute personne intéressée devant la juridiction compétente, le cas échéant en référé, il a jugé que le législateur avait su concilier de façon proportionnée l'objectif de valeur constitutionnelle de sauvegarde de l'ordre public et la liberté de communication (décision 2011-625 DC du 10 mars 2011).

La solution se justifie aisément : d'un côté, l'atteinte à la liberté de communication n'est, ici, pas aussi radicale que dans le cas d'une suspension de l'accès à Internet ; de l'autre, la lutte contre l'exploitation sexuelle des mineurs est un objectif particulièrement impérieux de nature à justifier de tels types de mesures. À noter que, dans la même veine, le Conseil d'État a jugé que les stipulations de la CEDH n'imposaient pas que les mesures de déréférencement ne puissent être ordonnées que par un juge (CE, 15 février 2016, Association French Data Network et autres, n° 389140 et n° 389896).

2. Le cadre juridique permettant de lutter contre les contenus illicites en ligne a été considérablement modifié ces dernières années. La tendance législative est en effet à renforcer les obligations pesant sur les acteurs privés en matière de signalement et de retrait des contenus illicites.

La loi fait tout d'abord obligation aux fournisseurs d'accès et aux hébergeurs, d'une part, de mettre en place des dispositifs permettant aux internautes de signaler certains contenus illicites et, d'autre part, d'informer promptement les autorités publiques de toutes activités illicites qui leur seraient signalées et qu'exerceraient les destinataires de leurs services.

La liste des matières concernées par cette obligation s'est constamment allongée. Dans leur rédaction initiale, les dispositions du 7 de l'article 6-I de la loi du 21 juin 2004 imposaient aux hébergeurs de concourir à la répression de l'apologie des crimes contre l'humanité, de l'incitation à la haine raciale ainsi que de la pornographie enfantine(3). Y figurent en outre désormais, du fait d'ajouts successifs introduits en 2007, 2010, août 2014 et novembre 2014, les atteintes à la dignité humaine et l'incitation à la violence(4), au sein de laquelle l'incitation aux violences faites aux femmes est spécifiquement mentionnée(5), la haine à l'égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap(6), et enfin la provocation à la commission d'actes de terrorisme et de leur apologie(7).

Les jeux en ligne bénéficient par ailleurs d'un régime légèrement distinct en vertu duquel les fournisseurs d'accès et les hébergeurs doivent signaler à leurs abonnés les sites de jeu en ligne « tenus pour répréhensibles par les autorités publiques » et les informer des risques encourus.

À ces obligations de mise en place de dispositifs de signalement peuvent, dans certains cas, s'en ajouter d'autres de retrait sur ordre de l'autorité administrative. La loi du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme a ainsi inséré dans la loi du 21 juin 2004 un nouvel article 6-1 qui permet à l'autorité administrative de demander aux éditeurs et aux hébergeurs de retirer des contenus contraires aux articles 227-23 et 421-2-5 du code pénal qui punissent respectivement la pornographie enfantine et le fait de provoquer directement à des actes de terrorisme ou de faire publiquement l'apologie de ces actes(8).

Un décret du 4 mars 2015(9) est venu préciser l'étendue des obligations découlant de ces dispositions. Il en résulte que l'office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) de la direction générale de la police nationale peut notifier aux exploitants de moteurs de recherche ou d'annuaires les adresses électroniques dont les contenus contreviennent aux articles 421-2-5 et 227-23 du code pénal. Il est à noter que les moteurs de recherche sont, dans le décret, expressément visés, là où la loi se bornait à mentionner les hébergeurs et les éditeurs. Le décret fixe un délai de quarante-huit heures aux exploitants de moteurs de recherche ou d'annuaires afin de faire cesser le référencement de ces adresses. L'OCLCTIC doit, de son côté, vérifier trimestriellement que les adresses électroniques notifiées ont toujours un contenu présentant un caractère illicite. Si ce n'est plus le cas, l'OCLCTIC en informe sans délai les exploitants des moteurs de recherche qui ont alors quarante-huit heures pour rétablir le référencement de ces adresses électroniques. Le Conseil d'État a jugé que les dispositions de ce décret ne méconnaissaient pas l'article 10 de la CEDH (Association French Data Network et autres précité).

Pour l'heure, seules ces deux catégories -- pornographie enfantine et actes de terrorisme ou apologie de ceux-ci -- peuvent faire l'objet de demandes de retrait de contenus formulées par l'autorité administrative, mais il n'est pas interdit de penser, au regard des tendances législatives récentes, que cette liste est susceptible de s'allonger à l'avenir à l'image de celle pour laquelle des obligations de signalement existent.

On le voit : le cadre juridique permettant de lutter contre les contenus illicites en ligne est désormais bien défini et nous sommes loin de l'image erronée d'Internet comme une zone de non-droit. La pratique et les outils sont également bien en place. S'agissant du droit d'auteur, Google a reçu, pour le seul mois de janvier 2016, près de 73 millions de demandes d'URL à supprimer en lien avec du contenu protégé par les droits d'auteur(10). En 2013, Google avait procédé à 222 millions de retraits pour 224 millions de demandes reçues, celles refusées étant inexactes, injustifiées, abusives ou concernant des résultats de recherche qui ne renvoient clairement pas à du contenu illicite. Sur YouTube, hébergeur de vidéos en ligne postées par des tiers, ce sont plus de 100 000 vidéos qui sont signalées par jour, tous motifs confondus, et qui font chacune l'objet d'un examen particulier par des personnes employées à cet effet. YouTube a ainsi retiré près de 14 millions de vidéos en 2014.

Ni vide juridique, ni laxisme donc. Mais l'on ne saurait trop insister sur la nécessité des efforts mis en commun par les pouvoirs publics, les opérateurs et les internautes pour préserver la nature et la qualité des services de communication au public en ligne qui jouent, ainsi que le Conseil constitutionnel l'a relevé, un rôle essentiel dans la participation à la vie démocratique et à l'expression des idées et des opinions.


Contenus faisant l'apologie du terrorisme

Les contenus faisant l'apologie du terrorisme font l'objet d'une attention particulière. Ils peuvent être signalés sur YouTube via un bouton spécifique depuis 2008 et sont traités en priorité. YouTube met par ailleurs à disposition de certaines associations (la LICRA, le CRIF, l'UEJF, SOS-Racisme) et des pouvoirs publics (l'OCLCTIC, la délégation interministérielle à la lutte contre le racisme et l'antisémitisme) des outils particuliers (Trusted Flagger Program) qui permettent de signaler massivement des séries entières de vidéos. Celles faisant l'apologie du terrorisme sont supprimées très rapidement, le plus souvent dans les minutes qui suivent leur mise en ligne. Sur le moteur de recherche, Google offre aux associations luttant contre la radicalisation en ligne des espaces publicitaires gratuits afin de faire en sorte que ce soit leur site qui apparaisse en tête des résultats publicitaires lorsqu'un internaute interroge le moteur de recherche à partir de certains mots-clés.


(*) Postérieurement à l'écriture de cette contribution, Monsieur Francis Donnat a été nommé secrétaire général du groupe France Télévisions.

(1) À comparer toutefois, ainsi que le fait la CEDH elle-même dans son arrêt, avec le précédent Delphi c/ Estonie du 16 juin 2015, aff. n° 64509/69.
(2) À noter que le projet de loi pour une République numérique, dans sa rédaction adoptée en première lecture par l'Assemblée nationale, entend remplacer le mot « illicite » par le mot « illégal ».
(3) À noter que, s'agissant de la pornographie enfantine, l'obligation relève du droit communautaire : l'article 25 de la directive 2011/92 du 13 décembre 2011 relative à la lutte contre les abus sexuels et l'exploitation sexuelle des enfants fait obligation aux États membres de prendre « les mesures nécessaires pour faire rapidement supprimer les pages Internet contenant ou diffusant de la pédopornographie ».
(4) Article 40 de la loi du 5 mars 2007 relative à la prévention de la délinquance.
(5) Article 28 de la loi du 9 juillet 2010 relative aux violences faites spécifiquement aux femmes, aux violences au sein des couples et aux incidences de ces dernières sur les enfants.
(6) Article 57 de la loi du 5 août 2014 pour l'égalité réelle entre les femmes et les hommes.
(7) Article 12 de la loi du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme.
(8) S'agissant de pornographie enfantine, le blocage de tels sites n'est en revanche pas une obligation découlant du droit communautaire, l'article 25 de la directive précitée du 13 décembre 2011 précisant que les États membres « peuvent prendre » (et non « prennent ») des mesures pour bloquer l'accès aux pages Internet contenant ou diffusant de la pédopornographie.
(9) Décret n° 2015-253 du 4 mars 2015 relatif au déréférencement des sites provoquant à des actes de terrorisme ou en faisant l'apologie et des sites diffusant des images et représentations de mineurs à caractère pornographique.
(10) Source : Google, Rapport sur la transparence des informations, https://www.google.com/transparencyreport/removals/copyright/