Illustration d’un livre entouré de filaments sombres et de fragments lumineux, symbolisant un site d’auteur parasité par des attaques invisibles sur WordPress.
Un site d’auteur peut être parasité sans symptôme visible — jusqu’à ce que la visibilité s’effondre.

Comment des attaques invisibles peuvent saboter votre visibilité sans que vous le sachiez

Cet article s’adresse aux auteurs indépendants qui gèrent eux-mêmes leur site.
Il ne vise pas des experts en informatique, mais des créateurs qui ont besoin de comprendre les risques réels et les actions concrètes pour protéger leur travail.

Comme le sitemap — souvent perçu comme un simple détail technique — certains aspects invisibles d’un site conditionnent pourtant sa cohérence, sa lisibilité par les moteurs de recherche, et sa capacité à rester visible dans le temps.

WordPress n’est pas un problème en soi.
Il est une cible, précisément parce qu’il est largement utilisé.

L’objectif est simple : expliquer comment un site d’auteur peut être parasité sans symptôme visible, et comment mettre en place des protections minimales suffisantes pour sortir du champ des attaques de masse.


Quand Google voit un autre site que celui que vous croyez gérer

Sur un précédent site, j’ai découvert une anomalie presque par hasard.
En effectuant une recherche simple dans Google :

site:votresite.com

des centaines de pages apparaissaient, alors que je ne les avais jamais créées.

Il s’agissait notamment :

  • de pages de vente,
  • de contenus en japonais ou en anglais,
  • d’URLs inconnues.

Dans l’administration WordPress, tout semblait normal.
Aucun article suspect, aucun contenu visible.

Pourtant, Google indexait autre chose.

Ce phénomène est connu sous le nom de hack japonais (Japanese SEO spam).


Le hack japonais : comprendre la logique

Pourquoi cette attaque existe

Ce type d’attaque ne cherche pas à détruire un site visuellement.
Il exploite la réputation existante du domaine.

Un site déjà indexé, crédible et actif constitue un support idéal pour :

  • injecter du contenu parasite,
  • détourner le budget de crawl,
  • propager du spam via un domaine perçu comme légitime.

Les contenus sont souvent en japonais parce que ces marchés sont très concurrentiels et rentables, et surtout parce qu’un domaine ayant déjà une réputation propre est exploré et indexé plus rapidement par Google qu’un domaine neuf ou suspect.

Pourquoi Google indexe ces pages

Du point de vue du moteur :

  • l’URL existe,
  • le serveur répond correctement,
  • le contenu est accessible,
  • le domaine est reconnu.

Aucun signal immédiat n’indique une fraude.

Conséquence :

  • dilution thématique du site,
  • perte de cohérence sémantique,
  • association à du spam,
  • baisse progressive de visibilité.

Ce que cela signifie concrètement pour un auteur

Le danger principal n’est pas l’attaque elle-même, mais le temps pendant lequel elle reste invisible.

Dans mon cas :

  • l’injection de contenu n’a pas été détectée immédiatement ;
  • même après sécurisation,
  • plusieurs mois ont été nécessaires pour que Google cesse d’afficher ces pages parasites.

Pendant ce temps, Google cessait progressivement d’afficher mon site sur les recherches réellement pertinentes pour mon contenu.
C’est là le cœur du problème : le site est perçu comme non pertinent et devient invisible sur le web, quand il ne s’agit pas d’une désindexation pure et simple.

Le site existe toujours, les contenus sont toujours là, mais ils ne sont plus visibles.

C’est précisément ce phénomène qui pousse de nombreux auteurs à abandonner : ils continuent à écrire et à publier, sans retour ni visibilité, et finissent par croire que leur travail n’intéresse personne.


Symptôme à surveiller

Pour vérifier si votre site est touché, il suffit de faire une recherche dans Google :

site:votresite.com

Si des pages apparaissent que vous n’avez jamais créées, votre site est concerné.
C’est le signal d’alerte principal.


Exemples concrets de protections simples et efficaces

Les protections suivantes consistent à agir à des endroits précis du site pour supprimer des accès évidents.

Environnement concerné

Les exemples ci-dessous s’appliquent à un site WordPress hébergé dans un environnement LAMP ou WAMP :

  • Linux ou Windows
  • Apache
  • MySQL / MariaDB
  • PHP

C’est le cas de la grande majorité des hébergements mutualisés.

Les règles utilisant .htaccess supposent donc un serveur Apache.
Sur un autre environnement (par exemple Nginx), les principes restent valables mais la mise en œuvre diffère.


Protéger la page de connexion (brute force)

Problème
La page wp-login.php est une cible classique d’attaques par force brute.

Où agir
Dans le fichier .htaccess à la racine du site.

Exemple

<Files "wp-login.php">
    Require all denied
    Require ip 123.456.789.000
</Files>

Remplacez l’adresse IP par la vôtre.

Effet
Seule votre IP peut accéder à la page de connexion.


Bloquer l’exécution de scripts dans le dossier des médias

Problème
Des fichiers exécutables peuvent être injectés dans /wp-content/uploads.

Où agir
Créer un fichier .htaccess dans le dossier :

/wp-content/uploads/

Exemple

<FilesMatch "\.(php|phtml|php3|php4|php5|phar)$">
    Require all denied
</FilesMatch>

Effet
Les fichiers sont stockés, mais aucun script ne peut être exécuté.


Désactiver des fonctions WordPress inutiles

Désactiver l’édition de fichiers

Où agir
Dans wp-config.php.

define('DISALLOW_FILE_EDIT', true);

Désactiver XML-RPC

Où agir
Dans .htaccess.

<Files "xmlrpc.php">
    Require all denied
</Files>

XML-RPC est parfois utilisé par certaines applications ou services tiers.
En l’absence de besoin identifié, le désactiver réduit fortement la surface d’attaque.


Contrôler ce que Google indexe

Problème
Google peut indexer des pages techniques sans valeur éditoriale.

Où agir
Dans le fichier robots.txt.

Exemple

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /feed/
Disallow: /*?*

Effet
Google se concentre sur le contenu éditorial, pas sur l’infrastructure.

Note
Si certaines pages techniques ont déjà été indexées, robots.txt ne suffit pas toujours.
D’autres mécanismes existent (noindex via balise meta ou en-tête HTTP), mais ils sortent volontairement du cadre de cet article.


Journaux et erreurs : un point critique souvent ignoré

Le problème concret

Par défaut, WordPress n’écrit pas de fichier debug.log.
En revanche, dès que le mode debug ou le logging est activé (volontairement ou non), un fichier peut apparaître ici :

/wp-content/debug.log

S’il est accessible publiquement, il peut révéler :

  • des chemins internes,
  • des noms de fichiers,
  • des informations exploitables.

Vérification immédiate

Essayez d’accéder à :

https://votresite.com/wp-content/debug.log

Si le fichier s’affiche, le problème est réel.


Mesures concrètes

Empêcher l’écriture par défaut

Dans wp-config.php :

define('WP_DEBUG_LOG', false);

Rediriger les logs hors du site

@ini_set(
    'error_log',
    '/home/USERNAME/logs/site-runtime.log'
);

Le chemin doit être hors du répertoire web.

Bloquer l’accès serveur par sécurité

Dans .htaccess :

<Files "debug.log">
    Require all denied
</Files>

<FilesMatch "\.(log|error_log|php_error\.log)$">
    Require all denied
</FilesMatch>

Accéder aux fichiers du site : le minimum indispensable

Les réglages évoqués nécessitent un accès aux fichiers du site, généralement via FTP ou SFTP, fourni par l’hébergeur.

Cet accès permet notamment de modifier :

  • le fichier .htaccess,
  • le fichier wp-config.php,
  • certains répertoires sensibles.

La plupart des hébergeurs fournissent les identifiants nécessaires et indiquent les outils compatibles.
Il existe de nombreux outils gratuits pour établir une connexion SFTP ; une recherche simple ou la documentation de l’hébergeur suffit à les identifier.


Conclusion

Un site d’auteur n’est pas seulement un support de publication.
C’est un actif.

Lorsqu’il est parasité, ce n’est pas seulement la visibilité qui est touchée, mais la continuité même du travail.

Comprendre ces mécanismes et appliquer quelques protections ciblées permet :

  • d’éviter des mois d’efforts perdus,
  • de préserver la cohérence éditoriale,
  • de travailler sur des bases saines.

Synthèse

  • Des attaques invisibles existent.
  • Elles exploitent des configurations courantes.
  • Quelques réglages suffisent à sortir du profil vulnérable.
  • Ce déplacement suffit, dans la majorité des cas, à être laissé tranquille.