Google supprime des millions d’URLs pirates avant leur indexation

Ces derniers temps, Google a dû faire face à une augmentation constante des demandes de retrait qui visent les sites pirates dans les résultats de recherche. Le nombre total des URLs supprimées a atteint 3,5 milliards alors que des millions de sites pirates supplémentaires sont ajoutés quotidiennement. Face à cette situation, Google a décidé d’agir.

Le géant du web a décidé d’arrêter le référencement de ces sites avant qu’ils ne soient indexés.

À cet effet, Google a créé une liste noire croissante d’URLs qui violent les droits d’auteur et qui n’ont pas encore été répertoriées. Cette liste garantit que ces liens hypertextes ne soient en aucun cas ajoutés au répertoire du moteur de recherche.

Dans sa lutte contre les sites malveillants, Google a fait appel à une intelligence artificielle qui permet de lister les sites pirates avant même qu’ils ne soient ajoutés au moteur de recherche.

Google opte pour une démarche proactive afin de lutter plus efficacement contre les sites pirates

Plus tôt ce mois, l’avocat de Google, Caleb Donaldson a révélé que la société avait commencé à bloquer les backlinks non indexés de manière proactive. Autrement dit, Google bloque les URLs avant qu’elles n’apparaissent dans les résultats de recherches, agissant alors comme une sorte de vaccin contre le piratage.

Le moteur de recherche a également ajouté un nouveau signe à son rapport de transparence DMCA.

Le rapport indique combien d’URLs soumises à Google ne sont pas encore indexées. Si l’on prend par exemple le cas de la branche mexicaine de l’équipe antipiratage APDIF, la société a demandé à Google de supprimer plus d’un million d’URLs par semaine. À part l’APDIF, des sociétés comme Walt Disney et Rivendell ont également déposé un grand nombre de demandes de suppression.

Une liste noire pour lutter contre le piratage

« Google a considérablement élargi les demandes et les retraits d’une autre manière importante. Nous acceptons les demandes pour les URLs qui ne sont même pas dans notre index en premier lieu. De cette façon, nous pouvons collecter des informations même sur les pages et les domaines que nous n’avons pas encore explorés. » a noté Donaldson.

« Nous traitons ces URL comme nous le faisons avec les autres. Une fois que l’une de ces URL non indexées est approuvée pour le retrait, nous les empêchons d’apparaître dans nos résultats de recherche. » a-t-il ajouté.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.