Scrapers zijn de vloek van het bestaan van een blogger. Webschrapen komt binnen, steelt je inhoud, beweert dat het van hen is en soms is er geen manier om iets anders te bewijzen. Verrassend genoeg was Google in veel gevallen niet zo slim in het identificeren van de auteur van de originele inhoud. Heel vaak melden mijn Google Alerts mij over mijn geschaafde artikelen in plaats van mijn originele (gast) berichten en ik heb scrapers gezien als overtuigende originele artikelen voor lange staartzoekopdrachten.
$config[code] not foundEr is zo nu en dan een verhaal van een blogger die erin slaagde om de rechten op hun inhoud terug te krijgen - maar het is meer als het vechten tegen de windmolens. Je doodt een schrapende blog en tientallen worden er 's nachts geboren. Daarom is het veel beter om te proberen te voorkomen dat je scrapt (of op zijn minst als de oorspronkelijke auteur wordt bestempeld) in plaats van erop te vertrouwen dat je een van die zeldzame successen bent.
Plug-ins om webschrapen te voorkomen
1. Google Plus Auteurschap
Google probeert al jaren schrapers te bestrijden en een van zijn patenten (die deel uitmaakt van AuthorRank-octrooien) suggereert het gebruik van auteurschap om:
“…detectie en bescherming tegen revisie van inhoud nadat deze door een persoon of entiteit is gepost. "
Het implementeren van Google Authorship is tegenwoordig veel eenvoudiger (hier is een korte handleiding), maar op veel blogs (waar er geen auteursregel is), kan dit nog steeds voor verwarring zorgen. In deze gevallen zal deze plug-in helpen.
Hiermee kunt u een G + profielfoto toevoegen aan zoekresultaten, het auteurschap bevestigen en zelfs auteurschap toekennen aan meerdere auteurs. Het werkt op een driestaps-systeem dat heel gemakkelijk te volgen is en waar je je geen zorgen over hoeft te maken.
2. Feed Delay
De helft van het risico voor een klein tot middelgroot blog is het hebben van een schraperbot die inhoud ophaalt, publiceert zonder enige bronvermelding en vervolgens de pagina als eerste geïndexeerd krijgt (gek genoeg heeft Google deze sites niet kunnen uitschakelen of zelfs het origineel kunnen vinden) eigenaar van de inhoud).
Aangezien er waarschijnlijk ten minste een aantal bots in uw RSS-abonnementen verborgen blijven, is uw beste weddenschap het vertragen van de feed van opnieuw posten. Deze plugin zal dat voor u doen.
3. Anti Feed-Scraper-bericht
Het meeste schrapen gebeurt door bots, zonder echt toezicht van de mens. Ze hebben dus geen controle over welke content wordt gepubliceerd of hoe. Dit is een belangrijk pluspunt voor u, omdat u in alle inhoud een link naar uw blog kunt toevoegen, die bij het opnieuw plaatsen zal verschijnen.
Anti Feed-Scraper-bericht doet dit, waarbij Google en alle lezers worden weergegeven waar het bericht oorspronkelijk vandaan kwam. Het houdt ook beschuldigingen van de boodschap tegen, dus beschermt u tegen schandalen door de schrapers. Het bericht luidt: Post Name verscheen oorspronkelijk op Site Name op Post Date.
4. Copyrightbewijs
Samen met de bovenstaande kan deze plug-in worden gebruikt. Hiermee kunt u uw eigendom digitaal certificeren op het moment van publicatie en een certificaat maken dat u kunt laten zien als iemand uw inhoud steelt. Het heeft ook een copyright-, licentie- en toekenningslicentie bij elk bericht. Er is een extra functie voor antidiefstal als u ervoor kiest om het te gebruiken.
Kent u een goede plug-in voor het beschermen van inhoud tegen scrapers? Hoe zit het buiten WordPress?
Meer in: Contentmarketing, WordPress 9 Reacties ▼