Waarom we 3.000 stukken verouderde inhoud van de HubSpot-Blog hebben verwijderd

Weet je wat klinkt als een slecht idee?

het verwijderen van 3.000 pagina ‘ s van de HubSpot Blog.

Weet je wat onze SEO en Web Dev teams deden in Februari?

3.000 pagina ‘ s verwijderd van de HubSpot Blog.

Nee, dit was niet een of andere Marie Kondo-ing team-bonding oefening die vreselijk, vreselijk verkeerd ging (hoewel die berichten zeker geen vreugde veroorzaakten).

Het was een project dat ons hoofd technische SEO, Victor Pan, en ik al lang wilden uitvoeren-omdat het contra-intuïtief kan zijn dat het verwijderen van inhoud op uw site fantastisch is voor SEO.

in de SEO-wereld wordt deze praktijk “content snoeien” genoemd. Maar hoewel het in theorie Een goed idee is, betekent het snoeien van inhoud niet dat je gek moet worden en je inhoud moet hacken alsof het een boom is en je een kettingzaag hebt. Content snoeien is veel methodischer dan dat-zoals het snoeien van een bonsai.

Ik Ga naar de resultaten die we aan het einde van deze post hebben gezien. Maar laten we eerst onderzoeken wat het snoeien van inhoud is en vervolgens duiken in een stapsgewijs inhoudscontroleproces, zodat u een gedetailleerde blauwdruk hebt van hoe u dit voor uw eigen woning (of die van uw klant) kunt doen.

Wat is content snoeien?

Content snoeien is het proces van het uitvoeren van een content audit en het verwijderen, bijwerken, consolideren en/of omleiden van de laagwaardige pagina ‘ s op uw site.

dat brengt ons bij de volgende vraag:

Wat is een content audit?

Als u een inhoudsaudit wilt uitvoeren, brengt u elke pagina in kaart die zich op een subdomein, map of site bevindt. In wezen maak je een directory van elke pagina. SEO-strategen denken meestal aan het doen van content-audits zoals het schoonmaken van hun tanden-het is misschien niet leuk, maar het is bevredigend en er zijn echte voordelen om het regelmatig te doen.

hoe vaak moet je een content audit uitvoeren?

zoals bijna alles in SEO, hangt het ervan af. Als u een grote site hebt, wilt u misschien elke maand een andere sectie controleren. Als je een kleine site hebt, overweeg dan om de hele site om de zes maanden te evalueren.

Ik raad meestal aan om te beginnen met een driemaandelijkse audit om te zien hoeveel waarde u ontvangt door er een te doen. Als je eindigt met zoveel volgende stappen die je overweldigd voelt, probeer ze dan vaker uit te voeren. Als je niet zo veel leert, voer ze dan minder vaak uit.

waarom een content audit uitvoeren?

toen mijn team dit project begon, wisten we al dat er een heleboel oudere pagina ‘ s op de HubSpot-blog waren die in wezen nul verkeer kregen-we wisten gewoon niet hoeveel. Ons doel was vanaf het begin om deze inhoud te snoeien.

maar zelfs als dat niet het geval was, zijn er nog steeds verschillende redenen om periodieke inhoudcontroles uit te voeren:

  1. Identificeer inhoudslacunes: waar mist u inhoud?
  2. Identificeer content kannibalisatie: waar heb je te veel content?
  3. vind verouderde pagina ‘s: heb je nog oudere productpagina’ s? Landingspagina ‘ s met niet-bestaande aanbiedingen? Pagina ‘ s voor gebeurtenissen die enkele jaren geleden zijn gebeurd? Blogberichten met verouderde feiten of statistieken?
  4. vind mogelijkheden voor historische optimalisatie: zijn er pagina ‘ s die goed scoren, maar hoger kunnen scoren? Hoe zit het met pagina ‘ s die in rang zijn gedaald?
  5. ontdek wat werkt: wat hebben uw pagina ‘ s met het hoogste verkeer en/of de hoogste conversie gemeen?
  6. Fix uw informatie-architectuur: is uw site goed georganiseerd? Geeft de structuur het relatieve belang van pagina ‘ s weer? Is het makkelijk voor zoekmachines om te crawlen?

het kiezen van uw doel vanaf het begin is van cruciaal belang voor een succesvolle inhoudsaudit, omdat het de gegevens dicteert die u zult bekijken.

in dit bericht behandelen we inhoudsaudits die u helpen laag presterende inhoud te snoeien.

hoe de inhoud van uw site te controleren

  1. Definieer de reikwijdte van uw audit
  2. een crawl uitvoeren met behulp van een websitecrawler
  3. pagina ‘ s evalueren met niet-200 HTTP-statuscodes
  4. pull in verkeer en backlinkgegevens
  5. Ontdek welke actie u moet ondernemen voor elke pagina met behulp van vooraf gedefinieerdeprestatiecriteria

1. Bepaal de scope van uw audit.

bepaal eerst de reikwijdte van uw audit-met andere woorden, wilt u een specifieke reeks pagina ‘ s op uw site of de hele enchilada evalueren?

als dit de eerste keer is dat u een inhoudsaudit uitvoert, overweeg dan om te beginnen met een subsectie van uw site (zoals uw blog, re-bibliotheek of product – /servicepagina ‘ s).

het proces zal een stuk minder overweldigend zijn als je eerst een subsectie kiest. Als je eenmaal je zeebenen hebt, kun je het hele ding aan.

2. Voer een crawl uit met behulp van een website crawler.

nu is het tijd om wat gegevens te verzamelen.

Ik heb Screaming Frog ‘ s SEO Spider gebruikt voor deze stap. Dit is een fantastische tool voor SEO-specialisten, dus als je op het hek staat, zou ik ervoor gaan-je zult de spin zeker gebruiken voor andere projecten. En als je een kleine site hebt, kun je de gratis versie gebruiken, die tot 500 url ‘ s crawlt.

Ahrefs biedt ook een site audit (beschikbaar voor elk niveau), maar ik heb het niet gebruikt, dus ik kan niet spreken over de kwaliteit ervan.

Daarnaast biedt Wildshark een volledig gratis crawler die een zeer beginnersvriendelijke reputatie heeft (hoewel het alleen werkt op Windows, dus Mac-gebruikers zullen elders moeten kijken).

tot slot, als u een eenmalige audit wilt uitvoeren, bekijkt u controle voor Mac. Het is 30 dagen gratis en zal een onbeperkt aantal URL ‘ s crawlen-wat betekent dat het perfect is om te proberen voordat je koopt, of eenmalige projecten.

nadat u uw wapen van keuze hebt gekozen, voert u het hoofddomein, subdomein of submap in die u in stap één hebt geselecteerd.

omdat ik bijvoorbeeld de HubSpot-blog controleerde, wilde ik alleen kijken naar url ‘ s die begonnen met “blog.hubspot.com”. als ik onze productpagina ’s zou controleren, zou ik naar url’ s willen kijken die begonnen met “www.hubspot.com/products”.

als u Screaming Frog gebruikt, selecteert u Configuratie > Spider. Deselecteer vervolgens:

  • Check Images
  • check CSS
  • check JavaScript
  • Check Links Outside Folder
  • Crawl alle subdomeinen
  • Crawl Outside Folder

 Screaming Frog

ga vervolgens naar “Limits” en zorg ervoor dat “Limit Crawl Depth” niet is aangevinkt.

Wat als de pagina ‘ s die u onderzoekt niet tot één URL worden opgerold? U kunt altijd de gegevens voor uw hele website ophalen en vervolgens de irrelevante resultaten eruit filteren.

nadat u uw crawl hebt geconfigureerd, drukt u op “OK” en “Start”.

De crawl zal waarschijnlijk enige tijd duren, dus laten we ondertussen wat verkeersgegevens uit Google Analytics halen.

aangezien we elke pagina evalueren, hebben we het rapport “Site Content > All Pages” nodig.

 Screaming Frog 2

als u een weergave hebt ingesteld voor dit gedeelte van de site, gaat u er nu naar. Ik gebruikte het uitzicht voor “blog.hubspot.com”.

als u geen weergave hebt, voegt u een filter toe voor pagina ‘ s die beginnen met [hier URL-pad invoegen].

content snoeien: filter view

pas het datumbereik aan op de laatste zes tot twaalf maanden, afhankelijk van de laatste keer dat u een audit hebt uitgevoerd.

(vergeet ook niet naar beneden te scrollen en “toon rijen: 10” te veranderen in “toon rijen: 5000”.)

 content pruning: Show rows

exporteer die gegevens vervolgens naar een Google Sheet.

content snoeien: exporteren naar google sheet

titel het blad iets als “Content Audit [Maand Jaar] voor [URL]”. Noem het tabblad ” Alle verkeer [datumbereik]”.

ga dan terug naar GA, klik op “Segment toevoegen”, Schakel “alle gebruikers” uit en vink “organische gebruikers”aan. Houd al het andere hetzelfde.

 content snoeien: segment toevoegen

(het is een stuk gemakkelijker om twee rapporten te trekken en ze te combineren met een V-LOOKUP en vervolgens beide segmenten tegelijk aan uw rapport toe te voegen.)

als de verwerking is voltooid, klikt u op Exporteren. Kopieer en plak de gegevens in een nieuw tabblad in de oorspronkelijke inhoudsaudit-spreadsheet met de naam “Organisch verkeer [datumbereik]”.

Hier is wat je moet hebben:

content snoeien: google sheet example

Op dit punt heb ik de hele spreadsheet gekopieerd en deze kopie “Raw Data: Content Audit May 2019 for blog.hubspot.com” dit gaf me de vrijheid om een aantal kolommen te verwijderen zonder me zorgen te maken dat ik die gegevens later nodig zou hebben.

nu ik een back-upversie had, verwijderde ik kolommen B en D-H (paginaweergaven, ingangen, % Exit en Paginawaarde) op beide bladen. Voel je vrij om de kolommen te houden die je wilt; zorg ervoor dat beide vellen dezelfde hebben.

hopelijk is je Screaming Frog crawl nu klaar. Klik op “Exporteren” en download het als een CSV (niet .xslx!) bestand.

klik nu op “Bestand > importeren” en selecteer uw Screaming Frog bestand. Titel Het ” Screaming Frog Crawl_ [Date]”. Klik vervolgens op het kleine pijltje naar beneden en selecteer “Kopiëren naar > bestaand spreadsheet”.

noem het nieuwe blad “Content Pruning Master”. Voeg een filter toe aan de bovenste rij.

nu hebben we een ruwe versie van deze gegevens en een andere versie die we vrij kunnen bewerken zonder ons zorgen te maken, zullen we per ongeluk informatie verwijderen die we later willen.

Oké, laten we even ademhalen. We hebben veel gegevens in dit blad-en Google Spreadsheets laat je waarschijnlijk weten dat het moe is door langzamer te lopen dan normaal.

Ik heb een aantal kolommen verwijderd om bladen te helpen herstellen, met name:

  • Content
  • Status
  • Titel 1 Lengte
  • Titel 1 pixelbreedte
  • Meta Description 1
  • Meta Description 1 pixelbreedte
  • Meta Keyword 1
  • Meta Keywords 1 Lengte
  • H1-1
  • H1-1 Lengte
  • H2-1
  • H2-1 Lengte
  • meta robots 1
  • meta Robots 2
  • meta refresh 1
  • canonical link element 2
  • rel=”next” 1
  • (lacht bitter)

  • rel=”prev” 1 (blijft bitter lachen)
  • grootte (bytes)
  • tekstverhouding
  • % van de totale
  • linkscore

nogmaals, dit gaat terug naar het doel van uw audit. Bewaar de informatie die u zal helpen dat doel te bereiken en zich te ontdoen van al het andere.

voeg vervolgens twee kolommen toe aan je content snoeimeester. Noem de eerste ” alle gebruikers [datumbereik]”en” organische gebruikers [datumbereik]”.

hopelijk zie je waar ik hiermee naartoe ga.

helaas zijn we tegen een kleine wegversperring aangelopen. Alle Screaming Frog URL ‘ s beginnen met “http://” of “https://”, maar onze GA URL ‘ s beginnen met de root of het subdomein. Een normale VLOOKUP werkt niet.

gelukkig is er een makkelijke oplossing. Selecteer eerst cel A1 en kies vervolgens”> kolom rechts invoegen”. Doe dit een paar keer zodat je meerdere lege kolommen hebt tussen je URL ‘ s (in kolom A) en de eerste rij met gegevens. Nu zal je niet per ongeluk iets overschrijven in deze volgende stap:

Markeer kolom A, selecteer “Data > Tekst splitsen naar kolommen” en kies vervolgens de laatste optie, “Aangepast”.

voer twee slashes in.

 content snoeien: google sheet voorbeeld 2

druk op” Enter “En nu heb je de afgekorte URL’ s in kolom B. Verwijder kolom A, evenals de lege kolommen.

Dit is ook een goed moment om URL ‘ s met parameters te verwijderen. Stel je bijvoorbeeld voor dat Screaming Frog je landingspagina heeft gevonden, offers.hubspot.com/instagram-engagement-report. het vond ook de geparameteriseerde versie van die URL: offers.hubspot.com/instagram-engagement-report?hubs_post-cta=blog-homepage

of misschien gebruik je een vraagteken voor filters, zoals “https://www.urbanoutfitters.com/brands/levis?color=black”.

volgens GA zullen de laatste URL ‘ s weinig organisch verkeer krijgen. U wilt deze pagina ‘ s niet per ongeluk verwijderen omdat u de geparameteriseerde URL-statistieken bekijkt, versus de oorspronkelijke.

om dit op te lossen, voert u hetzelfde “split text to columns” – proces uit als voorheen, maar met de volgende symbolen:

  • #
  • ?
  • !
  • &
  • =

Dit zal waarschijnlijk enkele duplicaten creëren. Je kunt ze verwijderen met een add-on (Nee, Sheets biedt geen deduping, wat een beetje gek is) of je sheet downloaden naar Excel, je gegevens daar dedupen en vervolgens opnieuw uploaden naar Sheets.

3. Evalueer pagina ‘ s met niet-200 HTTP-statuscodes.

Ik raad aan de URL ‘ s te filteren die een niet-200-reactie hebben geactiveerd en ze in een apart blad te plaatsen:

 content pruning: evaluate pages with non-200 HTTP status codes

Hier is wat te onderzoeken:

Redirect audit:

  • hoeveel redirects heb je?
  • zijn er redirect chains (of multi-step redirects, waardoor uw pagina laadtijd omhoog gaat)?
  • heb je interne links naar pagina ‘ s die 301ing zijn?
  • is een van uw canonieke pagina ‘ s 301ing? (Dit is slecht omdat u niet wilt aangeven dat een pagina de canonieke versie is als deze naar een andere pagina wordt omgeleid.)

404 error audit:

  • heeft u interne links naar pagina ‘ s die 404ing zijn?
  • kun je gebroken links doorsturen naar relevante pagina ‘ s?
  • wordt een van uw 404-fouten veroorzaakt door backlinks van websites van midden tot hoge autoriteit? Als dat zo is, overweeg dan contact op te nemen met de site-eigenaar en hen te vragen de link te repareren.

4. Pull in verkeer en backlink gegevens.

nadat u uw URL ‘ s hebt gestandaardiseerd en alle gebroken en omgeleide links hebt verwijderd, haalt u de verkeersgegevens van GA binnen.

voeg twee kolommen toe aan de rechterkant van kolom A. noem ze “alle verkeer [datumbereik]” en “organisch verkeer [datumbereik]”.

Gebruik deze formule voor kolom B:

= INDEX (‘All Traffic [Date Range]’!C: C, (MATCH (A2, ‘ alle verkeer [datumbereik]’!A: D, 0)))

mijn blad heette alle verkeer januari-mei 19, dus hier is hoe mijn Formule eruit zag:

=INDEX(‘alle verkeer januari-mei 19’!C: C, (MATCH (A2, ‘alle verkeer januari-mei 19’!A: A,0)))

Gebruik deze formule voor kolom C:

=INDEX(‘Organisch verkeer [datumbereik]’!C: C, (MATCH (A2, ‘ Organisch verkeer [datumbereik]’!A: A, 0)))

Hier was mijn formule:

=INDEX (‘Organisch verkeer januari-mei 19’!C: C, (MATCH (A2, ‘Organisch verkeer januari-mei 19’!A: A,0)))

nadat u dit hebt toegevoegd, klikt u op het kleine vakje in de rechterbenedenhoek van cellen B2 en C2 om de formules uit te breiden naar de volledige kolommen.

vervolgens hebben we voor elke URL backlinks en zoekwoorden per URL nodig.

Ik heb Ahrefs gebruikt om dit te krijgen, maar voel je vrij om je tool naar keuze te gebruiken (SEMrush, Majestic, cognitiveSEO, enz.).

voer eerst het hoofddomein, subdomein of submap in die u in stap één hebt geselecteerd.

 content snoeien: ahrefs

selecteer vervolgens “Pages > Best by links” in de linkerzijbalk.

om uw resultaten te filteren, wijzigt u de HTTP-statuscode in “200” — we geven alleen om links naar live pagina ‘ s.

 content snoeien: ahrefs filter

klik op het Exportpictogram aan de rechterkant. Ahrefs zal standaard de eerste 1.000 resultaten gebruiken, maar we willen alles zien, dus selecteer “volledige export”.

 content pruning export to CSV

terwijl dat aan het verwerken is, voeg je een blad toe in je spreadsheet met de titel “Live Backlinks by URL”. Voeg vervolgens drie kolommen (D, E en F) toe aan het hoofdblad voor het snoeien van inhoud met respectievelijk de namen “Backlinks”, “URL-beoordeling” en “verwijzende domeinen”.

importeer het Ahrefs CSV-bestand in uw spreadsheet. U moet het proces “tekst splitsen naar kolom” herhalen om het overdrachtsprotocol (http://en https://) van de URL ‘ s te verwijderen. U moet ook kolom A verwijderen:

 content pruning: content audit

gebruik in kolom D (Backlinks) deze formule:

=INDEX(‘Live Backlinks by URL’!E: E, (MATCH (A2, ‘Live Backlinks by URL’!B: B, 0)))

gebruik in kolom E (verwijzende domeinen) deze formule:

=INDEX(‘Live Backlinks by URL’!D: D, (MATCH (A2, ‘Live Backlinks by URL’!B: B, 0)))

gebruik in kolom F (URL Rating) deze formule:

=INDEX(‘Live Backlinks by URL’!A: A, (MATCH (A2, ‘Live Backlinks by URL’!B: B, 0)))

5. Evalueer elke pagina met behulp van vooraf gedefinieerde prestatiecriteria.

nu kunnen we voor elke URL zien:

  • alle unieke paginaweergaven die het heeft ontvangen voor het datumbereik dat u hebt geselecteerd
  • alle organische unieke paginaweergaven die het heeft ontvangen voor dat datumbereik
  • zijn indexibiliteitsstatus
  • hoeveel backlinks het heeft
  • hoeveel unieke domeinen er naar linken
  • zijn URL-rating (bijvoorbeeld zijn pagina-autoriteit)
  • de titel
  • De titellengte
  • de canonieke URL (of het nu zelf-canoniek is of canonicaliseert naar een andere URL)
  • het aantal woorden
  • de crawldiepte
  • hoeveel interne links wijzen ernaar
  • hoeveel unieke interne links wijzen ernaar
  • hoeveel uitgaande links bevat het
  • hoeveel unieke uitgaande links bevat het
  • de uitgaande links zijn extern
  • de responstijd
  • de datum waarop het voor het laatst is gewijzigd
  • naar welke URL het wordt omgeleid, indien van toepassing

Dit lijkt misschien een overweldigende hoeveelheid informatie. Wanneer u echter inhoud verwijdert, wilt u zoveel mogelijk informatie hebben-nadat u een pagina hebt verwijderd of omgeleid, is het immers moeilijk om terug te gaan. Als je deze gegevens hebt, kun je de juiste gesprekken voeren.

dan is het eindelijk tijd om je content te analyseren.

klik op de filterpijl in kolom C (“Organisch verkeer [datumbereik]”), kies vervolgens” voorwaarde: minder dan ” en voer een getal in.

Ik koos 450, wat betekende dat ik elke pagina zou zien die de afgelopen vijf maanden minder dan 80 unieke paginaweergaven per maand had ontvangen van zoeken. Pas dit aantal aan op basis van de hoeveelheid organisch verkeer die uw pagina ‘ s doorgaans ontvangen. Probeer de top 80% uit te filteren.

kopieer en plak de resultaten in een nieuw blad met de titel “pagina’ s met het laagste verkeer”. (Vergeet niet “alleen speciale > – waarden plakken” te gebruiken, zodat u de resultaten van uw formules niet verliest.) Voeg een filter toe aan de bovenste rij.

klik nu op de filterpijl in kolom B (“Alle verkeer [datumbereik]”) en kies”Sorteren: Z → A.”

zijn er pagina ‘ s die veel meer regelmatig verkeer ontvangen dan organisch? Ik vond een aantal van deze in mijn analyse; de eerste URL in mijn blad is bijvoorbeeld een blogpagina die elke week duizenden weergaven krijgt van betaalde sociale advertenties:

 content pruning: content audit 2

om ervoor te zorgen dat u geen pagina ‘ s omleidt of verwijdert die een aanzienlijke hoeveelheid verkeer van niet-organische s ontvangen, verwijdert u alles boven een bepaald aantal — de mijne was 1.000, maar nogmaals, tweak dit om de grootte van uw eigendom weer te geven.

Er zijn drie opties voor elke pagina die overblijft:

  • Delete
  • Redirect
  • historisch optimaliseren (met andere woorden, bijwerken en opnieuw publiceren)

zo evalueer je elk bericht:

  • Delete: als een pagina geen backlinks heeft en de inhoud niet te redden is, verwijder deze dan.
  • Redirect: als een pagina een of meer backlinks heeft en de inhoud niet te redden is, of als er een pagina is die hoger scoort voor dezelfde reeks zoekwoorden, leidt u deze door naar de meest vergelijkbare pagina.
  • historisch optimaliseren: als een pagina een of meer backlinks heeft, zijn er een paar voor de hand liggende manieren om de inhoud te verbeteren (het bijwerken van de kopie, het uitgebreider maken, het toevoegen van nieuwe secties en het verwijderen van irrelevante, enz.), en het concurreert niet met een andere pagina op uw site, maar richt deze op historische optimalisatie.

afhankelijk van de pagina, factor in de andere informatie die je hebt.

bijvoorbeeld, misschien heeft een pagina 15 backlinks en een URL-rating van 19. Het aantal woorden is 800 – dus het is geen dunne inhoud-en te oordelen naar de titel, behandelt het een onderwerp dat on-brand en relevant is voor uw publiek.

in de afgelopen zes maanden heeft het echter slechts 10 pageviews van organic gekregen.

als je wat beter kijkt, zie je dat de crawldiepte 4 is (vrij ver van de homepage), het heeft maar één interne link en het is al een jaar niet gewijzigd.

dat betekent dat u de prestaties van deze pagina waarschijnlijk onmiddellijk kunt verbeteren door enkele kleine updates te maken, deze opnieuw te publiceren, een paar klikken dichter bij de startpagina te verplaatsen en enkele interne links toe te voegen.

Ik raad aan om de delen van het proces te illustreren die je voor elke pagina met een beslissingsboom zult gebruiken, zoals deze:

 content snoeien beslissingsboom

je zult één groot verschil merken: in plaats van “Historisch optimaliseren”, was onze derde optie “syndicate”.

het publiceren van de artikelen die we hebben verwijderd naar externe sites, zodat we links konden bouwen, was een briljant idee van Matt Howells-Barby.

Irina Nica, hoofd van linkbuilding bij het HubSpot SEO-team, werkt momenteel samen met een team van freelancers om de inhoud die we als syndicatiekandidaten hebben geïdentificeerd, naar externe sites te pitchen. Wanneer ze de inhoud accepteren en publiceren, krijgen we ongelooflijk waardevolle backlinks naar onze productpagina ‘ s en blogposts.

om ervoor te zorgen dat we geen problemen tegenkwamen waarbij gastmedewerkers een bericht vonden dat ze enkele jaren geleden voor HubSpot op een andere site hadden geschreven, hebben we ervoor gezorgd dat alle syndicatiekandidaten afkomstig waren van huidige of voormalige HubSpot-medewerkers.

als je genoeg inhoud hebt, zal het syndiceren van je “gesnoeide” pagina ‘ s je nog meer voordelen opleveren van dit project.

Over “genoeg” inhoud gesproken: zoals ik al eerder zei, moest ik deze beslissingsboom doorlopen voor meer dan 3.000 URL ‘ s.

Er is niet genoeg hersenloze TV in de wereld om me door een grote taak te krijgen.

Hier is hoe ik zou denken over de scope:

  • 500 url ‘ s of minder: evalueer ze handmatig. Kosten die maand Netflix abonnementskosten.
  • 500-Plus URL ‘s: evalueer de top 500 url’ s handmatig en huur een freelance of VA in om de rest te beoordelen.

wat er ook gebeurt, je moet zelf de URL ‘ s met de meeste backlinks bekijken. Sommige pagina ‘ s die in aanmerking komen voor snoeien op basis van weinig verkeer kunnen honderden backlinks hebben.

Je moet extra voorzichtig zijn met deze omleidingen; als je een blogpost over bijvoorbeeld “Facebook Ads Best Policies” omleidt naar een Over YouTube-Marketing, gaat de autoriteit van de backlinks naar de eerste niet over naar de laatste omdat de inhoud zo anders is.

HubSpot ’s historische optimalisatie expert Braden Becker en ik keken naar elke pagina met meer dan 60 backlinks (die ongeveer 350 pagina’ s bleken te zijn) en tagden elk handmatig als “archief”, “Redirect” of “Syndicaat”.”Toen huurde ik een freelancer in om de resterende 2.650 te bekijken.

nadat u alle berichten in uw spreadsheet hebt getagd, moet u ze doornemen en ze daadwerkelijk archiveren, omleiden of bijwerken.

omdat we met zoveel te maken hadden, creëerde onze ontwikkelaar Taylor Swyter een script dat elke URL automatisch archiveerde of omleidde. Hij creëerde ook een script dat interne links van HubSpot-inhoud zou verwijderen naar de berichten die we verwijderden. Het laatste wat we wilden was een enorme piek in gebroken links op de blog.

als u dit met de hand doet, vergeet dan niet om eventuele interne links naar de pagina ‘ s die u verwijdert te wijzigen.

Ik raad ook aan om dit in fasen te doen. Archiveer een batch van berichten, wacht een week en monitor uw verkeer, Archiveer de volgende batch, wacht een week en monitor uw verkeer, enz. Hetzelfde concept geldt voor redirects: batch ze uit in plaats van het omleiden van een ton van berichten allemaal tegelijk.

verouderde inhoud verwijderen met Google

  1. ga naar de URL-verwijderingspagina van de oude Search Console
  2. Selecteer Uw property
  3. Selecteer ’tijdelijk verbergen’
  4. Voer de URL van de verouderde pagina in en selecteer ‘Doorgaan’
  5. kies ‘cache wissen van URL en tijdelijk verwijderen van zoeken’
  6. Druk Op ‘Aanvraag indienen’

als u verouderde inhoud van Google wilt verwijderen, gaat u naar de pagina URL ‘ s verwijderen van de oude Search Console en volgt u de bovenstaande stappen. 

Deze optie is tijdelijk — als u oude inhoud permanent wilt verwijderen, moet u de pagina verwijderen (404) of omleiden (301).

Dit werkt ook niet tenzij u de geverifieerde eigenaar bent van de site voor de URL die u indient. Volg deze instructies om verwijdering aan te vragen van een verouderde/gearchiveerde pagina die u niet bezit.

onze resultaten

wat gebeurde er nadat we die 3.000 blogposts hadden verwijderd?

eerst zagen we ons verkeer omhoog gaan en naar rechts:

content snoeien resultaten

het is de moeite waard erop te wijzen dat het snoeien van inhoud zeker niet de enige oorzaak van groei is: het is een van de vele dingen die we goed doen, zoals het publiceren van nieuwe inhoud, het optimaliseren van bestaande inhoud, het pushen van technische oplossingen, enz.

ons crawlbudget is aanzienlijk beïnvloed-ver boven Victor ‘ s verwachtingen, in feite.

Hier is zijn gewone Engelse versie van de resultaten:

“vanaf twee weken geleden kunnen we inhoud indienen, geïndexeerd worden en binnen enkele minuten of een uur verkeer van Google-zoekopdrachten genereren. Voor de context duurt indexatie vaak uren en dagen voor de gemiddelde website.”

en de technische:

“we zagen een daling van 20% in crawls, maar een daling van 38% in het aantal URI’ s dat werd gecrawld, wat gedeeltelijk kan worden verklaard door de enorme daling van JS crawls (50%!) en CSS-crawls (36%!) van snoeien. Wanneer URI ’s die worden gecrawld groter worden dan het totale aantal crawls, worden bestaande URI’ s en hun bijbehorende afbeeldingen, JS en CSS-bestanden beter ‘begrepen’ door GoogleBot in de crawlfase van technische SEO.”

Bovendien heeft Irina honderden links gebouwd met behulp van inhoud van de snoei.

ten slotte is onze Ahrefs-rang gestaag gestegen – we zitten nu op 249, wat betekent dat er slechts 248 websites in de Ahrefs-database zijn met sterkere backlinkprofielen.

 content snoei resultaten: ahrefs rank

Uiteindelijk is dit niet per se een gemakkelijke taak, maar de beloningen die je zult oogsten zijn ontegenzeggelijk de moeite waard. Door uw site op te ruimen, kunt u uw SEO-ranglijst op goed presterende pagina ‘ s verbeteren, terwijl u ervoor zorgt dat uw lezers alleen uw beste inhoud vinden, geen willekeurige evenementpagina uit 2014. Een win, win.

 

Plaats een reactie