Over Linkbuilding, SERP, Above the fold & Breadcrumbs
Zoekmachine optimalisatie
Inhoud
Kliq’s Tientje (2); SEO-termen nader verklaard!
Kliq helpt je verder bij het grote aantal termen waarmee je te maken krijgt in de wereld van internet-marketing. Met in deze tweede aflevering:
Linkbuilding – A/B test – Above the fold – White hat SEO – SERP – Cookies – Robots.txt – Breadcrumbs – Googlebot – Alt tag
1. Linkbuilding
Wil je hoger ranken in de zoekresultaten van Google dan kun je (vooralsnog) niet om linkbuilding heen. Google ziet links van andere websites naar jouw website (zogenoemde backlinks) namelijk als positieve stemmen. Men gaat er daarbij vanuit dat veel van dat soort stemmen aangeeft dat je website populair is, dus waarschijnlijk goede content bevat en het op basis daarvan verdient hoger in de ranking te komen.
Ooit was er een tijd dat voldoende backlinks bijna alles was wat je voor een goede ranking hoefde te doen. Dit gegeven zorgde echter voor een enorme wildgroei aan linkuitwisseling tussen websites waardoor linkbuilding volledig uit de hand begon te lopen. En dat viel op een gegeven moment ook Google op. Met de invoering van de Penguin-algoritme (vanaf april 2012) is men begonnen met het beoordelen van backlinks; hoe beter de kwaliteit van de pagina waar de link staat, hoe beter dat is voor je website. Hiermee kwam er een einde aan het blind linkbuilden, want ook al wordt je momenteel niet meer gestraft voor ‘slechte’ links, deze helpen je website nu niet meer omhoog. Het kopen/ruilen van links, vaak in grote hoeveelheden, heeft nu dan ook nog nauwelijks zin meer. Waar je nu naar moet streven is het opbouwen van een natuurlijk linkprofiel.
Het allerbeste is natuurlijk als je website geheel vanzelf veel backlinks krijgt. En met goede content waar bezoekers enthousiast over zijn en die men zonder te vragen gaat delen, kom je vaak al een heel eind. Maar een beetje sturen en stimuleren kan natuurlijk helemaal geen kwaad. Want hoe we er ook over denken, backlinks zijn op dit moment nu eenmaal nog altijd een erg belangrijk onderdeel binnen het ranking algoritme.
Zaken om in de gaten te houden bij linkbuilden:
- Zet social media in! Let wel op dat linkbuilding daarbij niet het hoofddoel wordt, maar wel een leuke bijkomstigheid;
- Zorg voor een natuurlijke combinatie van follow links en no-follow links;
- Zorg vanzelfsprekend voor kwalitatieve links, maar een paar minder kwalitatieve links kan helemaal geen kwaad en maken je linkprofiel zelfs natuurlijker;
- Verzamel alleen linkjes van websites die qua inhoud relevant zijn;
- Zorg voor domein-diversiteit, dus niet te veel links van één domein;
- Zorg voor IP-adres-diversiteit, voorkom te veel linkjes van één server;
- Vergeet je interne linkbuilding niet; structuur en interne verwijzingen op je website is heel belangrijk voor SEO;
- Zorg voor afwisselende anchorteksten.
Kenners zijn het er wel over eens dat linkbuilding in de toekomst steeds minder belangrijk gaat worden. Google zal zich meer en meer gaan richten op relevante en waardevolle content op de pagina zelf en en dus worden on-site quality ratings steeds belangrijker. Op dit moment kunnen we er echter vanuit gaan dat het aantal (kwalitatieve) backlinks naar je website nog altijd een substantiële invloed heeft op de ranking en dus iets om aan te blijven werken.
2. A/B test
In algemene zin is een A/B test een marktonderzoekmethode om te bepalen wat van twee mogelijkheden de efficiëntste danwel de beste is. Meer specifieke op het gebied van websites hebben we het bij A/B tests over een onderzoek waarmee we proberen te achterhalen welke van twee webpagina’s het beste een van te voren bepaald doel dient.
In de praktijk komt het er op neer dat van een belangrijke/veel bezochte pagina twee ontwerpen worden gemaakt en vervolgens 50% van de websitebezoekers naar variant A en 50% naar variant B wordt gestuurd. Aansluitend wordt gemeten of er significante verschillen optreden en welke pagina het beste converteert qua klikken, aanvragen, verkoop, leads enzovoort.
Test je slechts één element (bijvoorbeeld een knop of grafisch element) op een pagina door die te variëren dan spreken we van een A/B test. Het is echter ook mogelijk meerdere webelementen tegelijk te testen. Denk bijvoorbeeld aan meerdere kleuren van een knop op verschillende achtergrondkleuren. We spreken dan van een multivariate test. Deze vorm zal over het algemeen meer data en dus meer bezoekers nodig hebben om tot significante verschillen te komen waar echt conclusies uit kunnen worden getrokken.
3. Above the fold
Deze term, in goed Nederlands ‘boven de vouw’, is afkomstig uit een tijd dat we voor onze dagelijkse informatievoorziening nog bijna volledig afhankelijk waren van de papieren krant. Omdat de dagbladen opgevouwen met de bovenkant naar voren werden uitgestald, was het van belang dat belangrijke informatie en met name advertenties gepresenteerd werden in het bovenste gedeelte van de krant; het gedeelte boven de vouw. Dan was de informatie dus het best zichtbaar. En dit principe is nu nog altijd actueel als het websites betreft…
Bezoekers die op een website terecht komen zien in eerste instantie alleen het bovenste gedeelte van de pagina en dus slechts een beperkt gedeelte van de informatie. Op een standaard laptop-scherm gaat het dan om een zichtveld van rond de 900 pixels. En dus is het van belang dat webbouwers goed nadenken over wat ze wel, maar zeker ook wat ze niet laten zien ‘Above the fold’.
De meningen over wat je direct in het zicht moet presenteren zijn zeker niet eenduidig. Over het algemeen is men het er echter wel over eens dat het belangrijk is de aandacht van je bezoekers te trekken en deze ook vast te houden. Dit kan bijvoorbeeld door de nieuwsgierigheid op te wekken en vervolgens de aandacht vast te houden met inhoudelijk goede teksten en sterk beeld. Een goede Call To Action is daarbij eigenlijk onmisbaar. Maar of dat boven of juist onder de vouw moet gebeuren, daarover kom je verschillende meningen tegen. Wij denken echter dat het voor bijvoorbeeld opt-in pagina’s aan te raden is om je CTA en voordelen (Unique Selling Points) boven de vouw te plaatsen.
Wees in ieder geval niet meer bang dat bezoekers voor informatie te veel moeten scrollen op je pagina. Vroeger was dat een doodzonde, maar het belang van korte pagina’s is in de loop van de jaren steeds minder belangrijk geworden. De meeste gebruikers zijn met de opkomst van de smartphone en tablets gewend geraakt aan scrollen en dit als iets heel natuurlijks gaan zien.
4. White Hat SEO
In tegenstelling tot Black Hat SEO, het valsspelen door het misleiden van Google met trucs (zie Kliq’s Tientje 1), spreken we van White Hat SEO als op goede, natuurlijke en voor zoekmachines juiste manier wordt gewerkt aan zoekmachine-resultaten op de lange termijn. En eigenlijk zou dit de enige soort SEO moeten zijn: je concentreren op natuurlijke manieren om een pagina beter te laten scoren waarbij niet de zoekmachine, maar de wensen en behoeftes van de bezoekers centraal staan.
Eigenlijk is het allemaal in basis niet zo ingewikkeld: zoekmachines zijn op zoek naar het allerbeste zoekresultaat om aan hun bezoekers voor te schotelen. En als je dus zorgt dat je goede content hebt die goed wordt gepresenteerd, goed is gestructureerd en die ook echt de informatie levert die je belooft, wordt je daarvoor als snel beloond met een hogere ranking. Eerlijkheid duurt het langst…
Bedenk wel dat er natuurlijk helemaal niets mis is aan het optimaliseren van je website zodat Google deze goed kan indexeren. Een goede HTML-structuur en rekening houden met vele zaken waarvan we weten dat Google deze waardeert, heeft niets met Black Hat SEO te maken, maar is gewoon heel verstandig!
5. SERP
De afkorting SERP staat voor Search Engine Results Page, de zoekresultatenpagina van een zoekmachine; dat wat je te zien krijgt als je een zoekopdracht hebt gegeven in bijvoorbeeld Google. Deze pagina bestaat uit een lijst met relevante webpagina’s in volgorde van relevantie voor de zoekopdracht, waarbij voor iedere website verschillende zaken staan vermeld. Meestal zijn dit de titel, de doorklik URL en een korte beschrijving van de pagina.
Uiteraard is het van belang voor zoekopdrachten die je belangrijk vindt zo hoog mogelijk op de SERP te komen staan. In principe heb je daarop geen directe invloed, want de zoekmachine baseert je ranking op basis van een algoritme. Wil je er zeker van zijn dat je hoog op de SERP bent terug te vinden, dan is het wellicht een goed idee te investeren in SEA, Search Engine Advertising.
Voor zoekmachines als Google, Yahoo en Bing is de SERP de belangrijkste plek om geld te verdienen. Naast de zoekresultaten krijg je op de SERP meestal dan ook advertenties te zien. Deze zijn bijna altijd direct gerelateerd aan de zoekopdracht en staan vaak bovenaan de pagina. Daaronder volgen dan de zogenoemde natuurlijke, niet betaalde zoekresultaten.
Andere mogelijke onderdelen van de SERP zijn afbeeldingen, video’s, correct gespelde woorden, kaarten en plattegronden, definities en suggesties voor zoekwoorden. Al deze zaken hebben een raakvlak met wat er in eerste instantie gezocht werd.
6. Cookies
Eerst maar even een neutrale definitie van dit vaak besproken internet-element. In basis is een cookie niet meer of minder dan een klein tekstbestand dat op je computer wordt geplaatst als je een website bezoekt. In het tekstbestand wordt bepaalde informatie opgeslagen over je bezoek en die informatie wordt in een later stadium weer gebruikt voor onder andere een betere websitebeleving, optimaliseren van de weergave, het tonen van passende advertenties en/of het meten van gegevens via bijvoorbeeld Google Analytics, een belangrijke SEO-tool.
In principe onderscheiden we twee soorten cookies:
- Permanente cookies worden voor langere tijd op je computer geplaatst en zijn met name bedoeld voor het herkennen van een bezoeker bij een volgend bezoek. De website kan daardoor op jouw voorkeuren worden ingesteld, zodat je die niet steeds opnieuw hoeft aan te geven. Dit zou je tijd moeten besparen en zorgen voor een prettiger gebruik van de website. Permanente cookies kunnen verwijderd worden via de instellingen van je browser;
- Sessie cookies worden gebruikt om te achterhalen welke onderdelen van de website je met dat specifieke bezoek hebt bekeken. Dit soort cookies worden automatisch verwijderd zodra je de webbrowser afsluit.
Er is de laatste jaren veel te doen geweest over cookies en dan met name het privacy-aspect ervan. Want wat doen bedrijven met de informatie die men via onder andere cookies verzameld? Dit leidde er toe dat in Nederland per 1 januari 2013 wettelijke regels voor het gebruik van cookies werden ingevoerd en websites voortaan toestemming moesten vragen aan de bezoeker om cookies op diens computer te plaatsen. Op 11 maart 2015 werden de regels weer wat afgezwakt en is nog slechts toestemming nodig voor bepaalde soorten cookies, namelijk die inbreuk kunnen maken op de privacy. Voor de overige cookies is het nu voldoende de websitebezoekers te informeren over het bestaan en gebruik ervan. Dit gebeurt tegenwoordig meestal in de vorm van een privacy-statement op de website.
Meer informatie over het in- en uitschakelen van het accepteren van alle soorten cookies en het eventueel verwijderen ervan, kan je vinden in de instructies en/of met behulp van de Help-func
tie van je webbrowser.
7. Robots.txt
Robots.txt. is een klein tekstbestandje op je webserver met instructies voor de ‘robots’ die het web crawlen. Met dit bestandje kun je aangegeven tot welke onderdelen van een website de bots toegang hebben. En omdat veel zoekmachinerobots waaronder de Googlebot zich bij het afstruinen van het web houden aan de zogenaamde Robots Exclusion Standard, kun je op die manier precies aangeven wat er wel en met name wat er niet mag worden geïndexeerd. Je kunt dit per sectie/onderdeel van je website aangeven, maar tevens per specifiek soort webcrawlers de toegang regelen. Wil je bijvoorbeeld aangeven dat alle bots toegang moeten hebben, dan gebruik je User-agent: *.
Andere belangrijke mogelijkheden zijn:
- Disallow: om aan te geven dat bepaalde gedeeltes van de website niet door robots mogen worden geïndexeerd;
- Allow: om specifieke mappen en files juist wel te laten crawlen;
- sitemap: om de locatie van de sitemap van je website aan te geven.
Een standaard robots.txt zou er op basis daarvan zo uit kunnen zien:
User-agent: *
Allow: /map-a/image.jpg
Disallow: /map-b/
sitemap: https://www.domein.nl/sitemap.xml
Het robots.txt bestand dient in de root van je domein te worden geplaatst.
Een tijdlang is robots.txt een belangrijke tool geweest voor SEO-optimalisatie. Tegenwoordig wordt het belang echter flink minder hoog ingeschat. Zoekmachines als Google zijn prima in staat zelf hun weg te vinden en het verkeerd gebruiken van het robots.txt kan zelfs schadelijk zijn voor je SEO; bij onzorgvuldig gebruik van een robots.txt kun je delen van je website van indexering uitsluiten terwijl dat niet gewenst is.
Tevens is het gebruik geen garantie dat delen van je site echt niet worden gecrawld. Wanneer andere sites verwijzen naar delen die je hebt uitgesloten, kan deze inhoud alsnog in de zoekresultaten worden getoond. Je kunt dit voorkomen door naast het robots.txt-bestand ook indexering richtlijnen als noindex in de metatags te gebruiken.
8. Breadcrumbs
Het begrip breadcrumbs (broodkruimels) wordt gebruikt als aanduiding voor een optie waarmee je bezoekers van je website een mogelijkheid geeft eenvoudig te navigeren binnen de structuur van je website. Het zogenoemde kruimelpad (waarschijnlijk vrij naar Hans & Grietje) laat zien waar binnen de sitestructuur iemand zich bevindt en geeft tevens de mogelijkheid snel een niveau terug te gaan binnen de hiërarchie.
Een groot voordeel van deze mogelijkheid is dat bezoekers makkelijker ook andere content op een website zullen vinden. Doordat ze bij de breadcrumbs bijvoorbeeld kunnen zien dat het huidige artikel onderdeel is van een categorie waarbinnen meer soortgelijke content beschikbaar is, zullen ze wellicht eerder geneigd zijn ook andere artikelen te bekijken.
Maar deze kruimels kunnen ook zorgen voor een grotere zoekmachine vriendelijkheid van je website. Ze vormen namelijk prima verwijzingen naar andere pagina’s op je website en zoekmachines pakken dat op als interne links, wat weer goed is voor je SEO.
9. Googlebot
Googlebot is de belangrijkste ‘spider’ van ‘s wereld grootste zoekmachine, Google. Deze ook wel webcrawlingbot genoemde crawler doorzoekt nieuwe en geüpdatete webpagina’s met als doel deze vervolgens toe te voegen aan de index van Google.
Googlebot maakt gebruikt van een algoritmisch crawlproces waarbij computerprogramma’s bepalen welke websites wereldwijd worden gecrawld, hoe vaak dat precies gebeurt en hoeveel afzonderlijke pagina’s per site worden opgehaald.
Wil je om wat voor reden dan ook voorkomen dat Googlebot de inhoud van je site indexeert, dan zijn daarvoor verschillende mogelijkheden:
Het gebruik van een robots.txt; zie hierboven;
Het in de HTML opnemen van metatag als content=”noindex” en/of content=”nofollow”.
Belangrijke informatie over bijvoorbeeld wat de Googlebot allemaal indexeert, met welke snelheid dat gebeurt en of er daarbij fouten zijn geconstateerd, vind je in Google Search Console.
10. Alt Tag
De Alt Tag, ook wel Alt-tekst, is een HTML-attribuut dat kan worden meegeven aan een afbeelding en dient als alternatieve informatie als een gebruiker om welke reden dan ook het plaatje niet kan bekijken. Denk hierbij aan situaties als een broken link, een langzame verbinding, een fout in het src-kenmerk of als mensen met een visuele beperking websites laten voorlezen en de Alt-tag dus kan zorgen voor een beschrijving van een grafische element.
Tegenwoordig vervult de Alt-tag ook een rol in SEO, want deze omschrijving geeft zoekmachines een indicatie van wat er op de afbeelding is te zien. Vooral binnen de zoekresultaten van foto’s, afbeeldingen en plaatjes speelt, naast de bestandsnaam, de Alt-tag een belangrijke rol.
Terug naar overzicht