Aandacht voor SEO is doorslaggevend voor een goed presterende website. In juli las je al over on-page SEO features van Umbraco CMS. Nu tijd om de technische SEO features in te duiken: van indexatie en navigatie tot robots.txt en redirects.
Frisse reminder nodig? Neem ons artikel over Umbraco en on-page SEO nog even door.
Umbraco krijgt de stempel ‘SEO friendly CMS’ – althans, dat label heeft het zichzelf opgeplakt. Laten we dit eens verder onder de loep nemen. Wat maakt Umbraco precies SEO-vriendelijk? En waarom gaat het CMS hand in hand met zoekmachineoptimalisatie? Om antwoorden te vinden, hebben we een serie blogs opgezet waarin we ingaan op alle SEO-gerelateerde features. Waarom wij zo graag werken met Umbraco CMS? Dat lees je hier.
Technische SEO features
On-page (de naam zegt het al) vindt vooral plaats op de voorgrond. Wat onder de motorkap zit, is echter minstens zo belangrijk. Met een paar features hieronder lijken we misschien een open deur in te trappen, maar lang niet alles maakt standaard onderdeel uit van je CMS. Bij Umbraco heb je het volledige pakket: een website met ook de technische kant van SEO op orde. Over naar de features van vandaag. Om te beginnen: crawlbaarheid en indexeerbaarheid.
Zijn deze termen je totaal onbekend? Dan eerst een korte uitleg. Zoekmachines bekijken een website anders dan wij dat doen. Waar wij een webdesign zien – compleet met vlakverdeling, afbeeldingen en tekstopmaak – zien web crawlers (zoals Googlebot) puur en alleen platte tekst.
Bij het bouwen van een website vragen wij ons daarom twee dingen af: zijn links eenvoudig te volgen en content makkelijk te vinden (crawlability)? En zijn pagina’s goed te analyseren en te vertalen naar zoekresultaten (indexability)?
Je kunt er niet blindelings van uit gaan dat zoekmachines al jouw pagina’s inclusief content goed kunnen lezen. Crawlt Google jouw pagina’s op de juiste manier? Is alle content toegankelijk, zodat het goed wordt vertaald naar de zoekresultatenpagina (SERP)? Belangrijk dus, om ervoor te zorgen dat jouw content op een hapklaar wordt opgediend en eenvoudig te verwerken is.
Umbraco presenteert haar content standaard in HTML – eenvoudig crawlbaar en indexeerbaar voor Googlebot. Maar Umbraco is een maatwerk-CMS, dus kun je ook kiezen om je content anders aan te bieden, via Javascript bijvoorbeeld.
Robots.txt is een simpel tekstbestandje dat crawlers vertelt wat ze niet mogen bezoeken. Hoeft een deel van jouw website niet geïndexeerd te worden? Dan kun je dat hierin kwijt. Pagina’s die irrelevant zijn, kunnen de crawlbaarheid namelijk behoorlijk in de weg zitten.
In Umbraco is een eenvoudige robots.txt vaak voldoende om je SEO een boost te geven. Zie het als instructies die je Googlebot meegeeft zodat ie sneller z’n werk kan doen. Robots.txt is trouwens ook handig als jouw site nog in aanbouw is maar nog niet gecrawld mag worden!
We blijven nog even bij crawlen en indexeren. Zoals we net bespraken volgt een web crawler alle links op een website. Goed om een logische linkstructuur te hebben, want dat maakt het makkelijker om jouw site door te spitten. In de robots.txt (van het kopje hiervoor) kunnen we kwijt welke pagina’s onbelangrijk zijn, maar hoe zit dat met links?
Geef een link de waarde noindex en/of nofollow, en Googlebot blijft ervan af. In Umbraco gaat dat heel gemakkelijk, met een handig dropdownmenu. Je kiest er dus zelf voor welke links je buiten beschouwing wilt laten voor zoekmachines. Noindex en nofollow helpen ook om duplicate content tegen te gaan, maar daar kun je vaak beter canonical tags voor gebruiken.
Ook interessant: Effectief linkbuilden. Hoe doe je dat?
Navigatie op een site lijkt een open deur; het hoofdmenu vind je bovenaan je scherm. Toch kijkt Google ook hier weer anders naar dan wij. Het stukje usability laten we daarom even voor wat het is. Waarom navigatie zo belangrijk is voor crawlers? Omdat de interne linkstructuur grotendeels bepalend is voor hoe Google jouw site interpreteert.
Een goed gestructureerde navigatie is daarmee onmisbaar voor je SEO. En het blijft niet alleen bij een logisch hoofdmenu. Misschien heb je ook een menu in de zijbalk (denk aan filters op een webshop). En ook footers en breadcrumbs passeren bij de revue tijdens een crawlsessie. Wederom geldt hier: hoe logischer de structuur, hoe makkelijker te crawlen.
Umbraco neemt de naam van een nieuwe pagina meteen over in je URL. Verandert die naam, dan verandert de URL automatisch mee. Je loopt dan wel het risico op dode linkjes; het oude webadres bestaat namelijk niet meer. Umbraco lost dit op door automatisch een 301 redirect toe te voegen die de oude URL doorverwijst naar de nieuwe. Geen kapotte linkjes meer dus.
Hoe voorkom je dat interne links doodlopen? Die hoef je gelukkig niet handmatig in te tikken. Voeg een link toe en selecteer de pagina waar je naartoe wilt verwijzen. Even een vinkje zetten en het correcte pad wordt meteen overgenomen!
Nog zo’n veelvoorkomende code: 404 – meestal gevolgd door de tekst “pagina niet gevonden”. Je krijgt deze melding als een URL niet meer bestaat of überhaupt nooit heeft bestaan. Een 404-error is nodig voor crawlers om te begrijpen dat er op een pagina niets te vinden valt. Toch gaat dit in de praktijk nogal eens mis.
Wat regelmatig gebeurt, is het volgende scenario. Stel, een bezoeker navigeert naar een onbestaande pagina en krijgt een 404 te zien. De server reageert echter met een andere code, namelijk 200 (OK). In dit geval denkt Googlebot: ik moet deze pagina blijven crawlen! Crawlers verwachten nu namelijk dat er ooit nog echte content te vinden is op deze pagina. Bij Umbraco is 404 ook daadwerkelijk 404. Geen miscommunicatie en geen technisch mankement op SEO-gebied dus.
Meer technische SEO
Was dit allemaal een beetje te volgen? We hopen van wel. We proberen de techniek zo veel mogelijk te vertalen naar alledaagse taal. En daar zijn we nog lang niet klaar mee! Later deze maand zes extra technische SEO features waar Umbraco in uitblinkt. In de tussentijd vertellen we je graag welke externe software je aan Umbraco kunt koppelen.