Terwijl ik op een rol met voortdurend bijwerken van mijn blogs naar mijn website, vond ik het verwarrend waarom het aantal bezoekers op mijn website niet toeneemt. Verschillende websites van Wish to The Outline krijgen een gestaag aantal bezoekers per dag en ze werden bijgewerkt zo vaak als de mijne was.
Ik controleerde de nummers van mijn eigen website en ik kwam erachter dat mijn zoekopdracht ranking is niet gestegen, hetzij.
Ik onderzocht de redenen waarom dit gebeurt voor mij, en ik struikelde over deze video:
Na het leren van meer over dit en het toepassen van wat ik heb geleerd over SEO auditing, dit hielp mijn website meer zichtbaar op zoekmachines en maak mijn bezoeker tellen te verhogen met de minuut!
Let hier op: Als u eigenaar bent van uw website en u merkt dat uw zoekpositie en bezoekersaantal niet beweegt of afneemt, moet u elke maand een technische SEO-audit laten uitvoeren.
Voordat we leren hoe je een SEO-audit uitvoert, laten we kijken naar de meest voorkomende problemen die zullen worden opgevoed en hoeveel ze van invloed zullen zijn op uw website. Ze bestaan uit drie lagen:
- Crawlbaarheid en sitestructuur
- On-page SEO
- Technische SEO
Crawlbaarheid en sitestructuur
Dit heeft te maken met hoe toegankelijk elke pagina is binnen uw website. Als Googlebot uw hele site niet kan crawlen en indexeren, zal dit op de lange termijn ernstige schade toebrengen aan de rangschikking, kijkers en inkomsten van uw zoekresultaten.
De volgende zijn de belangrijkste fouten die u moet vermijden:
- Links en omleidinge
nVolgens SEMrush kwamen ze erachter dat elke vierde website linkfouten heeft en 30 procent van de websites interne links heeft verbroken. Houd er ook rekening mee dat uw website een van de 26.5 kan zijn die ook 4XX-fouten heeft. - Sitemap en Robots.txtZ
elfs als er een klein percentage van de websites die opmaak fouten in hun sitemap.xml en robot.txt, met een van beide in uw website zal schade aan uw kansen op het krijgen van meer weergaven en rang hoger in de zoekresultaten.
On-page SEO
Terwijl de vorige laag iemands website als geheel bespreekt, richt deze sectie zich op fouten die u mogelijk maakt op elke pagina op uw eigen website. Het verbeteren van fouten gevonden in deze laag zal niet alleen het verbeteren van uw website search rankings, maar het verhogen van de off-page prestaties van elk van hen.
Hier is een lijst met belangrijke fouten waar u op moet letten in deze laag:
- Content
Search Engine Journal vermeldde in hun artikel van 2017 dat er drie technische SEO-problemen zijn die de meeste website-eigenaren maken. De eer
ste is ernstige dubbele problemen, het adviseren van eigenaren om een rel = "canonical" tag toe te voegen en unieke inhoud te maken over goed geoptimaliseerde dubbele
inhoud. Volgende dat is webpagina's met een lage text-to-HTML ratio, die aanwezig is in 93,72 procent van de websites
. Ten slotte heeft 73,47 procent van de pagina's hooguit 250 woorden per pagina, waardoor ze zich ongepast en onnatuurlijk voelen. - Meta-beschrijving
enAls u een van de 63 procent van de eigenaren bent die zich niet inspannen om een metabeschrijving te maken voor elk van hun pagina's, kan dit resulteren in een lagere klikfrequentie. Een no
g grotere fout is het hebben van dubbele metabeschrijvingen voor uw webpagina's. 54 procent van de eigenaren maken deze fout en het zal ook zwaar van invloed op de totale click-through rate ook.
- Titeltags, H1-tags & afbeeldingen
Een factor in de websiteranking kan worden toegeschreven aan titels, koppen en afbeeldingen.
U moet ervoor zorgen dat u ontbrekende alt-tags voor al uw afbeeldingen toevoegt, wordy-titeltags inkorten en voldoende H1-tags aan elk van uw pagina's toevoegt. Dit zal een negatieve invloed hebben op de algehele UX van uw website, waardoor uw rankings tegelijkertijd afnemen.
Relevant: Leer hier alles over on-page SEO
Technische SEO
In deze sectie wordt gekeken hoe snel uw website laadt, niet alleen op apparaten zoals pc's en laptops, maar ook op smartphones en tablets. Zoals een studie van Amazon bleek dat een daling van 1 procent van de omzet kan worden gekoppeld aan 100 milliseconden extra laadtijd, het vermijden van eventuele fouten in deze laag zal positief profiteren van de groei van uw website.
Hier is een lijst met belangrijke fouten om op te letten in deze laag:
- Paginasnelh
eidEen van de hoogste problemen die uw website kan hebben, is dat uw websites een trage laadsnelheid van pagina's hebben. Als u dit probleem negeert, daalt uw algehele Google-beoordeling. Een ander
probleem dat onmiddellijk moet worden opgelost, is het hebben van grote HTML-paginaformaten. Hoewel minder dan 1 procent van de websites een groot HTML-paginaformaat bevat, zal het hebben van ten minste één site op deze manier niet alleen uw website langzamer maken in vergelijking, maar ook het minder gebruiksvriendelijk maken in het proces.
De volgende elementen op een webpagina kunnen van invloed zijn op deze criteria:
- Websitehost
- Grote afbeeldingen
- Ingesloten video's
- Insteekmodules
- Advertenties
- Thema
- Widgets
- Repetitief script of dichte code.
- Oude technologie
Dit aspect verwijst naar hoe de website werd gemaakt. Als een website bijvoorbeeld is gemaakt met PHP 4 in plaats van de huidige PHP 7, wordt dit aangeduid als oude technologie.
Verschillende elementen zijn nodig voor de websites van deze generatie, waaronder de Google Analytics, de Google Tag Manager, een schema-opmaak en robots.txt. Elementen zoals Flash en iframes zouden onmiddellijk moeten worden verwijderd om de laadtijd ook te verhogen. Afgezie
n van de schema markup en robots.txt, moet u ervoor zorgen dat het niet wordt geblokkeerd door de laatste. Daarna, houd het draaiend op de server door het te controleren op het van tijd tot tijd.
- Mobiele vriendelijkheid
Aangezien de toename van het aantal mensen naar smartphone exponentieel toeneemt, moet uw website worden gemaakt waar deze toegankelijk is op kleinere apparaten zoals smartphones, tablets en slimme horloges. Dit is ook te wijten aan Google's mobile-first indexering storing dienst werd aangekondigd terug in d
ecember 2018.Afgezien van deze trend, is aangetoond dat smartphone verkeer al meer dan desktop zoekopdrachten voor een lange tijd. D
it betekent dat het niet kunnen van iemands website aan te passen aan deze trends zal lijden een groot verlies van clickthrough ratio, search rankings, en potentiële verkeer in een keer.
Na het leren welke SEO fouten op te lossen meteen, laten we nu duiken in op hoe u uw eigen technische SEO audit uit te voeren.
Je wilt ook mijn gids lezen over de top 20 SEO tools van 2020 hier
Stap 1: Crawlfouten identificeren
De eerste stap is om uw site te laten controleren en een crawlrapport te krijgen. Het krijgen van een zal u helpen leren welke van de fouten hierboven moet u meteen te beperken.
Het is sterk aanbevolen dat u dit maandelijks doet om uw site schoon te houden van SEO fouten en houd het zo geoptimaliseerd mogelijk.
Voordat u wijzigingen aanbrengt op basis van het rapport, moet u eerst een back-up van de site maken.
Na de back-up, beginnen met het oplossen van eventuele crawl fouten door het omleiden van de meeste 404 fouten en zet ze in plaats daarvan in 301 omleidingen.
Geef vervolgens de bijgewerkte website door aan een ontwikkelteam om de oorzaak te bepalen, ongeacht of ze een nieuw .html-toegangsbestand moeten toevoegen of de geheugenlimiet van de server moeten verhogen.
Verwijder ook permanente omleidingen uit de sitemap, interne koppelingen en externe koppelingen.
Stap 2: HTTPS-statuscodes controleren
Ervoor zorgen dat al uw websites in HTTPS staan en niet in HTTP is een must. Afgezien van dat, moet men ook controleren op andere fouten met behulp van Google Search Console.
De volgende zijn enkele van de antwoordcodes die uw website kan hebben:
- 301 – de gebruikelijke omleiding
- 302 – een foutcode die meestal gebeurt in e-commerce sites wanneer een product niet op voorraad is
- 400 – gebruikers hebben geen toegang tot de pagina
- 403 – gebruikers zijn onbevoegd om toegang te krijgen tot de pagina
- 404 – de pagina wordt niet gevonden, wat een gevolg kan zijn van het verwijderen van een pagina zonder een 301-omleiding toe te voegen
- 500 – interne serverfout, die moet worden opgelost met een webdevelopmentteam
Hierdoor worden 4xx- en 5xx-responscodes verwijderd, waardoor de crawlbaarheid en gebruikerservaring van de site worden verbeterd.
Controleer ten slotte al uw SSL-certificaten. Als u dit doet, worden niet alleen crawlabilityfouten voorkomen, maar worden ook alle gegevens tussen u en uw bezoekers tegelijkertijd beveiligd.
Met betrekking tot SSL-certificaten, moet u prioriteit krijgen van een voor uw domein en subdomeinen zo spoedig mogelijk. Gebruikers die een website bezoeken zonder deze worden gewaarschuwd door middel van een "Niet Veilig" waarschuwing op hun browsers, waardoor uw bezoekersaantal in het proces.
Stap 3: XML-sitemapstatus controleren
Zoals vermeld in de vorige sectie, zal het hebben van een sitemap u helpen een hogere onderzoeksrang hebben. Door dit te doen zal ook helpen zoekmachine crawlers vinden van uw webpagina's ook.
Waar moet u rekening mee houden tijdens het bewerken van een XML-sitemap
- Het is geschreven met behulp van XML vrij van eventuele opmaak fouten, met inbegrip van de juiste 200 statuscodes en canonicals.
- Het hele bestand is geschreven met behulp van het XML-sitemapprotocol.
- Bevat alle bijgewerkte pagina's op de website.
- Stuur het naar uw Google Search Console of voeg het toe in uw robots.txt-bestand.
Stap 4: Laadtijd van de site controleren
In staat zijn om toegang te krijgen tot een pagina in uw website door het verleden, heden en toekomstige bezoekers is een must om voor hen om het verkeer hoog te houden.
✋ Stop worrying about SEO and have me do it for you

PS: Ready to work with the 0.01% of all SEOs worldwide? Click here.
Als u deze stap wilt doen, u de PageSpeed Insights van Google of een andere tool voor het laden van een site gebruiken om te controleren. Idealiter moet het minder dan 3 seconden.
Het oplossen van dit kan worden gedaan door het organiseren van welke elementen van de site moet worden geoptimaliseerd voor snellere laadtijden en een betere gebruikerservaring.
Controleer daarnaast of de server uitvalt of langzamer werkt dan normaal. Dit kan gebeuren als meerdere gebruikers proberen om toegang te krijgen tot de server in een keer en een mogelijke reactie op deze is om het te upgraden zo spoedig mogelijk.
Controleer vervolgens of een van uw subdomeinen wordt doorgestuurd naar de thuiswebsite. Als u dit doet, voorkomt u volledige pagina-onzichtbaarheid in een van uw websites tijdens het proces.
Cloaking
Als uw website in een zoekresultaat wordt geplaatst waar deze niet de informatie bevat die de gebruiker nodig heeft, wordt deze ook wel cloaking genoemd.
Een voorbeeld van dit fenomeen is wanneer crawlers meer te weten komen over HTML-tekst van uw website terwijl ze visuals aan bezoekers serveren. Een andere is als u een website ontworpen om de tekst kleur vergelijkbaar te zijn met de achtergrond.
Als dit aanwezig is in uw website, wordt sterk gesuggereerd dat u het onmiddellijk moet laten verwijderen door te herschikken hoe elke webpagina wordt gemaakt. Hierdoor wordt voorkomen dat een negatieve schade aan uw algemene ranking in het proces.
Stap 5: Zorg ervoor dat uw site mobielvriendelijk is
Voor deze stap kan men gebruik maken van de Google Mobile-Friendly Test. U voert gewoon uw site in de tool en het zal een rapport over hoe uw website werkt in mobiele en wat moet worden verbeterd te genereren.
Oplossingen voor het mobielvriendelijk maken van een website
- Tekengrootte vergroten
- Youtube-video's insluiten
- Afbeeldingen comprimeren
- Versnelde mobiele pagina's (AMP) gebruiken
- Gestructureerde gegevens toevoegen
- URL's bijwerken naar mobiele URL's.
- Controleer en werk de hreflang code en links zo vaak mogelijk
- Aanraakelementen toevoegen
- Lokalisatie opnemen
Stap 6: Audit voor trefwoord kannibalisatie
Deze controle controleert op elk artikel dat dezelfde zoekwoorden deelt. Na deze zal Google verward over welke pagina eerst prioriteit te geven wanneer het kan worden opgezocht in de zoekresultaten.
Het hebben van deze dubbele sites heeft een negatieve invloed op uw klikratio, autoriteit en conversiepercentages.
Gebruik het prestatierapport van Google om te controleren welke pagina's concurreren om dezelfde zoekwoorden en filter welke pagina's hetzelfde gebruiken in hun URL en hoeveel pagina's voor dezelfde zoekwoorden worden geklasseerd.
Dubbele sites bevatten ook subdomeinen. Een voorbeeld van een subdomein is het hebben van blog.yourwebsite.com terwijl het hebben van yourwebsite.com als uw belangrijkste.
Een andere manier om uw gebruik van zoekwoorden op al uw pagina's te optimaliseren, zijn de volgende:
- H1-tags gebruiken voor koppen op het hoogste niveau
- H2-tags toepassen voor hoofdcategorieën
- H3 tot H6 opnemen voor subcategorieën en belangrijke koppelingen
- Vermijd het herhalen van dezelfde zoekwoorden in meerdere koppen
- De volledige pagina-inhoud in een H-tag schrijven
- Geen H-tags in koppen gebruiken
- De volgorde van H-tags omkeren
- H1 gebruiken voor alle koppen op één pagina, behalve wanneer u even belangrijke onderwerpen op één pagina markeert
- Het behandelen van soortgelijke onderwerpen of het targeten van dezelfde zoekwoorden, zowel op uw hoofddomein als subdomeinen
Stap 7: Controleer het robots.txt-bestand van uw site
Voor deze stap, neem een kijkje op uw robots.txt bestand en kijk voor eventuele "Disallow" lijnen in.
Het hebben van deze betekent dat een of meer van uw links zijn geblokkeerd van zoekmachines en kan niet worden weergegeven in toekomstige zoekresultaten.
Door niet te verbieden welke websites te crawlen en degenen die moeten worden, zal dit helpen niet alleen de zichtbaarheid van uw website te verhogen, maar ook uw zoekopdracht rankings ook.
Afgezien van dat, zorg ervoor dat update alle niet-toegestane links te worden in kleine letters.
Neem vervolgens de tijd om voor iedereen een robots.txt te maken als je meerdere subdomeinwebsites hebt.
Verwijder daarna alle parameter-URL's, niet-indexeerbare pagina's en voeg de rel="alternate"-tag voor de sitemap toe.
Tot slot, altijd gebruik robots.txt goed met behoud van de website. Er zijn twee keer over wanneer het te controleren: tijdens de ontwikkeling en na de lancering.
Maak er tijdens de ontwikkeling altijd een gewoonte van om je robots te blokkeren.txt.