Nyheter, Prylar, Android, Mobiler, Appnedladdningar, Android

Vanliga frågor: Hur exakta är trafikuppskattningarna på SEO-verktyg?

Att fatta datadrivna beslut för att optimera din webbplats är en grundläggande SEO-strategi och webbmarknadsföring. Problemet är att du måste ha korrekt data innan du låter den påverka din marknadsföringsstrategi.

Det är bra när det är din sida. Du kan installera vilken analys du vill direkt på din webbplats och samla in så exakta möjliga data. Du kanske har några problem med, säg, avvisningsfrekvens, och du kommer inte att exakt spåra personer som har skript inaktiverade, och kanske bots kan störa dina mätvärden något, men i allmänhet är det ganska korrekt.

Hur är det med konkurrenskraftig sökordsforskning? Vad händer om du vill se statistiken för en webbplats du inte äger?

De bästa uppgifterna skulle komma från en titt på deras privata trafiknummer. Men du kan inte komma åt deras analysprogram och skörda den själv. De flesta webbplatser publicerar inte heller sina mätvärden offentligt. Vad kan du göra?

Svaret är att använda tredjepartsanalysplattformar. Webbplatser som Semrush, Ahrefs, SimilarWeb, Mozoch till och med Neil Patel (tidigare Ubersuggest) har trafikuppskattare.

Frågan är, hur exakta är de?

Tyvärr finns det många faktorer som spelar in, så det är svårt att svara på det utan ett tillräckligt stort urval. Om du vill tillhandahålla din organiska trafikdata och uppskattningarna från några av dessa webbplatser, skicka mig en rad.

Jag kan säga dig en sak direkt: de är inte så exakta. Semrush, till exempel, hävdar att innehållsdriven trafik har minskat med 14,32 % under de senaste 30 dagarna. Min Search Console-data säger mig att organisk trafik är upp med 23%; det är stor skillnad mellan dessa siffror.

Betyder det att verktyg som Semrush inte är värda att använda? Inte alls. Det betyder att du måste vara medveten om hur du använder dessa verktyg på rätt sätt innan du gräver igång med de mätvärden de ger dig.

30 sekunders sammanfattning

Datadrivna beslut är centrala för att optimera din webbplats, men att skaffa korrekt data, särskilt för webbplatser som inte ägs av dig, kan vara en utmaning. Tredjepartsanalysplattformar som Semrush, Ahrefs, SimilarWeb och Moz erbjuder trafikuppskattare, men deras noggrannhet varierar. Även om de inte ger exakta värden, kan dessa verktyg hjälpa till genom att presentera en grov jämförelse av data mellan olika webbplatser. Trots sina begränsningar kan dessa estimatorer ge insikter i rankningen av specifika sidor och en allmän översikt över en webbplatss prestanda.

Är dessa nyckelordsundersökningar och trafikmått användbara?

Tjänster som Ahrefs och Semrush använder många olika datakällor för att samla in sin information. De gör sitt bästa för att vara korrekta i verkligheten, men kan de någonsin nå dit?

Sanningen är inte riktigt, och det finns många anledningar till att dessa mätvärden alltid kommer att vara grova uppskattningar jämfört med deras faktiska trafik. Men bli inte avskräckt; det finns ett ljus i slutet av tunneln.

1. Den första är att “verkligheten” är ganska svår att mäta! Mellan människor som blockerar skript, integritetslagar som begränsar vad som kan spåras i olika geografiska regioner och den inneboende svårigheten att uppskatta något om en webbplats som du inte har direkt tillgång till, gör du bara välgrundade gissningar. Utöver det tenderar även förstahandskällor som Google och andra sökmotorer att använda statistiskt urval mer än faktisk övervakning.

Med tanke på den stora mängden information som genereras dagligen på internet kan sätta saker i perspektiv. Inte ens megaföretag som Google eller Amazon har datorkraft att övervaka och rapportera om allt för alla korrekt. Det är bara inte genomförbart.

2. Det andra skälet är att “verkligheten” är subjektiv. Om du gör en sökning på Google och sedan loggar ut från ditt Google-konto och utför den exakta sökningen igen, får du något annorlunda resultat. Din kompis som sitter bredvid dig kommer att få andra resultat. Någon annan i hela staden kommer att få andra resultat, och det kommer någon i hela landet också. Googles resultat, och de flesta sökresultat på webben, är personliga.

Varje utomstående part som försöker mäta data kommer också att bli föremål för den anpassningen. De kan skörda enorma mängder data, men de måste fortfarande ta hänsyn till geografiska skillnader, testning av webbplatsdelning och till och med variationer i det dagliga intresset och blandade Googles algoritmer.

3. Det tredje skälet är frågan om att uppskatta CTR (klickfrekvens). Dessa skattningsverktyg kan avgöra att en fråga har 5 000 sökningar i månaden, och en SERP nummer ett får 28 % av klicken på Google, för uppskattad webbplatstrafik på 1 400 besökare per månad. Vad händer när klickfrekvensen inte är i närheten av 28 %? Tänk om det är 6%? Att uppskattningsvis 1 400 besökare per månad skulle vara närmare 300 besökare.

Sträck ut denna logik över tusentals sidor på en webbplats, och deras totala trafik kan vara en bråkdel av deras uppskattningar. En “nummer ett” rankningsposition är inte alltid högst upp på sidan.

4. Lägg därtill splittestning och all reklam som pågår, och du inser att internet är en mycket anpassad plats, och allt händer bakom kulisserna. Visst, du är van vid att veta saker som ditt Twitter-flöde, ditt Facebook-flöde och dina sponsrade nyhetsartiklar är alla anpassade, men det finns mycket mer anpassning och anpassning där du inte kan se det.

Utvalda utdrag på Google Discover, lokala resultat, shoppingresultat för e-handelsbutiker och Google Ads visas alla över det första resultatet på Google, och dessa är också personliga och har en betydande inverkan på din klickfrekvens.

5. Det sista skälet är att dessa webbplatstrafikuppskattare bara tittar på organiska sökordsrankningar och mäter söktermer. Bakåtlänkshänvisningstrafik från länkbyggande ansträngningar, sociala medier, direkt trafik och e-posttrafik – ingen av dessa trafikkällor beaktas i dessa trafikuppskattningar.

6. Dessa verktyg har inte samma hårdvara eller mjukvara som Google. Ahrefs hårdvara är ganska imponerande, men det är fortfarande en bråkdel av storleken på Googles datacenter. Ahrefs rapporterar till exempel att jag har 16,9 000 sökordsrankning på Google.

Ahrefs rapporterar att jag har 8,8k och Moz rapporterar att jag bara har 14.

Är något av dessa korrekta? Nej – Ahrefs sökordslista är ganska omfattande (cirka 4,4 miljarder sökord), men ingen har hela sökordslistan förutom Google.

Allt detta är att säga att trafikdata som tillhandahålls av dessa plattformar sannolikt inte är riktigt korrekta för din webbplats analysrapport.

Därmed inte sagt att dessa trafikuppskattningar är värdelösa. Jag kommer till det lite senare.

Var kommer trafikuppskattningsdata ifrån?

En sak som är värd att veta är varifrån de data du ser kommer. Alla dessa analysföretag använder sina proprietära datakällor, men ibland pratar de lite om det, och du kan dra några slutsatser.

Ta Ahrefs till exempel. Ahrefs har en hel sida dedikerad till att prata om var deras trafikdata kommer ifrån. När allt kommer omkring är noggrannhet väsentligt, och tillräckligt många människor är oroade över exaktheten som Ahrefs vill säkerställa att människor är säkra på sin rapportering. Därför denna sida:

Den korta versionen för Ahrefs är att de börjar med data från Googles sökordsplanerare (en del av deras PPC-erbjudanden, om du inte visste det), och de filtrerar det med hjälp av klickströmsdata från olika webbläsare och plugin-källor. De delar också upp organiska sökord som limmas ihop i Googles sökordsplanerare, vilket kan vara en ganska stor källa till förvirrande data när du försöker använda den själv.

Uppskattningen av sökvolymen för ett enstaka sökord kan innehålla hundratals liknande long-tail-sökord, vilket är mycket grova uppskattningar.

Kul fakta: Fram till för ett par år sedan fick Ahrefs mycket av sin data från en källa som du kanske inte förväntade dig: ditt antivirusprogram. Specifikt behandlade de Jumpshotsom använde Avast för att spåra alla webbadresser som besöktes av personer som använder Avast. (Eller åtminstone de som valde att delta, även om det är oklart hur många av dessa personer som visste vad de gick med på att dela.) Jumpshot stängdes av efter att allmänhetens protester över spårning ökade.

Semrush skrev om deras version på Reddit; de tar stora mängder data från sina kunder, förmodligen anonymiserade:

De kombinerar det med klickströmsdata från okända källor, använder maskininlärning för att ta reda på algoritmer som exakt förutsäger trafik med deras befintliga sökdata, och extrapolerar sedan över den stora industrin med dessa modeller.

Den som inte är djup i sökmotoroptimering kan bli förvirrad, och det är bra. Det finns mycket att ifrågasätta där, och faktiskt, användare på Reddit utmanar det också.

Hur stora är provstorlekarna? Vilka är datakällorna och är de representativa? Vad är klickströmdata? Svaret på alla dessa frågor, och mer, är bara en ganska stor axelryckningsemoji.

Och naturligtvis finns det inneboende problem med maskininlärning. Det är ganska lätt att få ett neuralt nät för att förutsäga dina data exakt, och det är också svårt att få det att extrapolera dessa resultat över en större pool. Maskininlärning är benägen att plocka upp mönster och kryphål och kunskapsluckor och använda dem som inflytelserika faktorer när de inte är relaterade. Det är ett problem som världens främsta dataforskare fortfarande brottas med, så det är fullt giltigt att ifrågasätta det.

Naturligtvis kommer alla analysföretag att prata om hur deras analyser är den bästa, mest exakta analysen som finns, hur de har den hemliga såsen som gör dem bättre än alla andra, och så vidare. Semrush har till och med en sådan rad:

“I den amerikanska databasen körde vi en konkurrensutsatt studie och fann att sökvolymen Semrush var den mest exakta bland ledande konkurrenter när det gäller visningar i GSC.”

Så du undersökte dig själv och fann att du var bäst, va? Vi har alla bara tillgång till det som offentliggörs på internet. Denna digitala marknadsföringskopia är dock ganska standard.

Det är omöjligt att avgöra att en app har mer exakta data än de andra om vi inte tar ett massivt urval från hundratusentals webbplatser som delar sina privata mätvärden och jämför dem på varje plattform.

Kanske kommer något sådant att hända i framtiden.

Vad är kriget mellan analys och integritet?

Ett av de viktigaste problemen med webbplatsspårning och analys är användaren integritetsproblem.

Hur mycket tror du att ett företag som Google vet om dig? Svaret är “precis allt”. Naturligtvis har de inte underlag med din personliga information. Ändå kan de vara väldigt snäva och exakta när de riktar in sig på dig, specifikt, även om de tekniskt sett kan hävda att de är anonyma.

Men det är Google, dock. De är ett unikt fall.

Förutom att de inte är det. Det finns tusentals företag där ute för att köpa data från alla möjliga källor de kan, validera dessa data över olika datapooler och sälja dessa data till andra företag. De kallas datamäklare, och de sträcker sig från mycket anonyma samlade datapooler till hyperspecifik data som människor kan använda för att doxa dig individuellt.

Hur mycket av detta är korrekt, och hur mycket är rädsla? Tja, det är det som är problemet, eller hur? Det finns ingen insyn i branschen, och om det fanns skulle många människor plötsligt bli livrädda för övervakningsstaten. Den stora mängden information du ger bort bara genom att existera online, konsumera gratis innehåll och använda internetanslutna enheter är häpnadsväckande.

Det finns en konstant push-and-pull mellan de företag som vill skörda, använda eller sälja denna data och pressen att vara etisk. Integritetslagarna går framåt i rekordfart, där EU driver all slags lagstiftning som kräver rätten till privatliv, rätten att bli glömd, rätten att välja bort som standard och till och med saker som transparens i hur algoritmer som Facebooks, Twitters och Googles alla fungerar.

Ju mer data ett analysföretag kan samla in, och ju mer exakt de kan samla in det, desto bättre mätvärden kan de ge dig. Men desto mindre sekretess kommer en individ eller grupp att ha. Var ska gränsen dras? Det är inte en fråga jag kan svara på.

Denna praxis är naturligtvis inte unik för internet. Regeringar och privata myndigheter övervakar allt från din el- och vattenanvändning till trafik på vägar till närvaro vid evenemang och mer. Internet är så djupt kopplat till våra liv att det är lätt att se konsekvenserna av alltför invasiv spårning.

Hur som helst, allt detta är en utvikning. Låt oss fokusera om.

Hur kan du använda trafikdata effektivt?

Problemet med organisk söktrafikdata är att den ofta inte är så exakt. Trots allt jag har sagt ovan om integritet och spårning är det fortfarande ganska utmanande att spåra den kollektiva rörelsen för miljarder människor 24 timmar om dygnet över miljarder webbplatser. På massiva aggregerade nivåer är uppgifterna ganska korrekta! Luddigheten kommer i vägen när du borrar ner till en specifik datapunkt och ställer en fråga som “hur är trafiken på X-webbplatsen de senaste 30 dagarna”.

Är data överhuvudtaget värda att använda?

Säker! Men du måste fortfarande förstå att du måste jämföra äpplen med äpplen, inte äpplen med apelsiner.

Som nämnts ovan visar mina mätvärden att min trafik är det upp 23% under de senaste 30 dagarna med 34 000 organiska sidvisningar (åtminstone när detta skrivs):

Samtidigt berättar Semrush för alla att det sjönk med 14,32 % och att jag har ungefär 2,9 000 besökare per månad. Det är en ganska stor skillnad och inte i närheten av korrekt:

Så om jag skulle använda min data för att jämföra mig med Semrushs data om mina viktigaste konkurrenter, skulle jag förmodligen sluta med en skev och felaktig bild av händelserna med den konkurrentanalysen.

Men om jag jämför Semrushs data för mig själv kontra mina konkurrenters, får jag en mer exakt jämförelse. Om det står att jag är nere med 4,7 %, men mina konkurrenter är nere med 50 %, tyder det på att jag gör det bättre än de gör. Även om de växer kan jag kanske anta att de växer långsammare än jag baserat på deras organiska sökord som rankas.

Du måste också komma ihåg att informationen du ser ofta bara fokuserar på PPC eller specifika typer av sökord. En enskild webbplats kan rankas för tusentals, tiotusentals eller fler sökord. Dessa nyckelord kan sträcka sig allt från några dussin klick per dag till tusentals, och varje bit av filtrering och extrapolering som ett företag behöver göra lägger till ett lager av luddighet till data.

Sanningen är att informationen du får från webbplatser som Ahrefs, Semrush, Neil Patel eller någon annan kommer att vara begränsad och otydlig, bara per definition. Ingen utan direkt tillgång till din webbplatsanalys kan få korrekt information om dig. Även det har ett lager av dis, med problem som provtagning och problem med avvisningsfrekvensen.

Det betyder inte att det inte är till hjälp. Det betyder bara att du behöver använda den genom att jämföra den med sig själv, äpplen med äpplen, och försöka undvika att förlita dig för mycket på specifika datapunkter. Det är mest fördelaktigt när man tittar på enorma urvalsstorlekar och avgör vilka sidor som rankas för hundratals eller tusentals värdefulla sökord, särskilt i motsats till deras andra innehållsmarknadsföringsinsatser. Siffrorna behöver inte vara superkorrekta när du använder trafikuppskattningar på detta sätt, bara procentsatserna i förhållande till resten av deras webbplats. Om flera verktyg rapporterar att en enskild sida är ansvarig för 70 % av deras trafik, kan det vara värt att titta närmare på, även om uppskattningarna är lite lägre.

Har du funnit att trafikuppskattare är ganska exakta eller långt borta? Vad hände när du körde din webbplats genom trafikuppskattare som Ahrefs eller Semrush – var det ganska nära vad Google Search Console rapporterar? Jag har inte sett många marknadsförare prata om detta ämne i detalj, så det skulle vara till hjälp för oss alla att få igång en konversation. Dela gärna med oss ​​i kommentarerna nedan!