För att säkerställa att du som kund och dina slutanvändare får en så snabb och smidig upplevelse som möjligt på våra plattformar, skiljer vi på hur trafik från människor och automatiserad trafik (så kallade botar) hanteras.
Automatiserad trafik är ett växande problem – vi skyddar användarupplevelsen
Under en genomsnittlig månad hanterar vår plattform över 150 miljoner trafikförfrågningar. Av dessa utgör endast cirka 1,5–2% verkliga mänskliga besökare som faktiskt interagerar med din hemsida.
Samtidigt består ungefär 15% av trafiken av skadliga eller oönskade botar, som vi aktivt blockerar genom våra skyddssystem. Dessa botar saknar ofta affärsvärde och kan negativt påverka både prestanda och statistik.
Den största andelen – över 80% – utgörs av legitima automatiserade tjänster, såsom sökmotorer, SEO-verktyg och AI-tjänster som analyserar, indexerar eller samlar in data från din webbplats. Denna typ av trafik är nödvändig i många fall, men kräver särskild hantering för att inte försämra upplevelsen för riktiga användare.
Därför har vi infört en modell för trafikseparering, där mänsklig trafik prioriteras till ett separat, högpresterande nätverk. Det säkerställer att din hemsida alltid levererar en snabb, stabil och optimerad upplevelse – för dem det verkligen gäller.
Trafikseparering – Två olika tekniska miljöer anpassade efter syfte
• Bottrafik (t.ex. sökmotorrobotar, analysverktyg och webbcrawlers) omdirigeras automatiskt till ett dedikerat servernätverk. Detta nätverk är särskilt anpassat för att kunna hantera stora mängder samtidiga anrop och datainsamling, utan att det påverkar prestandan för den riktiga användartrafiken. Det är stabilt och tillförlitligt, men inte optimerat för snabba laddtider.
• Mänsklig trafik (från riktiga användare och kunder) prioriteras till vårt högpresterande servernätverk. Denna infrastruktur är särskilt finjusterad för att ge snabb laddning, hög tillgänglighet och optimal användarupplevelse. Det innebär korta svarstider och minimal risk för fördröjningar eller störningar.
Vad innebär det för dig som kund?
• Snabbare och smidigare användarupplevelse för dina besökare, särskilt under högtrafik.
• Stabilitet och kontroll över trafikmönster, där vi säkerställer att botar inte “konkurrerar” med riktiga användare om resurser.
• Skydd mot överbelastning, vilket minskar risken för prestandaproblem vid till exempel SEO-scanning eller attacker från skadlig bottrafik.
• Mer tillförlitlig statistik i analysverktyg – eftersom endast mänsklig trafik ligger till grund för användarbeteenden, klickmönster och konverteringsdata får du en mer korrekt bild av hur dina riktiga besökare agerar.
Hur påverkas analys- och SEO-verktyg?
De flesta moderna SEO- och analysverktyg, såsom Googlebot, Ahrefs, SEMrush och liknande, hanteras via vårt särskilda bot-nätverk. De får tillgång till webbplatsens innehåll i enlighet med våra riktlinjer för automatiserad trafik. Detta innebär att:
• Indexering påverkas inte negativt. Vi säkerställer att legitima sökmotorer har tillgång till det innehåll de behöver för att katalogisera sidor korrekt.
• Laddningstider och prestandapoäng i rapporter kan dock avvika, eftersom tjänster som t.ex. Google Lighthouse, PageSpeed Insights och liknande mäter prestanda från ett automatiserat perspektiv – inte från vårt högpresterande nätverk som är reserverat för mänsklig trafik.
• Resultaten från dessa verktyg speglar alltså inte nödvändigtvis den faktiska upplevelsen för dina riktiga besökare, som får en betydligt snabbare och mer optimerad upplevelse i realtid.
⚠️ Viktig information för dig som använder tredjepartsverktyg:
Om ett verktyg:
• Gör för många samtidiga förfrågningar, eller
• Inte följer våra regler, eller
• Inte identifierar sig korrekt som ett verktyg eller en bot (t.ex. utger sig för att vara en vanlig användare)
…då kommer den trafiken att klassificeras som skadlig och blockeras automatiskt av våra säkerhetssystem. Det gör vi för att skydda plattformens stabilitet, din statistik och framför allt – dina faktiska användares upplevelse.
Varför AI-tjänster ofta blockeras hos oss
AI-baserade tjänster som samlar in data från webben – exempelvis för att träna språkmodeller, bygga kunskapsdatabaser eller generera svar – har ökat kraftigt de senaste åren. Många av dessa använder så kallade web crawlers som automatiskt besöker tusentals webbplatser och samlar in stora mängder text- och bildinnehåll.
Vi blockerar ofta denna typ av trafik – och det finns goda skäl till det:
• Rättighetsskyddat material: Våra kunders webbplatser innehåller ofta innehåll som är skyddat av upphovsrätt, såsom produktbeskrivningar, logotyper, kampanjer, texter och bilder. När AI-tjänster samlar in detta utan tillstånd innebär det en rättslig och etisk risk – både för oss som plattform och för våra kunder.
• Ingen transparens eller kontroll: Många AI-botar identifierar sig inte tydligt och lämnar varken information om syfte eller kontaktväg. Det gör det svårt att avgöra hur innehållet kommer att användas – och om det lagras, tränas på eller återpubliceras i framtida AI-tjänster.
• Affärsrisk för våra kunder: Innehåll som används för AI-träning kan senare visas i sammanhang utanför kundens kontroll – exempelvis i chattbotar, sökmotorer eller andra automatiserade sammanställningar – vilket kan minska både trafiken till sajten och kontrollen över varumärket.
Vårt ansvar är att skydda våra kunders innehåll, varumärken och data. Därför är det vår policy att blockera eller begränsa åtkomsten för AI-botar och tjänster som samlar data utan tydlig transparens och tillstånd.
Relaterad till