Vad ska man göra? om Google Penguin fångade dig. Varför behövdes Penguin-algoritmen?


Penguin – sökalgoritm Googles system, vars initiala roll var att bekämpa onaturliga (köpta) länkar. Det första släppdatumet för Penguin 1.0 är den 24 april 2012.

Nästa uppdateringar:

Lanseringen av Penguin 4.0-uppdateringen har försenats flera gånger. Utgivningen av uppdateringen var planerad till slutet av 2015, men arbetet med att förbättra algoritmen pågick till september 2016.

Vi presenterar för dig en översättning av en artikel från tjänstemannen Google blogg: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html

Penguin blev en del av Googles kärnalgoritm

Googles algoritm använder mer än 200 unika signaler, eller "tips", för att snabbt hitta vad en användare letar efter. Dessa signaler inkluderar vissa ord på webbplatssidor, innehållsuppdateringsfrekvens, webbplatsregion och PageRank. En sådan Google-signal är Penguin-algoritmen, som lanserades 2012 och uppdaterades den 23 september 2016.

Efter förbättringar och tester rullar Google nu ut uppdateringen av Penguin-algoritmen på alla språk. Här är de viktigaste ändringarna du kommer att se, som var bland de populära förfrågningarna från wemasters:

  • Nu fungerar Penguin i realtid. Historiskt sett har listan över webbplatser som påverkats av Penguin uppdaterats med jämna mellanrum. När webbansvariga förbättrade sina webbplatser uppdaterade många Google-algoritmer information om dem ganska snabbt, men algoritmer som Penguin tog tid att uppdatera data. Nu uppdateras Penguin-data i realtid, vilket gör att ändringar på sajten kommer att märkas av Google mycket snabbare. Som regel träder de i kraft direkt efter att roboten genomsöker och indexerar sidorna igen. Det betyder att Google inte kommer att meddela några fler uppdateringar.
  • Pingvinen har blivit mer detaljerad. Det nedgraderar för närvarande skräppostsidor genom att ändra rankningar baserat på spamsignaler, snarare än att påverka rankningen av webbplatsen som helhet. Det vill säga att det finns en underskattning i utfärdandet av en eller flera sidor, och inte hela webbplatsen.

Internet har förändrats avsevärt under åren, men som Google sa i sitt ursprungliga inlägg bör webbansvariga vara fria att fokusera på att skapa övertygande och användbara webbplatser. Det är också viktigt att komma ihåg att uppdateringar som Penguin bara är en av över 200 signaler som Google använder för att rangordna webbplatser.

Efter att Google Panda straffat mig för duplicerat innehåll i februari 2012 och i mer än 2 månader sjönk trafiken under sockeln (jag visade detta för dig i den här artikeln om ), då gav jag verkligen upp och ville inte marknadsföra bloggen kl. Allt.

Jag slutade skriva artiklar, göra länkfrämjande, organisera tävlingar etc. med samma entusiasm. I verkligheten, för att vara ärlig, fanns det en del depression. Tja, hur är det, du puffar upp, puffar upp, allt går uppför som det ska och sedan BAM, trafiken sjunker och du vet inte vad som händer.

Och bara för denna nedgång i aktivitet smög Google Penguin upp bakom mig och straffade mig dessutom. För vad? Och för att jag misstänkte mig för onaturlig länkkampanj. Och förmodligen inte ens för de onaturliga inkommande länkarna själva, utan för nedgången i deras antal.

Nu, 2014, kom jag redan på vad som var fel (varför närvaron har minskat kraftigt sedan februari), det är en fråga om DUBLIKATER, men tyvärr är det för sent, pingvinen applicerade filtret. Tack gode gud att allt slutade bra och jag kom mig ur honom.

Låt oss göra allt klart för nybörjare, jag börjar från början och i ordning. Här är vad du lär dig av den här artikeln:

Google Penguin och Panda filter - vad de straffar för

Låt oss börja med en förståelse för vad Google främst straffar bloggar för och påtvingar dem de så kallade panda- och pingvinfiltren. Låt oss titta på pandan först, eftersom hon straffade mig först.

Google Panda-algoritmen straffar innehåll. Det vill säga för dina misstag i bloggens innehållskomponent. Och tro mig, vi har många skolor. Jag lyfte fram flera punkter här:

1. Själva innehållet. Om din blogg för det mesta inte är det unikt innehåll(skriv om eller ännu värre, copy-paste, dumt kopierat och inklistrat), så får du ett filter. Innehållet på bloggen måste vara unikt. Jag kopierade ingenting och klistrade in det i mitt eget - kom ihåg det.

2. Omoptimering av innehåll. Om alla dina artiklar är fyllda med sökord blir det för mycket framhävning nyckelord, understrykningar, kursiv stil, för många sökord i h1, h2, h3 osv, överspam i rubriken, beskrivning, nyckelord osv, då kan du även få en rubrik för detta. Det är inte så att det är möjligt, det är precis vad du får i huvudet.

Om du markerar något, gör det på ett sådant sätt att det är bekvämt för användaren först och främst, och inte för att på något sätt fuska och optimera det. Känner du till ett roligt skämt om en SEO? Lyssna:

En SEO-specialist kommer till en bar, restaurang, köper alkoholhaltiga drycker, klubbar, de bästa barerna i Moskva, beställer en bankett...

Detta borde inte hända dig!)))

3. Duplicerat innehåll. Mitt favoritämne av de två senaste artiklarna. I google resultat bör endast innehålla huvudsidan, sidor och inlägg (artiklar). Allt. Det bör inte finnas några andra sidor med samma innehåll i sökresultaten. Som praxis visar lider mer än 90% av bloggarna av sjukdomen dubbletter. Lösning och .

4. För många annonser. Om du har mycket reklam på din blogg, så ser även Google Panda detta och sänker din blogg i sökresultaten. nyckelfrågor. Pandan gillar särskilt inte reklam i början av artiklar. Återigen, 90 % av bloggarna har Google- eller Yandex-annonsering i början av sina artiklar.))

Det här är väldigt dåligt. Jag gjorde personligen ett experiment på min blogg. Jag ville veta hur annonsering påverkar positioner. Först tog jag bort annonser i början av artiklar. Trafiken har ökat lite. Därefter samlade jag alla de artiklar som oftast besöks av besökare från sökmotorer, tog HELT bort reklam från dessa artiklar och...

Efter 1-1,5 vecka nästan fördubblades trafiken på dem. Här är ett skämt till dig. Kort sagt, tänk på det. gör inte din blogg till ett trafikljus för reklam, sätt in den så att den är osynlig för besökaren.

5. Avvisningsfrekvens. Vad är detta? På ryska är det när en besökare kom till din blogg för en artikel och efter 2-3 sekunder, ja, 5 eller 10, stängde fliken. Och ju mer det är, desto värre är det. 100 personer kom till artikeln, 80 personer lämnade omedelbart - detta tyder på att 80% av människorna anser att den inte är informativ.

Det vill säga att folk inte hittade det de letade efter i den. Därför är det värt att sänka det i sökresultaten. Vilka slutsatser kan du dra? Kanske är rubriken på artikeln inte rätt, det finns inte tillräckligt med innehåll, personen blev skrämd av designen, kanske börjar någon sorts musik spelas i bakgrunden (detta är generellt jävligt, jag skulle omedelbart filtrera sådana sajter)

Om du tar alla dessa 6 poäng tillsammans, så förstår du förmodligen redan vilken artikel som kommer att bli Google Pandas favorit. Och det här är en cool, intressant, unik artikel vars titel kommer att vara catchy och informativ. Så att besökaren läser titeln och förstår, "Det är det, det här är vad jag behöver, jag hittade det jag letade efter."

En artikel där det inte finns någon copy-paste, en artikel som inte är fylld med sökord, inte överoptimerad, där det inte finns några säljlänkar och en massa reklam... En artikel som inte har tvillingbröder och som läses från pärm till pärm inte på 5-10 sekunder, utan på 1-2- 3-5 minuter och de vill också läsa andra artiklar. =)

Det är detta vi bör sträva efter, kamrater. Detta är enligt google panda. Det här lilla djuret kom till mig i februari 2012, tittade på de tusentals dubbletter som plötsligt dök upp från ingenstans och införde sanktioner mot hela bloggen.

Fram till detta ögonblick nådde trafiken 6 200 besökare per dag och fortsatte att växa med stormsteg. Tja, jag körde ihop.))

Nu försvinner dubletterna sakta och jag ser en ökning av trafiken från Google:

Det har alltid varit 150-170 personer per dag från Google, men här finns det redan 280-330. Processen har börjat. Jag känner att när dubletterna försvinner kommer trafik från Google till och med att gå om Yandex =)

Vad har hänt bra blogg? Det här är en blogg som ständigt utvecklas och ger människor högkvalitativa, unika och användbart innehåll höger? Höger. Hur avgör Google om det är av hög kvalitet eller inte? Intressant eller inte?

Väldigt enkelt. När det gäller beteendefaktorer – en gång. För inkommande länkmassa - två. Det första är klart, ca beteendefaktorer Jag ska inte säga så mycket, läs och jag har artiklar på min blogg om dem på Internet.

Låt oss analysera inkommande referensmassa. Om bloggen utvecklas och ständigt producerar nyttiga och intressant innehåll, då bör i alla fall andra webbplatser och bloggar i nätverket länka till denna blogg. Så? Det vill säga att länkmassan ska öka konstant. Länkar borde gå och gå...

Från hemsidor och bloggar, från sociala nätverk, bokmärken, forum osv. och så vidare. Hur som helst... MEN! Länkar är naturliga och av hög kvalitet - en, fortsätt hela tiden - två. Du kan läsa om naturliga och icke-naturliga länkar på Internet. Jag ska berätta mer om kvalitet senare.

Kort om naturligt och onaturligt. Naturliga - de som andra människor lägger utan dina önskemål osv. De gillade ditt inlägg och inkluderade länken. Inte naturligt - köpt eller speciellt placerat någonstans av dig, så länge det finns en länk som leder till din blogg, vilket kommer att bidra till att öka din position i PS. Något som det här.

Om Google-pingvinen ser att det finns länkar till dig från andra webbplatser och bloggar, men de flesta av dem inte är naturliga, kommer den att straffa dig. Om Google-pingvinen ser att det finns naturliga länkar till dig, bra, men om de kom och sedan bam och slutade komma, då kommer han att straffa dig också. För vad?

Och för att din blogg har slutat utvecklas. Det är enkelt. Detta är en slags signal till Google, som gör det tydligt att antingen har din blogg verkligen bleknat, det vill säga besökarna älskade ditt innehåll och delade länkar till det i andra källor, och sedan slutade, eller så köpte du länkar och sedan slutade göra detta.

Det vill säga att det till exempel kom 200 inkommande länkar till dig, och nu är det 100. Det betyder att någonstans du fuskat har du förmodligen köpt tillfälliga länkar, eller helt enkelt där det fanns länkar till dig, de sajterna och bloggarna dog.

Google förstår allt detta, det tittar på dynamiken i länkmassatillväxt. Om han ser en kollaps, kan sanktioner utdömas mot dig. Det är inte möjligt, men de kommer att påtvinga det.

Slutsats: bloggen måste ständigt utvecklas. Skriv ständigt användbart och intressant innehåll, och ökar därigenom STÄNDIG inkommande länkmassa.

OK. Vi förstår varför pingvinen straffar Google, men hur kan du ta reda på om några pingvinsanktioner har införts på din blogg? För att avgöra detta måste du först veta vilka typer av filter Penguin har.

Vilka är Google Penguin-filter (typer)

Penguin har 2 typer av filter:

1. Manuellt filter
2. Filtrera automatiskt

Hur tar man reda på vilket filter din blogg ligger under och om det är det alls? Låt oss börja med det manuella filtret. Jag ska berätta hur min blogg kom under den och hur jag kom ur den ganska snabbt, även om jag var under den i nästan 2 år.

Dessutom löstes problemet i verkligheten snabbt, men min ovilja att förstå detta problem försenade utgången under det manuella filtret i så mycket som 2 år. Kort sagt, jag tog honom inte på allvar och bildligt talat låtsades jag bara att jag ville komma ut under honom.

Så! I allmänhet kommer den 4 maj 2012 till min panel google management webbansvariga (avsnitt - söktrafik manuella åtgärder ) här är brevet:

Det vill säga, Google säger till mig att den har hittat onaturliga länkar som leder till min blogg och påtvingar mig ett manuellt filter. Varför manuell? Men för att jag fick ett brev. När den tillämpas automatiskt filter brevet kommer inte fram.

Tja, kort sagt, jag tittade på det här brevet, nickade på huvudet, log och gick vidare med mina ärenden. Eftersom trafiken hade minskat på grund av dubbletter (som jag inte visste om då) sedan februari, brydde jag mig ärligt talat inte om, filter var inte filter, pandor, pingviner osv.

Jag gav upp allt. Jag skrev bara dumt inlägg ibland, var upptagen med att flytta till ett nytt hus, sedan till osv. Kort sagt, det var en kraftig nedgång i min aktivitet. ETT HELT ÅR har gått!)))) Och först då tänkte jag något - är det inte dags att ta reda på problemet med att ta bort filtret?)))

Och först den 3 mars 2013 skickar jag den första begäran om återverifiering till Google och ber dem att granska min blogg för förekomsten av icke-naturliga inkommande länkar och ta bort filtret:

Jag säger hur vit och fluffig jag är, det gör jag inte igen, så jag ändrade designen på bloggen, bilderna är alla unika, jag skriver alla artiklar själv, la la la... Det finns en sådan knapp i samma avsnitt:

Skickat. Efter 3 dagar får jag svar:

Det vill säga, de kollade min blogg och det verkar som om den fortfarande bryter mot riktlinjerna för kvalitetssäkring. Länkarna till mig är fortfarande onaturliga. OK. Jag skickar förfrågan igen och då blir jag ännu mer indignerad och säger varför, jag har inte brutit mot den, det är inte mitt fel, han kom själv och allt sånt.

Återigen får jag svaret, nej, du kom själv... Skyldig...))) Det vill säga, de tar inte bort filtret. ok! Jag skickar förfrågan igen och svär redan... Som, vad är det, visa mig länkarna, det är redan 1500 av dem som kommer till mig, jag är ingen trollkarl och jag kan inte förstå vilka som är bra och vilka är dåliga.

Jag får detta svar:

Det vill säga, de säger återigen att sidan bryter mot rekommendationerna, men de visade även till och med 3 länkar som exempel. Jag tittade på alla dessa länkar och såg att det här är jävligt. Hur kan du anse att de inte är naturliga om folk själva lägger upp dem på sina bloggar??? Okej, jag håller med om en, jag höll en tävling, men resten är 2 för vad?

Jag skriver ett brev till Google igen och säger, kamrater, har ni blivit galna med era algoritmer? Räknar du med onaturliga länkar bara naturliga länkar. Folket installerade dem själva. Jag får svaret igen - din sida bryter fortfarande mot rekommendationerna och återigen visar de fler exempel på länkar.

Jag tittar på dem igen och ser att de alla är naturliga. Jag köpte dem inte, folk installerade dem själva. Och precis så skickade jag verifieringsförfrågningar 9 gånger. Allt är värdelöst. Jag ville redan skriva obsceniteter till dem som stöd, men jag insåg att detta definitivt inte skulle leda till bra, så jag gick till Google-forumet.

Jag bestämde mig för att ställa frågor där. Jag förklarar situationen, jag säger att Google skickar brev om att min blogg bryter mot rekommendationerna, hur kan det vara, eftersom alla länkar är naturliga. Jag fick en massa värdelösa svar där och det slutade med att jag gick därifrån.

Min slutsats var tydlig: Google satte orättvist ett filter på mig.

Jag tror faktiskt, killar, att Gogol påtvingade mig ett filter just inte för onaturliga länkar, utan för en minskning av det totala antalet inkommande länkar. Jag slappnade av efter pandan, slutade ta emot inkommande länkar av hög kvalitet och så slog pingvinen mig med sin fena =)

Hur jag kom ut ur Gogols pingvins manuella filter

Men jag tänker inte sitta, gråta i en näsduk och lämna allt som det är? I början av 2014 bestämde jag mig för att ta mig samman och bli av med detta gissel, detta googlefilter. Jag började gräva olika information om att ta bort filtret, läst en massa artiklar och fall, tittat på videor, deltagit i webbseminarier om SEO, tittat på kurser osv.

Som ett resultat fick jag en tydlig förståelse för vad jag behöver göra för att få bort bloggen ur filtret. Och jag var tvungen att göra följande:

1. Samla full lista alla inkommande länkar till min blogg
2. Identifiera dåliga länkar från listan och avvisa dem i Disavow-verktyget
3. Ta bort alla dessa länkar från andra webbplatser (som Google visade mig)
4. Börja få naturliga länkar av hög kvalitet

Under hela januari och februari gjorde jag just det. Den 22 februari skickar jag en begäran om återverifiering och den 2 mars HURRA!!! Jag får ett brev från Google där det står att filtret har tagits bort:

Efter att ha läst det här brevet hoppade jag upp ur stolen, började springa runt i rummet i mina shorts och ropade "Googla jag älskar dig!!!", sedan sprang jag igen i mina shorts till affären, köpte en flaska konjak och blev full som ett odjur =))) Jag skojar förstås... Men min glädje visste inga gränser.

Så där går du! Vad gjorde jag egentligen? Först och främst bad jag alla dessa webbansvariga att ta bort de länkarna som Google hänvisade mig till. Nästan allt togs bort utan problem, vilket stort tack till dem! Men det finns också länkar som jag inte kan ta bort, eller hur? Vad ska man göra med dem?

Vi klistrar in det hela i ett enkelt txt-dokument:

OK. Vi har en komplett lista över alla inkommande domäner till vår blogg. Nu måste vi ta reda på alla dåliga länkar från den här listan och berätta för Google att inte ta hänsyn till dem alls vid rankningen.

Google har ett speciellt verktyg som heter Verktyg för avvisande. Där kan vi ladda upp en lista med länkar som inte bör tas i beaktande av Google, och efter en tid, efter flera uppdateringar, kommer alla dessa länkar inte att beaktas.

Jag kommer att berätta hur detta går till nedan, men frågan är - hur räknar man ut från listan vilka länkar som är bra och vilka som är dåliga? Det finns 2 alternativ här:

Tja, det första alternativet fungerar verkligen, men är inte särskilt effektivt. Varför? Men för att man kan titta på en resurs och se att den verkar vara normal, men i själva verket är den av dålig kvalitet. Kvalitet är först och främst TRUST och SPAM. Mer om detta senare.

Det vill säga att du inte avvisar en länk, och tänker att den är bra, men den är faktiskt dålig. Det första alternativet är också dåligt eftersom det kommer att ta dig mycket tid. Här har jag 1500 inkommande länkar. Tänk om jag går på var och en? Det här är tufft =)

Det andra alternativet är coolt eftersom Checktrust-tjänsten själv följer alla länkar som du visar den, väljer alla dåliga, icke-pålitliga och spammiga från dem och ger dig en KLAR FIL, som du bara behöver ladda upp till Disavow Verktyg och det är allt.

Jag rekommenderar definitivt att du använder det här alternativet, eftersom det är en 100% lösning. Jag skickade in begäran om granskning till Google 9 gånger och bara 10 gånger när jag använde den här tjänsten (mottagen klar fil och skickade det till Disavow Tool) togs filtret bort från mig.

För att använda checktrust-tjänsten behöver du bara:

1. Registrera
2. Lägg till en lista över alla kontrolllänkar till BackLinks Checker-verktyget
3. Skaffa en färdig fil med dåliga länkar
4. Skicka den till Disavow-verktyget.

Låt oss börja. Du kommer inte ha några problem med registreringen. Därefter skapar vi på kontoret nytt projekt Backlinks Checker:

Klicka på "Nästa" och "Bekräfta och placera projektet." Allt. Om 5-10 minuter, eller ännu tidigare, kommer tjänsten att bearbeta alla länkar och ge dig en färdig fil, som du måste ladda upp till Disavow-verktyget för att avvisa dåliga länkar.

Så snart Checktrust har avslutat allt, gå till "Hem", klicka på namnet på vårt projekt och en txt-fil med alla dåliga länkar kommer automatiskt att laddas ner till oss:

Så med den här filen går vi hit till Verktyg för avvisande. Klicka på "Avvisa länkar":

Återigen - "Avvisa länkar" och ladda upp vår fil dit, vilket checktrust gav oss:

Allt! Vi avvisade dåliga länkar! Men detta räckte inte för att jag skulle ta mig ur filtret. Jag behövde definitivt återställa dynamiken i länkmassatillväxt. Det vill säga jag behövde se till att olika sajter och bloggar började länka till mig igen.

Kort sagt, jag behövde börja förbättra min länkprofil, vilket är vad jag gjorde. Vad är en länkprofil, hur man analyserar och förbättrar den, förklarade jag i min kurs Hur man blir en bloggare 3,0 tusenär

Naturligtvis är det viktigaste för att förbättra din länkprofil den ständiga ökningen av nya högkvalitativa länkar. Nya inkommande länkar måste tas emot hela tiden, och tjänsten Checktrust har också hjälpt mig och hjälper mig fortfarande med detta.

Detta är faktiskt nu det främsta verktyget för att marknadsföra min blogg. Jag förklarade också hur man använder det när man köper länkar i KSBT 3.0-kursen. Ägare av denna tjänst Alexander Alaev, om vilket jag redan har berättat för dig mer än en gång. Sanya, tack för en så cool sak.

Det hjälper dig verkligen att inte kasta bort 90 % av din budget när du köper länkar. I allmänhet började jag få inkommande länkar varje dag (gratis och betalda, köpte dem på börser). Har du hört att Yandex har avbrutna länkar? =) Tror detta vidare.))))

I allmänhet är det så här jag kom ur Googles manuella filter. Det finns också ett automatiskt filter. Hur skiljer det sig från manualen? Och det skiljer sig genom att din blogg (webbplats) hamnar utanför topp 50-100 på alla positioner, trafiken sjunker kraftigt, men notifikationerna i panelen google verktyg du fattar inte. Det är enkelt!

Och om du i princip kan bli av med ett manuellt filter snabbt, bara genom att använda checktrust, så blir det mycket svårare att bli av med ett automatiskt eftersom det inte tas bort av personer som tittar på din ansökan för granskning och gör en beslut, men av robotar (algoritmer).

Har robotar vissa siffror lämna under filtret och tills din resurs når dessa siffror, kommer du inte att lämna under filtret, du måste också vänta på uppdateringar av gogole-pingvinalgoritmerna. Utgångsdiagrammet för det automatiska pingvinfiltret är detsamma som för det manuella:

Om du till exempel ser att du har bra trafik från Yandex, och från Google från Gulkin Klyuk, så är detta en signal - du är under filtret. Eller en panda eller en pingvin. Du vet redan vad pandan straffar för. Om du tror att allt är "noll tarm" med pandan, så är allt inte så bra med pingvinen.

Vi måste vidta åtgärder. Men få inte omedelbart panik och spring för att avvisa länkar. Kanske ska du bara titta på alla dina inkommande länkar, analysera dem i checktrust, titta på deras kvalitet och visuellt utvärdera hela bilden.

Det vill säga vilka länkar som är mer dåliga eller bra. Om du verkligen ser att det finns få kvalitetsresurser som länkar till dig, måste du korrigera denna situation och börja få kvalitetslänkar. Jag kommer att märka KVALITET!

Tja, det är nog allt. Jag avslutar här och avslutningsvis har jag ett intressant förslag till dig:

VEM HAR REGISTRERAD I CHECKTRUST SERVICE INNAN 15 AUGUSTI 2014 MIN AFFILIATE-LÄNK OCH KOMMER ATT PAPPA SALDOET PÅ SIN KONTO MED MINIMUM 1000 RUBEL, KOMMER HAN FÅ EN MYCKET BRA PRESENT FRÅN MIG.

EFTER ATT REGISTRERA OCH FYLLA PÅ DITT SALDO, SKRIV BARA TILL MIG SOM STÖD OCH FÅ DIN GÅVA. OM DU FÖLJAR DITT SALDO MED 2000 RUBEL, DÅ KOMMER JAG PERSONLIGT TITTA PÅ DIN BLOGG, ANALYSERA DEN FÖR FEL OCH BERÄTTA DIG VAD SOM BEHÖVER KORRIGERAS.

OM DU TILL EXEMPEL HAR NÅGRA SKILLNADER MED ATT ELIMINERA DUPLICIER PÅ DIN BLOGG, SOM JAG TALAT OM I DE TVÅ FÖREGÅENDE ARTIKlarna, DÅ SKA JAG ÄVEN HJÄLPA DIG MED DETTA OCH STÄLLA IN ALLT!

MEN! Tro inte att jag skrev den här artikeln bara för att marknadsföra checktrust-tjänsten och tjäna provision. Detta är fel. Det här är verkligen en riktig tjänst som jag själv använder nästan varje dag och rekommenderar starkt att du använder den.

Och jag ger dig ett erbjudande eftersom jag deltar i en tävling från checktrust, där en iPhone 5 lottas ut, som jag skulle vilja vinna och ge till vinnaren av ""-tävlingen. =) Det här är pajerna.

Om någon har några frågor, fråga gärna i kommentarerna. Men i teorin tror jag att jag förklarade allt tydligt.

Killar, vet ni varför de flesta bloggare idag har en sorglig situation med trafik från Google och Yandex? Jo, ja, tekniska misstag spelar roll, men en av de viktigaste anledningarna är bristen på bra inkommande länkmassa eller dess fullständiga frånvaro.

Hur många brev får jag som stöd - "Alexander, vad ska jag göra? Jag har skrivit den här bloggen i två år nu, men det finns fortfarande ingen trafik från PS. Artiklarna är unika, intressanta, användbara, det finns många läsare... HJÄLP!”

Det är bra att du har många läsare och dina artiklar är bra, men det räcker inte. Man måste visa och bevisa att de är riktigt coola. Endast högkvalitativa, pålitliga, inkommande länkar kan visa detta. Och ju fler det är desto bättre.

Om en auktoritativ webbplats länkar till dig är detta en direkt indikator på att din webbplats är intressant. Om du har bloggat i 2-3 år och har 100 inkommande länkar, förvänta dig inte megatrafik. Titta på projekten som når tiotusentals besökare.

Där är länkfrämjandet genomtänkt redan innan projektstart. Det finns hela metoder, analyser, länkfrämjande planering osv. Det är därför som vissa resurser utvecklas bra, medan andra är i baken.

I allmänhet, det sista - använd länkkampanj så blir du glad, och lyssna inte på några uttalanden om att länkarna inte fungerar, de har avbrutits osv. Lycka till!

P.S. Förmodligen den mest sista frågan du säger, "Vad ska jag göra nu? Jag fick inget brev från Google, det verkar som att jag inte är under filtret, det finns ingen trafik, men det kommer. Vad händer då?

Och sedan är det bara att utvärdera kvaliteten på alla länkar som kommer till din blogg genom tjänsten checktrust (jag pratade om hur man gör detta i KSBT 3.0) och om du ser att bilden är trist är det få länkar och majoriteten är inte särskilt bra bra kvalitet, vidta sedan åtgärder.

Lita på mig! Du kommer att börja få kvalitetslänkar och se en ökning av trafiken. Jag visade tydligt detta fram till februari 2012, då jag fick en panda för dubbletter.

Nåväl, det är det, hejdå alla! Jag ser fram emot dina frågor i kommentarerna!

Med vänlig hälsning, Alexander Borisov

Vi vet alla mycket väl, kära vänner, hur sökmotorer arbetar hårt med sina algoritmer, filter och så vidare, för att ge vanliga internetanvändare det de letar efter så tydligt som möjligt. Men dessa samma algoritmer rensar samtidigt nätverket från samma spam eller lågkvalitativa resurser, som på något sätt hamnade i TOPPEN. "Det kommer inte att fungera så" - på något sätt tror sökjättarnas sinnen det, och återigen kom killarna från Google ut med den här tanken.

Så för den andra veckan nu har den webbansvariga delen av nätverket surrat och majoriteten är indignerade: "Google introducerade något med något och den här helvetiska blandningen skar ner våra positioner, vilket i sin tur minskade trafiken." Ja, faktiskt, när jag analyserade konkurrensen inom de nischer som intresserar mig, märkte jag allvarliga förändringar. Trafiken på många konkurrenskraftiga resurser minskade med 10, 20, 50 eller ännu mer procent. Varför gå långt, titta på några SEO-bloggar, det är ovanligt att se trafik på 150-200 användare per dag.

Så, vad kom Google på...

Den 20 april 2012 dök ett meddelande upp på Internet från Googles utvecklare ungefär som följer:

"Under de kommande dagarna lanserar vi en viktig algoritmförändring riktad mot webbspam. Ändringarna kommer att minska rankingen av webbplatser som vi anser bryter mot Googles kvalitetskrav för webbplatser."

Natten mellan den 24 och 25 april introducerades en ny Google-algoritm - Google Penguin (Google Penguin). Googles kärlek till djur har genererat mycket surr. På samma Serch skapades flera ämnen med ett enormt totalt antal sidor (mer än 500) som diskuterade det nya Googles algoritm Pingvin. Som alltid var det betydligt fler missnöjda än nöjda, eftersom de nöjda sitter tysta och inte bränner sina prestationer, som bara åts upp av Google Penguin med ett ”hurra”.

Låt oss först bekanta oss med de mycket grundläggande kraven på webbplatsens kvalitet som Google ställer:

  1. Använd inte dold text eller dolda länkar. Google, och inte bara Google, har länge marscherat under filantropins fana. Det en person inte ser förstås och uppfattas av sökmotorer som ett försök att påverka sökresultaten, och detta kan jämföras med manipulation och undertrycks i form av pessimisering eller någon annan "skada". Jag minns att dold text en gång i tiden var väldigt moderiktig, så klart, eftersom den hade effekt. Svart text på svart bakgrund med en viss optimering kom man till sidan och undrade var det var vad sökmotorn visade.
  2. Använd inte cloaking eller dolda omdirigeringar. Du behöver inte försöka ge bort sökrobot en information och användaren en annan. Innehållet ska vara detsamma för alla. När det gäller omdirigering finns det de som gillar att lura pengar från omdirigering eller försäljning mobiltrafik, beslutade Google att göra en liten besviken.
  3. Skicka inte automatiska förfrågningar VGoogle.
  4. Överbelasta inte dina sidor med sökord. Denna princip har länge stötts av Yandex och positionering mot överoptimering av webbplatser dödade tydligt anhängarnas arbete med att fylla webbplatsen med nycklar. Om det tidigare var möjligt att fylla artiklar med sökord och njuta av trafik från Google, nu, som du kan se och förstå, är inte allt så enkelt. Men glöm inte bort användarfaktorer eller så kallade beteendefaktorer. Om de är på en bra nivå är inte ens en liten överoptimering ett problem, eftersom användarbeteendefaktorer alltid har varit, är och kommer troligen att prioriteras. Bara här är allt något mer komplicerat - föreställ dig själv vad som behöver ges och i vilken volym så att samma beteendefaktorer är som bäst. Detta tyder på att innehållet verkligen borde vara det hög nivå och intresse, och inte en lätt omskrivning från en konkurrerande sajt eller nischledare.
  5. Skapa inte sidor, domäner eller underdomäner som väsentligt duplicerar innehållet på din huvudsajt eller någon annan webbplats. Vid det här laget sammanställde Google-användare omedelbart sina synpunkter på anknytning, webbplatsnätverk, dörröppningar, copy-paste och omskrivning av låg kvalitet.
  6. Skapa inte skadliga sidor till exempel nätfiske eller innehållande ett virus, trojansk häst eller annan skadlig programvara. Denna punkt ska man inte tugga på alls, bekämpa virus i ett ord.
  7. Skapa inte dörröppningar eller andra sidor som är utformade enbart för sökmotorer.
  8. Om din sida fungerar med affiliate-program, se till att det ger värde för nätverket och användarna. Förse den med unikt och relevant innehåll som kommer att locka användare till dig i första hand.

Google identifierade dessa 8 principer som de viktigaste. Men det finns också fyra till som särskilt noterades av dem:

  1. Skapa webbplatssidor främst för användare, inte sökmotorer. Använd inte förklädnader eller andra system för att arbeta med webbplatser, var extremt transparent.
  2. Försök inte använda knep för att öka din webbplats ranking i sökmotorerna.
  3. Delta inte i länkbyggande system som är utformade för att öka din webbplats ranking i sökmotorer eller Google Sidrankning. Undvik särskilt länkar som ser ut som skräppost, länkdumpar eller dåliga grannar på servern (jag uppmärksammar dig på att analysera och titta på närliggande webbplatser om din webbplats är värd på en vanlig delad värd).
  4. Använd inte obehörig mjukvarulösningar för att automatiskt kontakta Google. Utvecklarna själva lyfter fram som WebPosition Gold™.

Men allt verkade vara känt för alla som var intresserade av frågan tidigare.

I arbetet med den nya Google Penguin-algoritmen blev jag förvånad över den strikta efterlevnaden av principen om "reklamladdning" på första sidan. Kom ihåg att det sades att den första sidan (hemsidan) inte skulle vara överbelastad med reklam. Google Penguin har helt klart börjat följa denna princip. Det stängde av trafik för webbplatser med flera stora reklamblock på huvudsidan, även om dessa block var deras egna - Google-annonsering Adsense. 🙂

Observationer om arbetet med Google Penguin

Nu skulle jag vilja räkna upp ett antal av mina egna observationer. Jag förstår att de är ungefärliga och representerar mina personliga observationer och data (indikatorer kan uppfattas som relativa), men de har sin plats och har rätt att existera. Jag analyserade arbetet på 20 sajter, både mina och mina partners. Analysen tog mig 3 dagar och jag bedömde många indikatorer. Som du förstår marknadsfördes alla webbplatser med olika scheman och med olika algoritmer, hade helt olika indikatorer, vilket gjorde det möjligt att dra ett antal slutsatser.

1. Exakt inmatning. Om du tidigare, för att vara i Google i choklad, behövde många exakta poster, nu med Google Penguin (Google Penguin) är allt exakt detsamma och vice versa. Detta kan vara just kampen mot webbspam. Yandex har länge varit förtjust i att späda ankare, och nu har saken kommit till Google.

  • sidor med externa länkar har en exakt ingång på 100 % - neddragningen var 75-90 %. Genomsnittlig nedgång på cirka 38 positioner;
  • sidor med externa länkar exakt inträde 50% - nedsättningen var 15-20%. Genomsnittlig nedgång på cirka 9 positioner;
  • sidor med externa länkar med exakt förekomst mindre än 25 % - en ökning med 6-10 % märktes. Genomsnittlig ökning 30 positioner.

Baserat på dessa data gjorde jag en slutsats - vi späder ut ankarna och späder ut dem så intressanta och djupa som möjligt.

Ett slående exempel är begäran om "gogetlinks" på den här bloggen. Exakta förekomster är betydligt fler än utspädda förekomster, och detta är resultatet:

2. Köpa tillfälliga länkar. Jag köpte tillfälliga länkar för efterbehandling eller snabbt resultat på alla analyserade resurser och med olika system. Dessa inkluderade Sape, Webeffector, Seopult och ROOKEE.

Generatorer automatisk marknadsföring Webeffector och ROOKEE gav ungefär samma resultat. Neddragningen märktes praktiskt taget inte alls, bara en liten på Webeffector, men den är obetydlig och är mer relaterad till utspädningen av ankare. I andra ögonblick observeras jämn tillväxt, vad kan jag säga, här är en skärmdump av kampanjen (klickbar):

När det gäller Sape är bilden en helt annan. Alla projekt för vilka länkar köpts från Sape sjönk. Alla förfrågningar som rörde sig i den här börsen flög ur TOP 100 och till och med att samla in statistik om vart de flög dit blev på något sätt stressigt, vilket jag till slut inte gjorde.

När jag analyserade effekten av Google Penguin på marknadsföring med Sape, drog jag slutsatsen att Google nu uppfattar placeringen av länkar på detta utbyte som onaturligt.

Här började jag aktivt ta bort länkar. Men det är vettigt att ge dina egna exempel när du kan visa dig smarta från vår egen nisch. Låt oss ta min väns blogg - Sergeya Radkevich upgoing.ru. Mannen arbetade med Sape i flera månader och var nöjd med trafikökningen tills Google Penguin kom. Vi kollar:

Det är också värt att titta på källdiagrammet söktrafik:

Som du kan se har Google Penguin minskat trafiken från Google med mer än 7 gånger.

Slutsatsen på denna punkt är att vissa filter fortfarande behöver användas när man arbetar med tillfälliga länkar och någon form av placerings- och inköpsalgoritmer. Automatiserade tjänster fungerar enligt vissa system, till skillnad från Sape. Resultaten är förresten uppenbara.

Webbplatser med Seopult förväntas i allmänhet öka sina positioner. Här använde jag Seopult Max-algoritmen för Yandex, men som jag ser fungerar den nu även med Google.

3. Överoptimering av innehåll.Även här märktes en nedgång, men inte lika betydande som i de tidigare parametrarna. Inom 10 positioner förlorade endast 10-15 % av överoptimerade artiklar.

Här drar jag slutsatsen att det inte är så läskigt att lite överoptimera, vilket ger dig själv några garantier. Och du kan komma ikapp med lägre visningar genom att köpa länkar.

4. Evig länkar. Frågor främjas eviga länkar med ett normalt och naturligt utseende ökade de bara sin rankning mer seriöst. Vissa HF VC:er klättrade in i TOP 20 utan någon manipulation, på grund av en märkbar nedgång hos de flesta av deras konkurrenter. Här drar jag återigen slutsatsen att mitt arbete i riktning mot befordran ENDAST med eviga länkar är korrekt.

1. Ta hänsyn till all information ovan och arbeta med både innehållet på din webbplats och dess marknadsföring.

2. Sök efter Google-aviseringar på Google Verktyg för webbansvariga med ett meddelande om spamaktivitet på din resurs. För att göra detta, gå till http://www.google.com/webmasters/, logga in. Gå sedan till statistiken för din webbplats och gå till meddelandesektionen (klickbar):

Om det fortfarande finns meddelanden kommer det att vara nödvändigt att vidta åtgärder för att lösa de problem som anges i meddelandena. Detta kan innefatta att ta bort länkar... Alla yoghurtar är inte lika hälsosamma... 😉

3. Kontrollera webbplatsen för tillgänglighet skadlig programvara V Google Webmaster Verktyg:

Lösningen på frågan är densamma som i föregående stycke. Vi identifierar program och filer som markerats av Google som skadliga, hittar dem på servern eller ersätter eller tar bort dem.

Om allt är riktigt dåligt och du har gett upp, fyll i formuläret och underteckna den skapade petitionen till Google mot Google Penguin. Detta garanterar dig naturligtvis ingenting, men åtminstone ett ögonblick av liten självtillfredsställelse och känslan av "jag gjorde allt jag kunde" kommer definitivt att komma. På samma ämne kan du använda formuläret respons kontakta algoritmutvecklarna.

Själv tappade jag lite, eftersom huvudvikten låg på verkligt SDL och marknadsföring med eviga länkar. Jag blev av med negativiteten inom 2 dagar och började växa i samma takt. Tja, den som gillade att göra allt snabbt och enkelt - du är kvar mest och tuggar snor.

Som en av mina vänner sa: "Nu kommer hacket att synas. Stora förändringar väntar de som älskar det snabba, billiga och enkla. De som bryter banken genom att marknadsföra enbart dödliga på Internet, medan de öppet hackar, kommer att drabbas av ett fiasko och lyssna på många klagomål från kunder”...

Du kan lägga upp dina tankar om Google Penguin eller resultatet av ändringarna i kommentarerna.

Glada och kvalitetsförändringar till alla!

I skolan:
- Barn, kom på en mening med uttrycket "Det var lite."
Kolya:
– Vår Olya blev nästan en skönhetsdrottning!
Peter:
– I lördags missade jag och mamma nästan tåget...
Vovochka:
– I morse dog Lyokha och jag nästan av baksmälla, men vi hade nästan...

Google Penguin är en sökmotoralgoritm som syftar till att eliminera webbspam. Den lanserades i april 2012 för att bekämpa köpta länkar och har genomgått flera förändringar. Releasen i september 2016 gjorde Penguin-filtret till en del av Googles kärnalgoritm.

Funktionsprincip

Google Penguin har arbetat i realtid sedan 2014, men bara sedan 2016 har databasen inte uppdaterats manuellt. Om du tidigare var tvungen att vänta på en uppdatering, vilket kunde ta tid, kan du nu komma ut under filtret bokstavligen direkt efter korrigering och omindexering.

Påföljder i form av degradering i rangordning gäller för enskilda sidor, och inte hela webbplatsen som helhet.

Hur man avgör om en webbplats är under ett filter

Tecken:

  • minskning av positioner med 30-50 poäng;
  • betydande minskning av trafiken från Google.

Om begränsningen åläggs till följd av detta manuell kontroll, V Search Console I avsnittet Manuella åtgärder kan du se ett meddelande om sanktioner för webbspam.

Det finns ingen avisering för automatisk tilldelning. För att ta reda på om en webbplats skadades av Google "Panda" eller "Penguin", måste du kontrollera texterna och inkommande länkar. Om problemet finns i innehållet är det "Panda" om dåliga bakåtlänkar är synliga är det "Penguin".

Hur man tar bort en webbplats från ett filter

Webbplatsen sänks i sökresultat på grund av länkmassa av låg kvalitet, så du måste göra en granskning av köpta länkar och ta bort spam från satelliter, irrelevanta resurser, länksänkor etc. Samtidigt är det värt att öka antal naturliga länkar.

Anledningen till att falla under Google filter Penguin kan bli:

  • överflöd av skräppostankare. Om det mesta av ankarlistan är direkta förekomster av marknadsförda kommersiella frågor är risken mycket hög;
  • dålig länktillväxtdynamik. Skarpa hopp och masskjutning tyder på onaturlighet;
  • diskrepans mellan ämnena för donator och acceptor. Ju högre relevans desto naturligare ser placeringen ut;
  • skräppostplacering av bakåtlänken (bakgrundsfärg, finstilt, enpixelbild, på fel ställe, etc.);
  • donatorspam. Om det finns många utgående länkar från en sida eller webbplatsen som helhet väcker detta misstankar om försäljning;
  • låg kvalitet på hänvisande webbplatser. Förstått i vid mening.

Alla identifierade bakåtlänkar av låg kvalitet måste tas bort eller avvisas med ett specialverktyg i Search Console.

Det kan ta allt från en vecka till flera månader för Google Penguin att ta bort rankningsbegränsningarna.

Hur du skyddar dig själv

  • se till att späda ut ankarlistan så att det inte bara finns direkta och utspädda förekomster av nycklar, utan också ankare som "här", "här" etc.;
  • säkerställa en jämn ökning av länkmassan;
  • kontrollera förhållandet mellan köpta och naturliga länkar;
  • sträva efter en mångfald av givare så att det inte finns ett onaturligt stort antal bakåtlänkar från en resurs;
  • tillhandahålla länkar till olika sidor webbplats, och inte bara startsidan;
  • övervaka kvaliteten på varje givare.

Det bästa sättet att skydda dig mot risken att bli måltavla av Google Penguin är att öka kvaliteten på länkarna, inte deras kvantitet.

07.11.17

2012 lanserade Google officiellt " anti-web spam algoritm”, som syftar till skräppostlänkar, såväl som metoder för manipulering av länkar.

Denna algoritm blev senare officiellt känd som Google Penguin-algoritmen efter en tweet från Matt Cutts ( Matt Cutts), som senare blev chef för Googles webbspamavdelning. Även om Google officiellt döpte algoritmen Penguin, fanns det ingen officiell kommentar om var detta namn kom ifrån.

Panda-algoritmen fick sitt namn från ingenjörerna som arbetade med den. En teori för ursprunget till namnet Penguin är att det är en referens till Penguin, DC-seriehjälten Batman.

Före introduktionen av Penguin spelade antalet länkar en betydande roll i hur Googles sökrobotar betygsatte webbsidor.

Detta innebar att när webbplatser rankades efter dessa poäng i sökresultaten, visades vissa webbplatser och delar av innehåll av låg kvalitet på högre positioner.

Varför behövdes Penguin-algoritmen?

Googles krig mot sökresultat av låg kvalitet började med Panda-algoritmen, och Penguin-algoritmen har blivit en förlängning och ett tillägg till arsenalen.

Penguin var Googles svar på dess ökande praxis att manipulera sökresultat (och rankningar) genom skräppostlänkar.

Penguin-algoritmen behandlar endast inkommande länkar till webbplatsen. Google analyserar länkarna som leder till sajten och uppfattar inte den utgående länkmassan.

Inledande lansering och inflytande

När den lanserades första gången i april 2012 Penguin Google-filter påverkade mer än 3 % av sökresultaten, enligt Googles egna uppskattningar.

Penguin 2.0, fjärde uppdatering ( Inklusive original version ) algoritm, släpptes i maj 2013 och påverkade cirka 2,3 % av alla sökfrågor.

Viktiga ändringar och uppdateringar av Penguin-algoritmen

Det har skett flera förändringar och uppdateringar av Penguin-algoritmen sedan lanseringen 2012.

Penguin 1.1: 26 mars 2012

Detta var inte en ändring av algoritmen, utan den första uppdateringen av data i den. Webbplatser som från början påverkades av Penguin-algoritmen, men som sedan blev av med länkar av låg kvalitet, såg en viss förbättring i sina rankningar. Samtidigt har andra sajter som inte påverkades av Penguin-algoritmen när den först lanserades sett en viss effekt.

Penguin 1.2: 5 oktober 2012

Detta var ännu en datauppdatering. Det påverkade förfrågningar om engelska språket, såväl som internationella förfrågningar.

Penguin 2.0: 22 maj 2013

Mer avancerad ( ur teknisk synvinkel) en version av algoritmen som har ändrat i vilken grad den påverkar sökresultaten. Penguin 2.0 påverkade cirka 2,3 % av de engelskspråkiga frågorna och ungefär samma andel av frågorna på andra språk.

Det var också den första uppdateringen av Google Penguin-algoritm som tittade vidare startsida och sidor högsta nivån letar efter bevis på skräppostlänkar.

Penguin 2.1: 4 oktober 2013

Den enda uppdateringen till Penguin 2.0-algoritmen (version 2.1) släpptes den 4 oktober samma år. Det påverkade cirka 1 % av sökfrågorna.

Även om det inte fanns någon officiell förklaring från Google till uppdateringen, tyder statistik på att uppdateringen också ökade sidvisningarnas djup och introducerade ytterligare analys för förekomsten av spamlänkar.

Penguin 3.0: 17 oktober 2014

Det var ytterligare en datauppdatering som gjorde det möjligt för många sanktionerade webbplatser att återta sina positioner, och andra som missbrukade spamlänkar men gömde sig från tidigare versioner av Penguin för att känna dess inverkan.

Google-anställde Pierre Far ( Pierre Far) bekräftade detta och noterade att uppdateringen skulle kräva " några veckor» för fullständig distribution. Och att uppdateringen påverkade mindre än 1 % av engelskspråkiga sökfrågor.

Penguin 4.0: 23 september 2016

Nästan två år efter att uppdatering 3.0 släpptes sista ändring algoritm. Som ett resultat blev Penguin en del av kärnalgoritmen sökmotor Google.

Nu arbetar Google Penguin 4 samtidigt med den grundläggande algoritmen och utvärderar webbplatser och länkar i realtid. Det gör att effekterna av förändringar kan ses relativt snabbt externa länkar på din webbplats position i sökresultat Google.

Den uppdaterade Penguin-algoritmen syftade inte heller strikt till att införa sanktioner, den devalverade värdet av skräppostlänkar. Det har blivit tvärtom tidigare versioner Penguin, när dåliga länkar straffades. Men forskning visar att algoritmiska sanktioner baserade på externa länkar fortfarande används idag.

Algoritmiska nedgraderingar i Penguin

Kort efter lanseringen av Penguin-algoritmen började webbansvariga som praktiserade länkmanipulation märka en minskning av söktrafik och sökrankning.

Inte alla nedgraderingar som utlöstes av Penguin-algoritmen påverkade hela webbplatser. Vissa var partiella och påverkade endast vissa grupper av sökord som aktivt var igensatta med skräppostlänkar eller " överdrivet optimerad».

En webbplats som sanktionerats av Penguin tog 17 månader att återta sin position i Googles sökresultat.

Penguins inflytande sträcker sig också över domäner. Att byta domän och omdirigera från det gamla till det nya kan därför leda till ännu fler problem.

Forskning visar att användning av 301 eller 302 omdirigeringar inte förnekar effekten av Penguin-algoritmen. På forum Googles webbansvariga John Mueller ( John Mueller) bekräftade att användning av omdirigeringar med metauppdatering från en domän till en annan också kan leda till sanktioner.

Återhämta sig från effekterna av Penguin-algoritmen

Verktyget Disavow Links var användbart för SEO-specialister, Och det har inte förändratsäven nu när Google Penguin-algoritm fungerar som en del av Googles kärnalgoritm.

Vad ska inkluderas i en avvisningsfil

Disavow-filen innehåller länkar som Google bör ignorera. Tack vare detta kommer länkar av låg kvalitet inte att minska webbplatsens rankning som ett resultat av Penguin-algoritmen. Men detta betyder också att om du av misstag inkluderade högkvalitativa länkar i din avvisningsfil, kommer de inte längre att hjälpa webbplatsen att rankas högre.

Du behöver inte inkludera några kommentarer i Disavow om du inte vill ha dem själv.

Google läser inte kommentarerna du gör i filen eftersom den bearbetas automatiskt. Vissa människor tycker det är lättare att lägga till förklaringar för senare referens. Till exempel, datumet då en grupp länkar lades till filen eller kommentarer om försök att kontakta webbplatsens webbansvariga för att ta bort länken.

När du har laddat upp din disavow-fil skickar Google en bekräftelse till dig. Men även om Google kommer att behandla det omedelbart, kommer det inte att avvisa länkarna samtidigt. Därför kommer du inte att omedelbart kunna återställa din webbplats position i sökresultaten.

Det finns inte heller något sätt att avgöra vilka länkar som har avvisats och vilka som inte har gjort det, eftersom Google fortfarande kommer att inkludera båda i rapporten om externa länkar som är tillgänglig i Google Search Console.

Om du tidigare laddat ner Disavow och skickat in det till Google kommer det att ersättas av det nya istället för att läggas till det gamla. Därför är det viktigt att se till att du inkluderar ny fil gamla länkar. Du kan alltid ladda ner en kopia av den aktuella filen i din Google-konto Search Console.

Inaktivera enskilda länkar eller hela domäner

För ta bort en webbplats från Google Penguin Det rekommenderas att avvisa länkar på domännivå istället för att inaktivera dem enskilda länkar.

Tack vare vilken sökmotorn Google robot Du behöver bara besöka en sida på webbplatsen för att avvisa länkar som leder från den.

Att inaktivera länkar på domännivå innebär också att du inte behöver oroa dig för om en länk är indexerad med eller utan www.

Upptäcker dina externa länkar

Om du misstänker att din webbplats har påverkats negativt av Penguin-algoritmen bör du granska dina externa länkar och avvisa länkar av låg kvalitet eller spam.

Google Search Console tillåter webbplatsägare att få en lista med externa länkar. Men det är nödvändigt att uppmärksamma det faktum att Disavow inkluderar länkar som är markerade som " nofollow" Om länken är markerad nofollow-attribut, kommer det inte att påverka din webbplats. Men det är nödvändigt att webbplatsen som publicerade länken till din resurs kan ta bort " nofollow» när som helst utan förvarning.

Det finns också många tredjepartsverktyg som visar länkar till din webbplats. Men på grund av det faktum att vissa webbansvariga skyddar webbplatsen från att genomsökas av tredjepartsrobotar, kan användningen av sådana verktyg inte visa alla inkommande länkar. Dessutom kan sådan blockering användas av vissa resurser för att dölja länkar av låg kvalitet från upptäckt.

Övervakning av externa länkar – nödvändig uppgift att skydda sig mot "Negativ SEO"-attacker" Deras kärna är att en konkurrent köper spamlänkar till din webbplats.

Många människor använder negativ SEO som en ursäkt när deras sida blir straffad av Google för länkar av låg kvalitet. Men Google hävdar att efter Penguin Google-uppdateringar Sökmotorn känner väl igen sådana attacker.

En undersökning gjord av Search Engine Journal i september 2017 fann det 38 % av SEO-specialisterna har aldrig förkastat externa länkar. Att granska externa länkar och grundligt undersöka domänen för varje extern länk är inte en lätt uppgift.

Begäran om att ta bort länkar

Vissa webbplatsägare kräver en viss avgift för att ta bort en länk. Google rekommenderar att du inte betalar för detta. Inkludera helt enkelt den dåliga externa länken i din disavowal-fil och gå vidare till att ta bort nästa länk.

Även om sådana förfrågningar är effektivt sättåterställa webbplatsens position efter att ha tillämpat sanktioner för externa länkar de är inte alltid obligatoriska. Google Penguin-algoritmen betraktar portföljen av externa länkar som en helhet, det vill säga som ett förhållande till antalet naturliga länkar av hög kvalitet och spamlänkar.

Vissa inkluderar till och med i avtalet för användning av webbplatsen "villkor" för att placera externa länkar som leder till deras resurs:

Vi stöder endast "ansvarig" placering av externa länkar till våra webbsidor. Det betyder att:

  • Om vi ​​ber dig att ta bort eller ändra en länk till våra webbplatser kommer du att göra det omgående.
  • Det är ditt ansvar att säkerställa att din användning av länkar inte skadar vårt rykte eller resulterar i kommersiell vinning.
  • Du får inte lägga upp fler än 10 länkar till våra webbplatser eller webbsidor utan att ha fått tillstånd.
  • Webbplatsen där du placerar en länk som leder till vår resurs får inte innehålla stötande eller ärekränkande material. Och får inte heller bryta mot någons upphovsrätt.
  • Om någon klickar på länken du har lagt upp bör de öppna vår sida på ny sida(tab) snarare än i en ram på din webbplats.

Länkkvalitetsbedömning

Anta inte att bara för att en extern länk finns på en webbplats med en .edu-domän så måste den vara Hög kvalitet. Många studenter säljer länkar från sina personliga webbplatser, som är registrerade i .edu-zonen. Därför betraktas de som spam och bör avvisas. Dessutom innehåller många .edu-webbplatser länkar av låg kvalitet eftersom de har blivit hackade. Detsamma gäller alla toppdomäner.

Googles representanter har bekräftat att lokalisering av en webbplats i en specifik domänzon inte hjälper eller skadar dess position i sökresultaten. Men du måste fatta ett beslut för varje specifik webbplats och ta hänsyn Penguin Google-uppdateringar.

Se upp för länkar från uppenbart högkvalitativa webbplatser

När du tittar på en lista med externa länkar, anta inte att de är av hög kvalitet bara för att de finns på en viss webbplats. Om du inte är 100% säker på dess kvalitet. Bara för att en länk finns på en ansedd sajt som Huffington Post eller BBC gör den inte hög kvalitet. Googles ögon. Många av dessa webbplatser säljer länkar, varav några är förtäckt reklam.

Kampanjlänkar

Exempel på reklamlänkar som betalas i Googles ögon inkluderar länkar som placeras i utbyte mot gratis produkt för en recension eller rabatt på en produkt. Även om dessa typer av länkar var acceptabla för några år sedan måste de nu markeras med en " nofollow" Du kan fortfarande dra nytta av att lägga upp sådana länkar. De kan hjälpa till att öka varumärkesmedvetenheten och leda trafik till din webbplats.

Det är oerhört viktigt att utvärdera varje extern länk. Det är nödvändigt att ta bort dåliga länkar eftersom de påverkar resursens position i sökresultaten till följd av exponering Google Penguin-algoritm, eller kan leda till manuella sanktioner. Bör inte raderas bra länkar, eftersom de hjälper dig att rankas högre i sökresultaten.

Kan du inte återhämta dig från Penguin-algoritmsanktioner?

Ibland, även efter att webbansvariga har gjort mycket arbete med att rensa upp inkommande länkar, ser de fortfarande ingen förbättring i trafikvolym eller ranking.

Det finns flera anledningar till detta:

  • Den initiala ökningen av trafik och förbättringen av sökrankningar som skedde innan de algoritmiska påföljderna infördes var och kom från dåliga inkommande länkar.
  • När de dåliga externa länkarna togs bort gjordes inga ansträngningar för att generera ny högkvalitativ länkjuice.
  • Alla skräppostlänkar har inte inaktiverats.
  • Problemet är inte med externa länkar.

När du återhämtar dig från Penguin-straff, förvänta dig inte att din sökrankning kommer att återvända eller ske omedelbart.

Lägg till detta att Google ständigt förändras Penguin Google-filter, så faktorer som var fördelaktiga tidigare kanske inte har så stor inverkan nu.

Myter och missuppfattningar förknippade med Penguin-algoritmen

Här är några myter och missuppfattningar om Penguin-algoritmen som har uppstått de senaste åren.

Myt: Penguin är ett straff

En av de största myterna om Penguin-algoritmen är att folk kallar det ett straff ( eller vad Google kallar manuella sanktioner).

Penguin är strikt algoritmisk till sin natur. Det kan inte appliceras eller tas bort av specialister Google i manuellt läge.

Trots att algoritmens agerande och manuella sanktioner kan leda till en stor nedgång i sökresultaten är det stor skillnad mellan dem.

Manuella sanktioner inträffar när Googles webbspamspecialist svarar på ett klagomål, genomför en utredning och avgör att en domän ska sanktioneras. I det här fallet kommer du att få ett meddelande i Google Search Console.

När manuella sanktioner tillämpas på en webbplats behöver du inte bara analysera externa länkar och skicka en disavow-fil som innehåller skräppostlänkar, utan också skicka en begäran om granskning av ditt "ärende" av Google-teamet.

Sänkningen av positioner i sökresultaten med algoritmen sker utan ingripande från Googles specialister. Gör allt Google Penguin-algoritm.

Tidigare var man tvungen att vänta på en algoritmändring eller uppdatering, men nu fungerar Penguin i realtid. Därför kan återställningen av positioner ske mycket snabbare ( om städarbetet utfördes effektivt).

Myt: Google kommer att meddela dig om Penguin-algoritmen påverkar din webbplats

Tyvärr är detta inte sant. Google Search Console kommer inte att meddela dig det sök positioner din webbplats har försämrats som ett resultat av Penguin-algoritmen.

Detta visar återigen skillnaden mellan algoritm och manuella sanktioner - du kommer att meddelas om en webbplats har blivit straffad. Men processen för återhämtning från effekterna av en algoritm liknar återhämtning från manuella sanktioner.

Myt: Att avfärda dåliga länkar är det enda sättet att återhämta sig från effekterna av Penguin-algoritmen

Även om den här taktiken kan ta bort många länkar av låg kvalitet, är den inte till hjälp. Penguin-algoritmen bestämmer andelen bra länkar av hög kvalitet i förhållande till skräppostlänkar.

Så istället för att fokusera all din energi på att ta bort länkar av låg kvalitet, bör du fokusera på att öka antalet inkommande länkar av hög kvalitet. Detta kommer att ha en positiv effekt på förhållandet som Penguin-algoritmen tar hänsyn till.

Myt: Du kommer inte att återhämta dig från effekterna av Penguin-algoritmen.

Burk ta bort webbplatsen från Google Penguin. Men detta kommer att kräva viss erfarenhet av att interagera med Googles ständigt föränderliga algoritmer.

Det bästa sättet att bli av med negativ påverkan Penguin-algoritmen är att glömma alla befintliga externa länkar som leder till webbplatsen och börja samla in nya. Ju mer högkvalitativa inkommande länkar du samlar in, desto lättare blir det att befria din webbplats från gränserna för Google Penguin-algoritmen.

Denna publikation är en översättning av artikeln " En komplett guide till Google Penguin Algorithm Update", förberedd av det vänliga projektteamet

Bra dålig







2024 gtavrl.ru.