Hur kom jag ur Google Penguins filter för onaturliga länkar? men pandan är fortfarande med mig! Hur jag kom ut under Gogol Penguins manuella filter.


Efter att Google Panda straffade mig för duplicerat innehåll i februari 2012 och i mer än 2 månader sjönk trafiken under bastavlan (jag visade dig detta i den här artikeln om ), då gav jag verkligen upp och ville inte marknadsföra bloggen alls .

Jag slutade skriva artiklar, engagera mig i länkfrämjande, organisera tävlingar etc. med samma entusiasm. I verkligheten, för att vara ärlig, fanns det en del depression. Tja, hur är det, du puffar upp, puffar upp, allt går uppför som det ska och sedan BAM, trafiken sjunker och du vet inte vad som händer.

Och bara för denna nedgång i aktivitet smög Google Penguin upp bakom mig och straffade mig dessutom. För vad? Och för att jag misstänkte mig för onaturlig länk marknadsföring. Och förmodligen inte ens för de onaturliga inkommande länkarna själva, utan för nedgången i deras antal.

Nu, 2014, kom jag redan på vad som var fel (varför närvaron har minskat kraftigt sedan februari), det är en fråga om DUBLIKATER, men tyvärr är det för sent, pingvinen applicerade filtret. Tack gode gud att allt slutade bra och jag kom mig ur honom.

Låt oss göra allt klart för nybörjare, jag börjar från början och i ordning. Här är vad du lär dig av den här artikeln:

Google Penguin och Panda filter – vad de straffar för

Låt oss börja med en förståelse för vad Google främst straffar bloggar för och påtvingar dem de så kallade panda- och pingvinfiltren. Låt oss titta på pandan först, eftersom hon straffade mig först.

Google Panda-algoritmen straffar innehåll. Det vill säga för dina misstag i bloggens innehållskomponent. Och tro mig, vi har många skolor. Jag lyfte fram flera punkter här:

1. Själva innehållet. Om din blogg för det mesta inte är det unikt innehåll(skriv om eller ännu värre, copy-paste, dumt kopierat och inklistrat), så får du ett filter. Innehållet på bloggen måste vara unikt. Jag kopierade ingenting och klistrade in det i mitt eget - kom ihåg det.

2. Omoptimering av innehåll. Om alla dina artiklar är fyllda med sökord blir det för mycket framhävning nyckelord, understrykningar, kursiv stil, för många sökord i h1, h2, h3 osv, överspam i rubriken, beskrivning, nyckelord osv, då kan du även få en rubrik för detta. Inte för att det är möjligt, det är precis vad du kommer att drabbas av.

Om du markerar något, gör det på ett sådant sätt att det är bekvämt för användaren först och främst, och inte för att på något sätt fuska och optimera det. Känner du till ett roligt skämt om en SEO? Lyssna:

En SEO-specialist kommer till en bar, restaurang, köper alkoholhaltiga drycker, klubbar, de bästa barerna i Moskva, beställer en bankett...

Detta borde inte hända dig!)))

3. Duplicerat innehåll. Mitt favoritämne i de två senaste artiklarna. I google resultat bör endast innehålla huvudsidan, sidor och inlägg (artiklar). Allt. Det bör inte finnas några andra sidor med samma innehåll i sökresultaten. Som praxis visar lider mer än 90% av bloggarna av sjukdomen dubbletter. Lösning och .

4. För många annonser. Om du har mycket reklam på din blogg, så ser även Google Panda detta och sänker din blogg i sökresultaten. nyckelfrågor. Pandan gillar särskilt inte reklam i början av artiklar. Återigen, 90 % av bloggarna har Google- eller Yandex-annonsering i början av sina artiklar.))

Det här är väldigt dåligt. Jag gjorde personligen ett experiment på min blogg. Jag ville veta hur annonsering påverkar positioner. Först tog jag bort annonser i början av artiklar. Trafiken har ökat lite. Därefter samlade jag alla de artiklar som oftast besöks av besökare från sökmotorer, tog HELT bort reklam från dessa artiklar och...

Efter 1-1,5 vecka nästan fördubblades trafiken på dem. Här är ett skämt till dig. Kort sagt, tänk på det. gör inte din blogg till ett trafikljus för reklam, sätt in den så att den är osynlig för besökaren.

5. Avvisningsfrekvens. Vad är detta? På ryska är det när en besökare kom till din blogg för en artikel och efter 2-3 sekunder, ja, 5 eller 10, stängde fliken. Och ju mer det är, desto värre är det. 100 personer kom till artikeln, 80 personer lämnade omedelbart - detta tyder på att 80% av människorna anser att den inte är informativ.

Det vill säga att folk inte hittade det de letade efter i den. Därför är det värt att sänka det i sökresultaten. Vilka slutsatser kan du dra? Kanske är rubriken på artikeln inte rätt, det finns inte tillräckligt med innehåll, personen blev skrämd av designen, kanske börjar någon sorts musik spelas i bakgrunden (detta är generellt jävligt, jag skulle omedelbart filtrera sådana sajter)

Om du tar alla dessa 6 poäng tillsammans, så förstår du förmodligen redan vilken artikel som kommer att bli Google Pandas favorit. Och det här är en cool, intressant, unik artikel vars titel kommer att vara catchy och informativ. Så att besökaren läser titeln och förstår, "Det är det, det här är vad jag behöver, jag hittade det jag letade efter."

En artikel där det inte finns någon copy-paste, en artikel som inte är fylld med sökord, inte överoptimerad, där det inte finns några säljlänkar och en massa reklam... En artikel som inte har tvillingbröder och som läses från pärm till pärm inte på 5-10 sekunder, utan på 1-2- 3-5 minuter och de vill också läsa andra artiklar. =)

Det är detta vi bör sträva efter, kamrater. Detta är enligt google panda. Det här lilla djuret kom till mig i februari 2012, tittade på de tusentals dubbletter som plötsligt dök upp från ingenstans och införde sanktioner mot hela bloggen.

Fram till detta ögonblick nådde trafiken 6 200 besökare per dag och fortsatte att växa med stormsteg. Tja, jag körde ihop.))

Nu försvinner dubletterna sakta och jag ser en ökning av trafiken från Google:

Det har alltid varit 150-170 personer per dag från Google, men här finns det redan 280-330. Processen har börjat. Jag känner att när dubletterna försvinner kommer trafik från Google till och med att gå om Yandex =)

Vad har hänt fin blogg? Det här är en blogg som ständigt utvecklas och ger människor högkvalitativa, unika och användbart innehåll höger? Höger. Hur avgör Google om det är av hög kvalitet eller inte? Intressant eller inte?

Väldigt enkelt. När det gäller beteendefaktorer – en gång. För inkommande länkmassa - två. Det första är klart, ca beteendefaktorer Jag ska inte säga så mycket, läs och jag har artiklar på min blogg om dem på Internet.

Låt oss analysera inkommande referensmassa. Om bloggen utvecklas och ständigt producerar nyttiga och intressant innehåll, då bör i alla fall andra webbplatser och bloggar i nätverket länka till denna blogg. Så? Det vill säga att länkmassan ska öka konstant. Länkar borde gå och gå...

Från hemsidor och bloggar, från sociala nätverk, bokmärken, forum osv. och så vidare. Hur som helst... MEN! Länkar är naturliga och av hög kvalitet - en, fortsätt hela tiden - två. Du kan läsa om naturliga och icke-naturliga länkar på Internet. Jag ska berätta mer om kvalitet senare.

Kort om naturligt och onaturligt. Naturliga - de som andra människor lägger utan dina önskemål osv. De gillade ditt inlägg och inkluderade länken. Inte naturligt - köpt eller speciellt placerat någonstans av dig, så länge det finns en länk som leder till din blogg, vilket kommer att bidra till att öka din position i PS. Något som det här.

Om Google-pingvinen ser att det finns länkar till dig från andra webbplatser och bloggar, men de flesta av dem inte är naturliga, kommer den att straffa dig. Om Google-pingvinen ser att det finns naturliga länkar till dig, bra, men om de kom och sedan bam och slutade komma, då kommer han att straffa dig också. För vad?

Och för att din blogg har slutat utvecklas. Det är enkelt. Detta är en slags signal till Google, som gör det tydligt att antingen har din blogg verkligen bleknat, det vill säga besökarna älskade ditt innehåll och delade länkar till det i andra källor, och sedan slutade, eller så köpte du länkar och sedan slutade göra detta.

Det vill säga att det till exempel kom 200 inkommande länkar till dig, och nu är det 100. Det betyder att någonstans du fuskat har du förmodligen köpt tillfälliga länkar, eller helt enkelt där det fanns länkar till dig, de sajterna och bloggarna dog.

Google förstår allt detta, det tittar på dynamiken i länkmassatillväxt. Om han ser en kollaps, kan sanktioner utdömas mot dig. Det är inte möjligt, men de kommer att påtvinga det.

Slutsats: bloggen måste ständigt utvecklas. Skriv ständigt användbart och intressant innehåll, och ökar därigenom STÄNDIG inkommande länkmassa.

OK. Vi förstår varför pingvinen straffar Google, men hur kan du ta reda på om några pingvinsanktioner har införts på din blogg? För att avgöra detta måste du först veta vilka typer av filter Penguin har.

Vilka är Google Penguin-filter (typer)

Penguin har 2 typer av filter:

1. Manuellt filter
2. Filtrera automatiskt

Hur tar man reda på vilket filter din blogg ligger under och om det är det alls? Låt oss börja med det manuella filtret. Jag ska berätta hur min blogg kom under den och hur jag kom ur den ganska snabbt, även om jag var under den i nästan 2 år.

Dessutom löstes problemet i verkligheten snabbt, men min ovilja att förstå detta problem försenade utgången under det manuella filtret i så mycket som 2 år. Kort sagt, jag tog honom inte på allvar och bildligt talat låtsades jag bara att jag ville komma ut under honom.

Så! I allmänhet kommer den 4 maj 2012 till min panel google management webbansvariga (avsnitt - söktrafik manuella åtgärder ) här är brevet:

Det vill säga, Google säger till mig att den har hittat onaturliga länkar som leder till min blogg och påtvingar mig ett manuellt filter. Varför manuell? Men för att jag fick ett brev. Vid tillämpning av ett automatiskt filter kommer inte brevet fram.

Tja, kort sagt, jag tittade på det här brevet, nickade på huvudet, log och gick vidare med mina ärenden. Eftersom trafiken hade minskat på grund av dubbletter (som jag inte visste om då) sedan februari, brydde jag mig ärligt talat inte om, filter var inte filter, pandor, pingviner osv.

Jag gav upp allt. Jag skrev bara dumt inlägg ibland, var upptagen med att flytta till ett nytt hus, sedan till osv. Kort sagt, det var en kraftig nedgång i min aktivitet. ETT HELT ÅR har gått!)))) Och först då tänkte jag något - är det inte dags att ta reda på problemet med att ta bort filtret?)))

Och först den 3 mars 2013 skickar jag den första begäran om återverifiering till Google och ber dem att granska min blogg för förekomsten av icke-naturliga inkommande länkar och ta bort filtret:

Jag säger hur vit och fluffig jag är, det gör jag inte igen, så jag ändrade designen på bloggen, bilderna är alla unika, jag skriver alla artiklar själv, la la la... Det finns en sådan knapp i samma avsnitt:

Skickat. Efter 3 dagar får jag svar:

Det vill säga, de kollade min blogg och det verkar som om den fortfarande bryter mot riktlinjerna för kvalitetssäkring. Länkarna till mig är fortfarande onaturliga. OK. Jag skickar förfrågan igen och då är jag ännu mer indignerad, som, hur kommer det sig, jag har inte brutit mot den, det är inte mitt fel, han kom själv och allt sånt.

Återigen får jag svaret, nej, du kom själv... Skyldig...))) Det vill säga, de tar inte bort filtret. ok! Jag skickar förfrågan igen och svär redan... Som, vad är det, visa mig länkarna, det är redan 1500 av dem som kommer till mig, jag är ingen trollkarl och jag kan inte förstå vilka som är bra och vilka är dåliga.

Jag får detta svar:

Det vill säga, de säger återigen att sidan bryter mot rekommendationerna, men de visade även till och med 3 länkar som exempel. Jag tittade på alla dessa länkar och såg att det här är jävligt. Hur kan du anse att de inte är naturliga om folk själva lägger upp dem på sina bloggar??? Okej, jag håller med om en, jag höll en tävling, men resten är 2 för vad?

Jag skriver ett brev till Google igen och säger, kamrater, har ni blivit galna med era algoritmer? Du anser naturliga länkar vara onaturliga länkar. Folket installerade dem själva. Jag får svaret igen - din sida bryter fortfarande mot rekommendationerna och återigen visar de fler exempel på länkar.

Jag tittar på dem igen och ser att de alla är naturliga. Jag köpte dem inte, folk installerade dem själva. Och precis så skickade jag verifieringsförfrågningar 9 gånger. Allt är värdelöst. Jag ville redan skriva obsceniteter till dem som stöd, men jag insåg att detta definitivt inte skulle leda till något bra, så jag gick till Google-forumet.

Jag bestämde mig för att ställa frågor där. Jag förklarar situationen, jag säger att Google skickar brev om att min blogg bryter mot rekommendationerna, hur kan det vara, eftersom alla länkar är naturliga. Jag fick en massa värdelösa svar där och det slutade med att jag gick därifrån.

Min slutsats var tydlig: Google satte orättvist ett filter på mig.

Jag tror faktiskt, killar, att Gogol påtvingade mig ett filter just inte för onaturliga länkar, utan för en minskning av det totala antalet inkommande länkar. Jag slappnade av efter pandan, slutade ta emot inkommande länkar av hög kvalitet och så slog pingvinen mig med sin fena =)

Hur jag kom ut ur Gogols pingvins manuella filter

Men jag tänker inte sitta, gråta i en näsduk och lämna allt som det är? I början av 2014 bestämde jag mig för att ta mig samman och bli av med detta gissel, det här google filter. Jag började gräva olika information om att ta bort filtret, läst en massa artiklar och fall, tittat på videor, deltagit i webbseminarier om SEO, tittat på kurser osv.

Som ett resultat fick jag en tydlig förståelse för vad jag behöver göra för att få bort bloggen ur filtret. Och jag var tvungen att göra följande:

1. Samla full lista alla inkommande länkar till min blogg
2. Identifiera dåliga länkar från listan och avvisa dem i Disavow-verktyget
3. Ta bort alla dessa länkar från andra webbplatser (som Google visade mig)
4. Börja få naturliga länkar av hög kvalitet

Under hela januari och februari gjorde jag just det. Den 22 februari skickar jag en begäran om återverifiering och den 2 mars HURRA!!! Jag får ett brev från Google där det står att filtret har tagits bort:

Efter att ha läst det här brevet hoppade jag upp ur stolen, började springa runt i rummet i mina shorts och ropade "Googla jag älskar dig!!!", sedan sprang jag igen i mina shorts till affären, köpte en flaska konjak och blev full som ett odjur =))) Jag skojar förstås... Men min glädje visste inga gränser.

Så där går du! Vad gjorde jag egentligen? Först och främst bad jag alla dessa webbansvariga att ta bort de länkarna som Google hänvisade mig till. Nästan allt togs bort utan problem, vilket stort tack till dem! Men det finns också länkar som jag inte kan ta bort, eller hur? Vad ska man göra med dem?

Vi klistrar in det hela i ett enkelt txt-dokument:

OK. Vi har en komplett lista över alla inkommande domäner till vår blogg. Nu måste vi ta reda på alla dåliga länkar från den här listan och berätta för Google att inte ta hänsyn till dem alls vid rankningen.

Google har ett specialverktyg som heter Verktyg för avvisande. Där kan vi ladda upp en lista med länkar som inte bör tas i beaktande av Google, och efter en tid, efter flera uppdateringar, kommer alla dessa länkar inte att beaktas.

Jag kommer att berätta hur detta går till nedan, men frågan är - hur räknar man ut från listan vilka länkar som är bra och vilka som är dåliga? Det finns 2 alternativ här:

Tja, det första alternativet fungerar verkligen, men är inte särskilt effektivt. Varför? Men för att man kan titta på en resurs och se att den verkar vara normal, men i själva verket är den av dålig kvalitet. Kvalitet är först och främst TRUST och SPAM. Mer om detta senare.

Det vill säga att du inte avvisar en länk, och tänker att den är bra, utan den är faktiskt dålig. Det första alternativet är också dåligt eftersom det kommer att ta dig mycket tid. Här har jag 1500 inkommande länkar. Tänk om jag går på var och en? Det här är tufft =)

Det andra alternativet är coolt eftersom Checktrust-tjänsten själv följer alla länkar som du visar den, väljer alla dåliga, icke-pålitliga och spammiga från dem och ger dig en KLAR FIL, som du bara behöver ladda upp till Disavow Verktyg och det är allt.

Jag rekommenderar definitivt att du använder det här alternativet, eftersom det är en 100% lösning. Jag skickade in begäran om granskning till Google 9 gånger och bara 10 gånger när jag använde den här tjänsten (mottagen klar fil och skickade det till Disavow Tool) togs filtret bort från mig.

För att använda checktrust-tjänsten behöver du bara:

1. Registrera
2. Lägg till en lista över alla kontrolllänkar till BackLinks Checker-verktyget
3. Skaffa en färdig fil med dåliga länkar
4. Skicka den till Disavow-verktyget.

Låt oss börja. Du kommer inte ha några problem med registreringen. Därefter skapar vi på kontoret nytt projekt Backlinks Checker:

Klicka på "Nästa" och "Bekräfta och placera projektet." Allt. Om 5-10 minuter, eller ännu tidigare, kommer tjänsten att bearbeta alla länkar och ge dig en färdig fil, som du måste ladda upp till Disavow-verktyget för att avvisa dåliga länkar.

Så snart Checktrust har avslutat allt, gå till "Hem", klicka på namnet på vårt projekt och en txt-fil med alla dåliga länkar kommer automatiskt att laddas ner till oss:

Med denna fil går vi hit till Verktyg för avvisande. Klicka på "Avstå länkar":

Återigen - "Avvisa länkar" och ladda upp vår fil dit, vilket checktrust gav oss:

Allt! Vi avvisade dåliga länkar! Men detta räckte inte för att jag skulle ta mig ur filtret. Jag behövde definitivt återställa dynamiken i länkmassatillväxt. Det vill säga jag behövde se till att olika sajter och bloggar började länka till mig igen.

Kort sagt, jag behövde börja förbättra min länkprofil, vilket är vad jag gjorde. Vad är en länkprofil, hur man analyserar och förbättrar den, förklarade jag i min kurs Hur man blir en bloggare 3,0 tusenär

Naturligtvis är det viktigaste för att förbättra din länkprofil den ständiga ökningen av nya högkvalitativa länkar. Nya inkommande länkar måste tas emot hela tiden, och tjänsten Checktrust har också hjälpt mig och hjälper mig fortfarande med detta.

Detta är faktiskt nu det främsta verktyget för att marknadsföra min blogg. Jag förklarade också hur man använder det när man köper länkar i KSBT 3.0-kursen. Ägare av denna tjänst Alexander Alaev, som jag redan har berättat om mer än en gång. Sanya, tack för en så cool sak.

Det hjälper dig verkligen att inte kasta bort 90 % av din budget när du köper länkar. I allmänhet började jag få inkommande länkar varje dag (gratis och betalda, köpte dem på börser). Har du hört att Yandex har avbrutna länkar? =) Tror detta vidare.))))

I allmänhet är det så här jag kom ur Googles manuella filter. Det finns också ett automatiskt filter. Hur skiljer det sig från manualen? Och det skiljer sig genom att din blogg (webbplats) hamnar utanför topp 50-100 på alla positioner, trafiken sjunker kraftigt, men notifikationerna i panelen google verktyg du fattar inte. Det är enkelt!

Och om du i princip kan bli av med ett manuellt filter snabbt, bara genom att använda checktrust, så blir det mycket svårare att bli av med ett automatiskt eftersom det inte tas bort av personer som tittar på din ansökan för granskning och gör en beslut, men av robotar (algoritmer).

Har robotar vissa siffror lämna under filtret och tills din resurs når dessa siffror, kommer du inte att lämna under filtret, du måste också vänta på uppdateringar av gogole-pingvinalgoritmerna. Utgångsdiagrammet för det automatiska pingvinfiltret är detsamma som för det manuella:

Om du till exempel ser att du har bra trafik från Yandex, och från Google från Gulkin Klyuk, så är detta en signal - du är under filtret. Eller en panda eller en pingvin. Du vet redan vad pandan straffar för. Om du tror att allt är "noll tarm" med pandan, så är allt inte så bra med pingvinen.

Vi måste vidta åtgärder. Men få inte omedelbart panik och spring för att avvisa länkar. Kanske ska du bara titta på alla dina inkommande länkar, analysera dem i checktrust, titta på deras kvalitet och visuellt utvärdera hela bilden.

Det vill säga vilka länkar som är mer dåliga eller bra. Om du verkligen ser att det finns få kvalitetsresurser som länkar till dig, måste du korrigera denna situation och börja få kvalitetslänkar. Jag kommer att märka KVALITET!

Tja, det är nog allt. Jag avslutar här och avslutningsvis har jag ett intressant förslag till dig:

EN SOM REGISTRERAR I CHECKTRUST SERVICE SENAST 15 AUGUSTI 2014 MIN AFFILIATE-LÄNK OCH KOMMER ATT PAPPA SALDOET PÅ SIN KONTO MED MINIMUM 1000 RUBEL, KOMMER HAN FÅ EN MYCKET BRA PRESENT FRÅN MIG.

EFTER ATT REGISTRERA OCH FYLLA PÅ DITT SALDO, SKRIV BARA TILL MIG SOM STÖD OCH FÅ DIN GÅVA. OM DU FÖLJAR DITT SALDO MED 2000 RUBEL, DÅ KOMMER JAG PERSONLIGT TITTA PÅ DIN BLOGG, ANALYSERA DEN FÖR FEL OCH BERÄTTA DIG VAD SOM BEHÖVER KORRIGERAS.

OM DU TILL EXEMPEL HAR NÅGRA SKILLNADER MED ATT ELIMINERA DUPLICIER PÅ DIN BLOGG, SOM JAG TALAT OM I DE TVÅ FÖREGÅENDE ARTIKlarna, DÅ SKA JAG ÄVEN HJÄLPA DIG MED DETTA OCH STÄLLA IN ALLT!

MEN! Tro inte att jag skrev den här artikeln bara för att marknadsföra checktrust-tjänsten och tjäna provision. Detta är fel. Det här är verkligen en riktig tjänst som jag själv använder nästan varje dag och rekommenderar starkt att du använder den.

Och jag ger dig ett erbjudande eftersom jag deltar i en tävling från checktrust, där en iPhone 5 lottas ut, som jag skulle vilja vinna och ge till vinnaren av ""-tävlingen. =) Det här är pajerna.

Om någon har några frågor, fråga gärna i kommentarerna. Men i teorin tror jag att jag förklarade allt tydligt.

Killar, vet ni varför de flesta bloggare idag har en sorglig situation med trafik från Google och Yandex? Jo, ja, tekniska misstag spelar roll, men en av de viktigaste orsakerna är bristen på en bra inkommande länkmassa eller dess fullständiga frånvaro.

Hur många brev får jag som stöd - "Alexander, vad ska jag göra? Jag har skrivit den här bloggen i två år nu, men det finns fortfarande ingen trafik från PS. Artiklarna är unika, intressanta, användbara, det finns många läsare... HJÄLP!”

Det är bra att du har många läsare och dina artiklar är bra, men det räcker inte. Man måste visa och bevisa att de är riktigt coola. Endast högkvalitativa, pålitliga, inkommande länkar kan visa detta. Och ju fler det är desto bättre.

Om en auktoritativ webbplats länkar till dig är detta en direkt indikator på att din webbplats är intressant. Om du har bloggat i 2-3 år och har 100 inkommande länkar, förvänta dig inte megatrafik. Titta på projekten som når tiotusentals besökare.

Där är länkfrämjandet genomtänkt redan innan projektstart. Det finns hela metoder, analyser, länkfrämjande planering osv. Det är därför som vissa resurser utvecklas bra, medan andra är i baken.

I allmänhet, det sista - använd länkkampanj så blir du glad, och lyssna inte på några uttalanden om att länkarna inte fungerar, de har avbrutits osv. Lycka till!

P.S. Förmodligen den mest sista frågan du säger, "Vad ska jag göra nu? Jag fick inget brev från Google, det verkar som att jag inte är under filtret, det finns ingen trafik, men det kommer. Vad händer då?

Och sedan är det bara att utvärdera kvaliteten på alla länkar som kommer till din blogg genom tjänsten checktrust (jag pratade om hur man gör detta i KSBT 3.0) och om du ser att bilden är trist är det få länkar och majoriteten är inte särskilt bra bra kvalitet, vidta sedan åtgärder.

Lita på mig! Du kommer att börja få kvalitetslänkar och se en ökning av trafiken. Jag visade tydligt detta fram till februari 2012, då jag fick en panda för dubbletter.

Nåväl, det är det, hejdå alla! Jag ser fram emot dina frågor i kommentarerna!

Med vänlig hälsning, Alexander Borisov

Penguin - algoritm sökmotor Google, vars första roll var att bekämpa onaturliga (köpta) länkar. Det första releasedatumet för Penguin 1.0 är den 24 april 2012.

Nästa uppdateringar:

Lanseringen av Penguin 4.0-uppdateringen har försenats flera gånger. Utgivningen av uppdateringen var planerad till slutet av 2015, men arbetet med att förbättra algoritmen pågick till september 2016.

Vi presenterar för dig en översättning av en artikel från tjänstemannen Google blogg: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html

Penguin blev en del av Googles kärnalgoritm

Googles algoritm använder mer än 200 unika signaler, eller "tips", för att snabbt hitta vad en användare letar efter. Dessa signaler inkluderar vissa ord på webbplatssidor, innehållsuppdateringsfrekvens, webbplatsregion och PageRank. En sådan Google-signal är Penguin-algoritmen, som lanserades 2012 och uppdaterades den 23 september 2016.

Efter förbättringar och tester rullar Google nu ut uppdateringen av Penguin-algoritmen på alla språk. Vi presenterar de viktigaste förändringarna som du kommer att se, de var bland de populära önskemålen från wemasters:

  • Nu fungerar Penguin i realtid. Historiskt sett har listan över webbplatser som påverkats av Penguin uppdaterats med jämna mellanrum. När webbansvariga förbättrade sina webbplatser uppdaterade många Google-algoritmer information om dem ganska snabbt, men algoritmer som Penguin tog tid att uppdatera data. Nu uppdateras Penguin-data i realtid, vilket gör att ändringar på sajten kommer att märkas av Google mycket snabbare. Som regel träder de i kraft direkt efter att roboten genomsöker och indexerar sidorna igen. Det betyder att Google inte kommer att meddela några fler uppdateringar.
  • Pingvinen har blivit mer detaljerad. Det nedgraderar för närvarande skräppostsidor genom att ändra rankningar baserat på spamsignaler, snarare än att påverka rankningen av webbplatsen som helhet. Det vill säga att det finns en underskattning i utfärdandet av en eller flera sidor, och inte hela webbplatsen.

Internet har förändrats avsevärt under åren, men som Google sa i sitt ursprungliga inlägg bör webbansvariga vara fria att fokusera på att skapa övertygande och användbara webbplatser. Det är också viktigt att komma ihåg att uppdateringar som Penguin bara är en av över 200 signaler som Google använder för att rangordna webbplatser.

Om du undrar: hur man tar bort en webbplats från Penguin? Hur man tar bort Googles manuella filter? Sedan hjälper den här guiden dig att lösa dessa problem, återta positioner och trafik.

I sökmotorn Googles system Det finns dussintals välkända filter som i hög grad kan påverka marknadsföringen, liksom hundratals som få människor känner till.

Idag kommer vi att prata om de mest grundläggande och vanliga filtren. Nämligen:

  1. Automatiskt Google-filter för bakåtlänkar

Alla av dem på ett eller annat sätt relaterar till en algoritm som kallas Google Penguin, som trädde i kraft för mer än ett år sedan och som redan har hunnit med att bullra mycket.

Symtom på ett sådant filter

  1. kollaps av positioner
  2. kraftig nedgång i webbplatstrafik

I praktiken kommer det se ut så här:

Inte direkt en trevlig situation. Särskilt när din främsta källa för att locka besökare i de flesta fall är söktrafik.

Låt oss nu titta närmare på varje typ av filter för bakåtlänkar.

Manuellt Google-filter för artificiella inkommande länkar

Ofta börjar allt med ett meddelande i panelen Google Webmasters. Det ser ut så här:

Meddelandet innehåller ett meddelande av denna typ:

Meddelanden kan vara olika, till exempel:

Gör så här för att hitta manuella filtermeddelanden:

Efter att ha fått ett meddelande om konstgjorda inkommande länkar är följande vanligtvis konsekvenserna:

A) Inom 2-3 veckor sjunker positionerna avsevärt, varefter trafik från Google-sökning försvinner

B) Positioner försvinner omedelbart och trafiken minskar

Anledningar till Googles manuella filter

Huvudsignalen som gör att ett sådant meddelande kommer fram är ankarlänken och dess överskottsspam.

I exemplet, texten bakåtlänkar till en av webbplatserna som påverkades av filtret. Den främsta anledningen till filtret är ankarspam.

Ett annat exempel:

Om man tittar på unika domäner, då får vi följande bild:

Att använda bakåtlänkar med kommersiella eller andra sökord leder till manuell filtrering, förlust av ranking och trafik.

Vad ska man då göra och vad ska man göra?

Lösningen är extremt enkel - använd inte stor andel länkar med nyckelord.

Steg-för-steg-instruktioner för att ta bort Googles manuella filter

  1. Google-avisering
    Kontrollerar om det finns en avisering in Google Webmaster Verktyg. Om ja, gå vidare till nästa punkt.
  2. Begäran om granskning
    I den första granskningsförfrågan är det viktigt att klargöra vilka länkar som bryter mot sökreglerna och fråga vad som behöver göras för att ta bort manuella sanktioner.
  3. Vi får svaret

    I de flesta fall indikerar svaret dessa länkar, enligt vilka webbplatsen bryter mot sökreglerna. Till exempel:

    Som ett resultat kan vi avgöra vilka länkar Google uppmärksammar och betraktar dem som skräppost.

  4. Vi utför de angivna åtgärderna

    Vad du gör härnäst beror mycket på din länkprofil.

    Situation 1

    Det är värt det för din webbplats Ett stort antal hyrda länkar, och i de flesta fall är det direkta ankare som innehåller nyckelord.

    I det här fallet är det nödvändigt:

    1. rena länkar med ankare (inklusive de i Google-exemplet)
    2. gå vidare till nästa punkt - ny förfrågan för granskning

    Om du verkligen tar bort de flesta av dessa länkar kan det manuella filtret tas bort från en eller två frågor.

    Situation 2

    I det här fallet är det nödvändigt:

    1. visa alla bakåtlänkar (du kan använda tjänster för kontroll av bakåtlänkar, till exempel: Ahrefs, MajesticSeo, LinkPad)
    2. gör en lista över länkar som är oönskade (huvudkriterier: ankare, låg kvalitet på webbplatsen)
    3. lägg till länkar till Disawov-verktyget - https://www.google.com/webmasters/tools/disavow-links-main?/
    4. vänta 1-2 veckor (från praktiken är det nödvändigt att länkarna återindexeras)
    Gå sedan vidare till nästa punkt och skicka in en begäran om granskning.
  5. Skickar in en ny begäran om granskning

    Din begäran om granskning måste:

    1. beskriv tydligt vad du gjorde
    2. enkelt och tydligt
    3. och klargör vad mer som behöver göras för att ta bort filtret

    Efter det behöver du lite tid för att revidera din webbplats. Detta kan ta från ett par dagar till 3-4 veckor.

  6. Mellansvar

    Mellansvaret innehåller vanligtvis följande innehåll:

    Det här meddelandet från Google kommer nästan omedelbart efter att du har skickat in din begäran om granskning.

  7. Vi väntar på ett beslut

    Svaret kommer vanligtvis inom 1-2 veckor, ibland längre och ibland snabbare.

    Den innehåller antingen ett negativt svar, till exempel:

    Om svaret är negativt, Den där:

    1. granska länkarna igen
    2. lägg till i Google Disawov
    3. eller bara ta bort länkar
    4. i vilket fall som helst måste åtgärder vidtas
    5. lämna in en ny begäran om granskning

    Men svaret efter stegen ovan kan vara positiv, Till exempel:

    I det här fallet, grattis! Googles manuella filter har tagits bort.

I vårt exempel fanns det nej snabbt sätt Om du tar bort en webbplats från Googles manuella filter ser kronologin av händelser ut så här:

Viktiga punkter när du själv tar bort filtret:

  1. Att inte ge upp
  2. vidta åtgärder (inte bara skicka förfrågningar om granskning)
  3. om du gör allt enligt beskrivningen ovan, kommer det manuella filtret från Google att tas bort, du kommer att returnera positioner och trafik

Här är information som kommer att komplettera detta material och hjälpa dig att framgångsrikt ta bort filtret:

  1. USA teman
  2. Fall: hur man tar bort manuella Google-sanktioner med hjälp av Disavow Tool, returpositioner och trafik
  3. Fallstudie: hur man tar bort Googles manuella sanktioner och returnerar positioner och trafik

Det är inget fel med ett manuellt filter, det viktigaste är att inte vara lat och göra en rad åtgärder som leder till önskat resultat.

Resultatet är en återgång av närvaro till sin tidigare nivå, till exempel:

I i detta exempel Ett par platser övervägdes, från vilka filtren togs bort vid olika tidpunkter.

Med filterborttagningstid:

  1. 4 dagars rekord
  2. längsta perioden 3,5 månader

Men i alla fall måste du agera snabbt och även ta hänsyn till punkterna som beskrivs ovan.

Automatiskt filter för bakåtlänkar

Med Googles automatiska filter är allt mycket mer komplicerat. Eftersom det inte finns något meddelande om det.

Viktigt: automatiska sanktioner kan hävas om officiell uppdatering Googles algoritm Pingvin, som förekommer i genomsnitt en gång var 2-4 månad.

Oavsett vad du gör, tills algoritmen är uppdaterad, kommer ingenting att förändras om dessa är automatiska sanktioner.

Vi har tagit bort det automatiska filtret mer än en gång, men saker händer inte alltid snabbt.

Filtrera tecken

Allt är detsamma som med den manuella, men ingen avisering kommer.

  1. positionerna sjunker först vid – 30-50
  2. trafiken till webbplatsen minskar

Och sedan kommer han inte tillbaka på länge.

Huvudskäl:

  1. Direkt inmatning av länkankare
  2. Bakåtlänkar av låg kvalitet

Steg-för-steg-guide för att ta bort det automatiska filtret

I I detta fall Till skillnad från manuell tar allt en storleksordning längre och är mer komplicerat.


Avslutningsvis om Google Penguin-filtret

Algoritmen lanserades 2012 och förbättras ständigt. Dess huvudsakliga uppgift är att bekämpa spam och artificiell manipulation av sökresultat.

För att undvika att hamna under filtret, nödvändigt:

  1. använd inte ett direktförankringsark särskilt märkbart, eller använd det inte alls
  2. locka till sig kvalitetslänkar till webbplatsen
  3. försök att fokusera på produkten och dess kvalitet för att få naturliga länkar (ja, detta kan göras även i RuNets verklighet)
  4. bibehålla dynamik - Google gillar konstant dynamik

Då kommer du inte ha några frågor med filter och din trafik kommer hela tiden att växa. Naturligtvis, om du arbetar med:

  1. webbplatsens innehåll
  2. attrahera naturliga länkar (ej köpta)

Även om du redan har trampat på en rake och fått sanktioner från Google, så ska du inte bli besviken – det finns alltid en lösning.

jag hoppas detta steg för steg guide hjälper dig att lösa ditt problem - returnera positioner och trafik från Googles sökmotor.

Viktigt: Den här artikeln täcker endast filter relaterade till Google Penguin-algoritmen och bakåtlänkar.

Om din ranking och trafik har sjunkit kraftigt, så kan orsaken inte finnas i länkarna alls, utan till exempel i innehållet. Google Panda-algoritmen är ansvarig för detta.

Lycka till! Vi ses snart på bloggsidans sidor

Du kan titta på fler videor genom att gå till
");">

Du kanske är intresserad

Anchor - vad är det och hur viktiga är de i marknadsföring av webbplatser? Avvisa länkar eller hur man avgör vilket Google-filter (Panda eller Penguin) en webbplats är under
SEO-terminologi, akronymer och jargong Varför du kan bli förbjuden från Yandex, falla under AGS eller ett fotduksfilter, samt sätt att komma ur dessa sanktioner
Rel Nofollow och Noindex - hur man blockerar externa länkar på en webbplats från att indexeras av Yandex och Google
Webbplatsförtroende - vad är det, hur man mäter det i XTools, vad påverkar det och hur man ökar auktoriteten för din webbplats

Vi vet alla mycket väl, kära vänner, hur sökmotorer porerar över sina algoritmer, filter och så vidare, för att ge vanliga internetanvändare det de letar efter så tydligt som möjligt. Men dessa samma algoritmer rensar samtidigt nätverket från samma spam eller lågkvalitativa resurser, som på något sätt hamnade i TOPPEN. "Det kommer inte att fungera så" - på något sätt tror sökjättarnas sinnen det, och återigen kom killarna från Google ut med den här tanken.

Så för den andra veckan nu har den webbansvariga delen av nätverket surrat och majoriteten är indignerade: "Google introducerade något med något och den här helvetiska blandningen skar ner våra positioner, vilket i sin tur minskade trafiken." Ja, faktiskt, när jag analyserade konkurrensen inom de nischer som intresserar mig, märkte jag allvarliga förändringar. Trafiken på många konkurrenskraftiga resurser minskade med 10, 20, 50 eller ännu mer procent. Varför gå långt, titta på några SEO-bloggar, det är ovanligt att se trafik på 150-200 användare per dag.

Så, vad kom Google fram till...

Den 20 april 2012 dök ett meddelande från Googles utvecklare upp på Internet med ungefär följande innehåll:

"Under de kommande dagarna lanserar vi en viktig algoritmförändring riktad mot webbspam. Ändringarna kommer att minska rankingen av webbplatser som vi anser bryter mot Googles kvalitetskrav för webbplatser."

Natten mellan den 24 och 25 april introducerades en ny Google-algoritm - Google Penguin (Google Penguin). Googles kärlek till djur har genererat mycket surr. På samma sökning bildades flera ämnen med ett enormt totalt antal sidor (mer än 500) som diskuterade den nya Google Penguin-algoritmen. Som alltid var det betydligt fler missnöjda än nöjda, eftersom de nöjda sitter tysta och inte bränner sina prestationer, som bara åts upp av Google Penguin med ett ”hurra”.

Låt oss först bekanta oss med de mycket grundläggande kraven på webbplatsens kvalitet som Google ställer:

  1. Använd inte dold text eller dolda länkar. Google, och inte bara Google, har länge marscherat under filantropins fana. Det en person inte ser förstås och uppfattas av sökmotorer som ett försök att påverka sökresultaten, och detta kan jämföras med manipulation och undertrycks i form av pessimisering eller någon annan "skada". Jag minns att dold text en gång i tiden var väldigt moderiktig, såklart, eftersom den hade effekt. Svart text på svart bakgrund med en viss optimering kom man till sidan och undrade var det var vad sökmotorn visade.
  2. Använd inte cloaking eller dolda omdirigeringar. Du behöver inte försöka ge bort sökrobot en information och användaren en annan. Innehållet ska vara detsamma för alla. När det gäller omdirigering finns det de som gillar att lura pengar från omdirigering eller försäljning mobiltrafik, beslutade Google att göra en liten besviken.
  3. Skicka inte automatiska frågor VGoogle.
  4. Överbelasta inte dina sidor med sökord. Denna princip har länge stötts av Yandex och positionering mot överoptimering av webbplatser dödade tydligt anhängarnas arbete med att fylla webbplatsen med nycklar. Om det tidigare var möjligt att fylla artiklar med sökord och njuta av trafik från Google, nu, som du kan se och förstå, är inte allt så enkelt. Men glöm inte bort användarfaktorer eller så kallade beteendefaktorer. Om de är på en bra nivå är inte ens en liten överoptimering ett problem, eftersom användarbeteendefaktorer alltid har varit, är och kommer troligen att prioriteras. Bara här är allt något mer komplicerat - föreställ dig själv vad som behöver ges och i vilken volym så att samma beteendefaktorer är som bäst. Detta tyder på att innehållet verkligen borde vara av hög nivå och intresse, och inte en lätt omskrivning från en konkurrerande sajt eller nischledare.
  5. Skapa inte sidor, domäner eller underdomäner som väsentligt duplicerar innehållet på din huvudsajt eller någon annan webbplats. Vid det här laget sammanställde Googlers omedelbart sina åsikter om anknytning, webbplatsnätverk, dörröppningar, copy-paste och omskrivning av låg kvalitet.
  6. Skapa inte skadliga sidor till exempel nätfiske eller innehållande ett virus, trojansk häst eller annan skadlig programvara. Denna punkt ska man inte tugga på alls, bekämpa virus i ett ord.
  7. Skapa inte dörröppningar eller andra sidor som är designade bara för sökmotorer.
  8. Om din sida fungerar med affiliate-program, se till att det ger värde för nätverket och användarna. Förse den med unikt och relevant innehåll som kommer att locka användare till dig i första hand.

Google identifierade dessa 8 principer som de viktigaste. Men det finns också fyra till som särskilt noterades av dem:

  1. Skapa webbplatssidor främst för användare, inte sökmotorer. Använd inte förklädnader eller andra system för att arbeta med webbplatser, var extremt transparent.
  2. Försök inte använda knep för att öka din webbplats ranking i sökmotorer.
  3. Delta inte i länkbyggande system som är utformade för att öka din webbplats ranking i sökmotorer eller Google Sidrankning. Undvik särskilt länkar som ser ut som skräppost, länkdumpar eller dåliga grannar på servern (jag uppmärksammar dig på att analysera och titta på närliggande webbplatser om din webbplats är värd på en vanlig delad värd).
  4. Använd inte obehörig mjukvarulösningar för att automatiskt kontakta Google. Utvecklarna själva lyfter fram som WebPosition Gold™.

Men allt verkade vara känt för alla som var intresserade av frågan tidigare.

I arbetet med den nya Google Penguin-algoritmen blev jag förvånad över den strikta efterlevnaden av principen om "reklamladdning" på första sidan. Kom ihåg att det sades att den första sidan (hemsidan) inte skulle vara överbelastad med reklam. Google Penguin har helt klart börjat följa denna princip. Det stängde av trafik för webbplatser med flera stora reklamblock på huvudsidan, även om dessa block var deras egna - Google-annonsering Adsense. 🙂

Observationer om arbetet med Google Penguin

Nu skulle jag vilja räkna upp ett antal av mina egna observationer. Jag förstår att de är ungefärliga och representerar mina personliga observationer och data (indikatorer kan uppfattas som relativa), men de har sin plats och har rätt att existera. Jag analyserade arbetet på 20 sajter, både mina och mina partners. Analysen tog mig 3 dagar och jag bedömde många indikatorer. Som du förstår marknadsfördes alla webbplatser med olika scheman och med olika algoritmer, hade helt olika indikatorer, vilket gjorde det möjligt att dra ett antal slutsatser.

1. Exakt inmatning. Om du tidigare, för att vara i Google i choklad, behövde många exakta poster, nu med Google Penguin (Google Penguin) är allt exakt detsamma och vice versa. Detta kan vara just kampen mot webbspam. Yandex har länge varit förtjust i att späda ankare, och nu har saken kommit till Google.

  • sidor med externa länkar har en exakt ingång på 100% - neddragningen var 75-90%. Genomsnittlig nedgång på cirka 38 positioner;
  • sidor med externa länkar exakt inträde 50% - nedsättningen var 15-20%. Genomsnittlig nedgång på cirka 9 positioner;
  • sidor med externa länkar av exakt förekomst mindre än 25 % - en ökning med 6-10 % märktes. Genomsnittlig ökning 30 positioner.

Baserat på dessa data gjorde jag en slutsats - vi späder ut ankarna och späder ut dem så intressanta och djupa som möjligt.

Ett slående exempel är begäran om "gogetlinks" på den här bloggen. Exakta förekomster är betydligt fler än utspädda förekomster, och detta är resultatet:

2. Köpa tillfälliga länkar. Jag köpte tillfälliga länkar för efterbehandling eller snabbt resultat på alla analyserade resurser och med olika system. Dessa var Sape, Webeffector, Seopult och ROOKEE.

Generatorer automatisk marknadsföring Webeffector och ROOKEE gav ungefär samma resultat. Neddragningen märktes praktiskt taget inte alls, bara en liten på Webeffector, men den är obetydlig och är mer relaterad till utspädningen av ankare. I andra ögonblick observeras jämn tillväxt, vad kan jag säga, här är en skärmdump av kampanjen (klickbar):

När det gäller Sape är bilden en helt annan. Alla projekt för vilka länkar köpts från Sape sjönk. Alla förfrågningar som rörde sig i den här börsen flög ur TOP 100 och till och med att samla in statistik om vart de flög dit blev på något sätt stressigt, vilket jag till slut inte gjorde.

När jag analyserade effekten av Google Penguin på marknadsföring med Sape, drog jag slutsatsen att Google nu uppfattar placeringen av länkar på detta utbyte som onaturligt.

Här började jag aktivt ta bort länkar. Men det är vettigt att ge dina egna exempel när du kan visa dig smarta från vår egen nisch. Låt oss ta min väns blogg - Sergeya Radkevich upgoing.ru. Mannen arbetade med Sape i flera månader och var nöjd med trafikökningen tills Google Penguin kom. Vi kollar:

Det är också värt att titta på källdiagrammet söktrafik:

Som du kan se har Google Penguin minskat trafiken från Google med mer än 7 gånger.

Slutsatsen på denna punkt är att vissa filter fortfarande behöver användas när man arbetar med tillfälliga länkar och någon form av placerings- och inköpsalgoritmer. Automatiserade tjänster fungerar enligt vissa system, till skillnad från Sape. Resultaten är förresten uppenbara.

Webbplatser med Seopult förväntas i allmänhet öka sina positioner. Här använde jag Seopult Max-algoritmen för Yandex, men som jag ser fungerar den nu även med Google.

3. Överoptimering av innehåll.Även här märktes en nedgång, men inte lika betydande som i de tidigare parametrarna. Inom 10 positioner förlorade endast 10-15 % av överoptimerade artiklar.

Här drar jag slutsatsen att det inte är så läskigt att lite överoptimera, vilket ger dig själv några garantier. Och du kan komma ikapp med lägre visningar genom att köpa länkar.

4. Evig länkar. Frågor främjas eviga länkar med ett normalt och naturligt utseende ökade de bara sin ranking mer seriöst. Vissa HF VC:er klättrade in i TOP 20 utan någon manipulation, på grund av en märkbar nedgång hos de flesta av deras konkurrenter. Här drar jag återigen slutsatsen att mitt arbete i riktning mot befordran ENDAST med eviga länkar är korrekt.

1. Ta hänsyn till all information ovan och arbeta med både innehållet på din webbplats och dess marknadsföring.

2. Sök efter Google-aviseringar på Google Verktyg för webbansvariga med ett meddelande om spamaktivitet på din resurs. För att göra detta, gå till http://www.google.com/webmasters/, logga in. Gå sedan till statistiken för din webbplats och gå till meddelandesektionen (klickbar):

Om det fortfarande finns meddelanden kommer det att vara nödvändigt att vidta åtgärder för att lösa de problem som anges i meddelandena. Detta kan innefatta att ta bort länkar... Alla yoghurtar är inte lika hälsosamma... 😉

3. Kontrollera webbplatsen för tillgänglighet skadlig programvara i Googles verktyg för webbansvariga:

Lösningen på frågan är densamma som i föregående stycke. Vi identifierar program och filer som markerats av Google som skadliga, hittar dem på servern eller ersätter eller tar bort dem.

Om allt är riktigt dåligt och du har gett upp, fyll i formuläret och underteckna den skapade petitionen till Google mot Google Penguin. Detta garanterar dig naturligtvis ingenting, men åtminstone ett ögonblick av liten självtillfredsställelse och känslan av "jag gjorde allt jag kunde" kommer definitivt att komma. På samma ämne kan du använda formuläret respons kontakta algoritmutvecklarna.

Själv tappade jag lite, eftersom huvudvikten låg på verkligt SDL och marknadsföring med eviga länkar. Jag blev av med negativiteten inom 2 dagar och började växa i samma takt. Tja, den som gillade att göra allt snabbt och enkelt - du är kvar mest och tuggar snor.

Som en av mina vänner sa: "Nu kommer hacket att synas. Stora förändringar väntar de som älskar det snabba, billiga och enkla. De som bryter banken genom att marknadsföra enbart dödliga på Internet, medan de öppet hackar, kommer att drabbas av ett fiasko och lyssna på många klagomål från kunder”...

Du kan lägga upp dina tankar om Google Penguin eller resultatet av ändringarna i kommentarerna.

Glada och kvalitetsförändringar till alla!

I skolan:
- Barn, kom på en mening med uttrycket "Det var lite."
Kolya:
– Vår Olya blev nästan en skönhetsdrottning!
Peter:
– I lördags missade jag och mamma nästan tåget...
Vovochka:
– I morse dog Lyokha och jag nästan av baksmälla, men vi hade nästan...

07.11.17

2012 lanserade Google officiellt " anti-web spam algoritm”, som syftar till skräppostlänkar, såväl som metoder för manipulering av länkar.

Denna algoritm blev senare officiellt känd som Google Penguin-algoritmen efter en tweet från Matt Cutts ( Matt Cutts), som senare blev chef för Googles webbspamavdelning. Även om Google officiellt döpte algoritmen till Penguin, fanns det ingen officiell kommentar om var detta namn kom ifrån.

Panda-algoritmen fick sitt namn från ingenjörerna som arbetade med den. En teori för ursprunget till namnet Penguin är att det är en referens till Penguin, DC-seriehjälten Batman.

Före introduktionen av Penguin spelade antalet länkar en betydande roll i hur Googles sökrobotar betygsatte webbsidor.

Detta innebar att när webbplatser rankades efter dessa poäng i sökresultaten, visades vissa webbplatser och delar av innehåll av låg kvalitet på högre positioner.

Varför behövdes Penguin-algoritmen?

Googles krig mot sökresultat av låg kvalitet började med Panda-algoritmen, och Penguin-algoritmen har blivit en förlängning och ett tillägg till arsenalen.

Penguin var Googles svar på dess ökande praxis att manipulera sökresultat (och rankningar) genom skräppostlänkar.

Penguin-algoritmen behandlar endast inkommande länkar till webbplatsen. Google analyserar länkarna som leder till sajten och uppfattar inte den utgående länkmassan.

Inledande lansering och inflytande

När den lanserades första gången i april 2012 Penguin Google-filter påverkade mer än 3 % av sökresultaten, enligt Googles egna uppskattningar.

Penguin 2.0, fjärde uppdatering ( Inklusive original version ) algoritm, släpptes i maj 2013 och påverkade cirka 2,3 % av alla sökfrågor.

Viktiga ändringar och uppdateringar av Penguin-algoritmen

Det har skett flera förändringar och uppdateringar av Penguin-algoritmen sedan lanseringen 2012.

Penguin 1.1: 26 mars 2012

Detta var inte en förändring av algoritmen, utan den första uppdateringen av data i den. Webbplatser som från början påverkades av Penguin-algoritmen, men som sedan blev av med länkar av låg kvalitet, såg en viss förbättring i sina rankningar. Samtidigt har andra sajter som inte påverkades av Penguin-algoritmen när den först lanserades sett en viss effekt.

Penguin 1.2: 5 oktober 2012

Detta var ännu en datauppdatering. Det påverkade förfrågningar på engelska såväl som internationella förfrågningar.

Penguin 2.0: 22 maj 2013

Mer avancerad ( ur teknisk synvinkel) en version av algoritmen som har ändrat i vilken grad den påverkar sökresultaten. Penguin 2.0 påverkade cirka 2,3 % av de engelskspråkiga frågorna och ungefär samma andel av frågorna på andra språk.

Det var också den första uppdateringen av Google Penguin-algoritm som tittade bortom startsidan och sidorna högsta nivån letar efter bevis på skräppostlänkar.

Penguin 2.1: 4 oktober 2013

Den enda uppdateringen av Penguin 2.0-algoritmen (version 2.1) släpptes den 4 oktober samma år. Det påverkade cirka 1 % av sökfrågorna.

Även om det inte fanns någon officiell förklaring från Google till uppdateringen, tyder statistik på att uppdateringen också ökade sidvisningarnas djup och introducerade ytterligare analys för förekomsten av skräppostlänkar.

Penguin 3.0: 17 oktober 2014

Det var ytterligare en datauppdatering som gjorde det möjligt för många sanktionerade webbplatser att återta sina positioner, och andra som missbrukade spamlänkar men gömde sig från tidigare versioner av Penguin för att känna dess inverkan.

Google-anställde Pierre Fare ( Pierre Far) bekräftade detta och noterade att uppdateringen skulle kräva " några veckor» för fullständig distribution. Och att uppdateringen påverkade mindre än 1 % av engelskspråkiga sökfrågor.

Penguin 4.0: 23 september 2016

Nästan två år efter att uppdatering 3.0 släpptes sista ändring algoritm. Som ett resultat blev Penguin en del av Googles centrala sökmotoralgoritm.

Nu arbetar Google Penguin 4 samtidigt med den grundläggande algoritmen och utvärderar webbplatser och länkar i realtid. Det gör att effekterna av förändringar kan ses relativt snabbt externa länkar på din webbplats position i sökresultat Google.

Den uppdaterade Penguin-algoritmen syftade inte heller strikt till att införa sanktioner, den devalverade värdet av skräppostlänkar. Det har blivit tvärtom tidigare versioner Penguin, när dåliga länkar straffades. Men forskning visar att algoritmiska sanktioner baserade på externa länkar fortfarande används idag.

Algoritmiska nedgraderingar i Penguin

Kort efter lanseringen av Penguin-algoritmen började webbansvariga som praktiserade länkmanipulation märka en minskning av söktrafik och sökrankningar.

Inte alla nedgraderingar som utlöstes av Penguin-algoritmen påverkade hela webbplatser. Vissa var partiella och påverkade bara vissa grupper av sökord som aktivt var igensatta med skräppostlänkar eller " överdrivet optimerad».

En webbplats som sanktionerats av Penguin tog 17 månader att återta sin position i Googles sökresultat.

Penguins inflytande sträcker sig också över domäner. Att byta domän och omdirigera från det gamla till det nya kan därför leda till ännu fler problem.

Forskning visar att användningen av 301 eller 302 omdirigeringar inte förnekar effekten av Penguin-algoritmen. På forum Googles webbansvariga John Mueller ( John Mueller) bekräftade att användning av meta refresh-omdirigeringar från en domän till en annan också kan leda till sanktioner.

Återhämta sig från effekterna av Penguin-algoritmen

Verktyget Disavow Links var användbart för SEO-specialister, Och det har inte förändratsäven nu när Google Penguin-algoritm fungerar som en del av Googles kärnalgoritm.

Vad ska inkluderas i en avvisningsfil

Disavow-filen innehåller länkar som Google bör ignorera. Tack vare detta kommer länkar av låg kvalitet inte att minska webbplatsens rankning som ett resultat av Penguin-algoritmen. Men detta betyder också att om du av misstag inkluderade högkvalitativa länkar i din avvisningsfil, kommer de inte längre att hjälpa webbplatsen att rankas högre.

Du behöver inte inkludera några kommentarer i Disavow om du inte vill ha dem själv.

Google läser inte kommentarerna du gör i filen eftersom den bearbetas automatiskt. Vissa människor tycker det är lättare att lägga till förklaringar för senare referens. Till exempel, datumet då en grupp länkar lades till filen eller kommentarer om försök att kontakta webbplatsens webbansvariga för att ta bort länken.

När du har laddat upp din disavow-fil skickar Google en bekräftelse till dig. Men även om Google kommer att behandla det omedelbart, kommer det inte att avvisa länkarna samtidigt. Därför kommer du inte att omedelbart kunna återställa din webbplats position i sökresultaten.

Det finns inte heller något sätt att avgöra vilka länkar som har avvisats och vilka som inte har gjort det, eftersom Google fortfarande kommer att inkludera båda i rapporten för externa länkar som är tillgänglig i Google Search Console.

Om du tidigare laddat ner Disavow och skickat in det till Google kommer det att ersättas av det nya istället för att läggas till det gamla. Därför är det viktigt att se till att du inkluderar ny fil gamla länkar. Du kan alltid ladda ner en kopia av den aktuella filen i din Google-konto Search Console.

Inaktivera enskilda länkar eller hela domäner

För ta bort en webbplats från Google Penguin Det rekommenderas att avvisa länkar på domännivå istället för att inaktivera dem enskilda länkar.

Tack vare vilken sökmotorn Googlebot Du behöver bara besöka en sida på webbplatsen för att avvisa länkar som leder från den.

Att inaktivera länkar på domännivå innebär också att du inte behöver oroa dig för om en länk är indexerad med eller utan www.

Upptäcker dina externa länkar

Om du misstänker att din webbplats har påverkats negativt av Penguin-algoritmen bör du granska dina externa länkar och avvisa länkar av låg kvalitet eller spam.

Google Search Console tillåter webbplatsägare att få en lista med externa länkar. Men det är nödvändigt att uppmärksamma det faktum att Disavow inkluderar länkar som är markerade som " nofollow" Om länken är markerad nofollow-attribut, kommer det inte att påverka din webbplats. Men det är nödvändigt att webbplatsen som publicerade länken till din resurs kan ta bort " nofollow» när som helst utan förvarning.

Det finns också många tredjepartsverktyg som visar länkar till din webbplats. Men på grund av det faktum att vissa webbansvariga skyddar webbplatsen från att genomsökas av tredjepartsrobotar, kan användningen av sådana verktyg inte visa alla inkommande länkar. Dessutom kan sådan blockering användas av vissa resurser för att dölja länkar av låg kvalitet från upptäckt.

Övervakning av externa länkar – nödvändig uppgift att skydda sig mot "Negativ SEO"-attacker" Deras kärna är att en konkurrent köper spamlänkar till din webbplats.

Många människor använder negativ SEO som en ursäkt när deras sida blir straffad av Google för länkar av låg kvalitet. Men Google hävdar att efter Penguin Google-uppdateringar Sökmotorn känner väl igen sådana attacker.

En undersökning gjord av Search Engine Journal i september 2017 fann det 38 % av SEO-specialisterna har aldrig förkastat externa länkar. Att granska externa länkar och grundligt undersöka domänen för varje extern länk är inte en lätt uppgift.

Begäran om att ta bort länkar

Vissa webbplatsägare kräver en viss avgift för att ta bort en länk. Google rekommenderar att du inte betalar för detta. Inkludera helt enkelt den dåliga externa länken i din avvisningsfil och gå vidare till att ta bort nästa länk.

Även om sådana förfrågningar är effektivt sättåterställa webbplatsens position efter att ha tillämpat sanktioner för externa länkar de är inte alltid obligatoriska. Google Penguin-algoritmen betraktar portföljen av externa länkar som en helhet, det vill säga som ett förhållande till antalet naturliga länkar av hög kvalitet och spamlänkar.

Vissa inkluderar till och med i avtalet för användning av webbplatsen "villkor" för att placera externa länkar som leder till deras resurs:

Vi stöder endast "ansvarig" placering av externa länkar till våra webbsidor. Det betyder att:

  • Om vi ​​ber dig att ta bort eller ändra en länk till våra webbplatser kommer du att göra det omgående.
  • Det är ditt ansvar att säkerställa att din användning av länkar inte skadar vårt rykte eller resulterar i kommersiell vinning.
  • Du får inte skapa fler än 10 länkar till våra webbplatser eller webbsidor utan att ha fått tillstånd.
  • Webbplatsen där du placerar en länk som leder till vår resurs får inte innehålla stötande eller ärekränkande material. Och får inte heller bryta mot någons upphovsrätt.
  • Om någon klickar på länken du har lagt upp bör de öppna vår sida på ny sida(tab) snarare än i en ram på din webbplats.

Länkkvalitetsbedömning

Anta inte att bara för att en extern länk finns på en webbplats med en .edu-domän så måste den vara Hög kvalitet. Många studenter säljer länkar från sina personliga webbplatser, som är registrerade i .edu-zonen. Därför betraktas de som spam och bör avvisas. Dessutom innehåller många .edu-webbplatser länkar av låg kvalitet eftersom de har blivit hackade. Detsamma gäller alla toppdomäner.

Googles representanter har bekräftat att lokalisering av en webbplats i en specifik domänzon inte hjälper eller skadar dess position i sökresultaten. Men du måste fatta ett beslut för varje specifik webbplats och ta hänsyn Penguin Google-uppdateringar.

Se upp för länkar från uppenbart högkvalitativa webbplatser

När du tittar på en lista med externa länkar, anta inte att de är av hög kvalitet bara för att de finns på en viss webbplats. Om du inte är 100% säker på dess kvalitet. Bara för att en länk finns på en ansedd sajt som Huffington Post eller BBC gör den inte hög kvalitet. Googles ögon. Många av dessa webbplatser säljer länkar, varav några är förtäckt reklam.

Kampanjlänkar

Exempel på reklamlänkar som anses vara betalda länkar i Googles ögon inkluderar länkar som lagts upp i utbyte mot en gratis produkt att recensera eller en rabatt på en produkt. Även om dessa typer av länkar var acceptabla för några år sedan, måste de nu markeras med en " nofollow" Du kan fortfarande dra nytta av att lägga upp sådana länkar. De kan hjälpa till att öka varumärkesmedvetenheten och leda trafik till din webbplats.

Det är oerhört viktigt att utvärdera varje extern länk. Det är nödvändigt att ta bort dåliga länkar eftersom de påverkar resursens position i sökresultaten till följd av exponering Google Penguin-algoritm, eller kan leda till manuella sanktioner. Bör inte raderas bra länkar, eftersom de hjälper dig att rankas högre i sökresultaten.

Kan du inte återhämta dig från Penguin-algoritmsanktioner?

Ibland, även efter att webbansvariga har gjort mycket arbete med att rensa upp inkommande länkar, ser de fortfarande ingen förbättring i trafikvolym eller ranking.

Det finns flera anledningar till detta:

  • Den initiala ökningen av trafik och förbättringen av sökrankningar som skedde innan de algoritmiska påföljderna infördes var och kom från dåliga inkommande länkar.
  • När de dåliga externa länkarna togs bort gjordes inga ansträngningar för att generera ny högkvalitativ länkjuice.
  • Alla skräppostlänkar har inte inaktiverats.
  • Problemet är inte med externa länkar.

När du återhämtar dig från påföljder som utdömts av Penguin-algoritmen, förvänta dig inte att din sökrankning kommer tillbaka eller sker direkt.

Lägg till detta att Google ständigt förändras Penguin Google-filter, så faktorer som var fördelaktiga tidigare kanske inte har så stor inverkan nu.

Myter och missuppfattningar förknippade med Penguin-algoritmen

Här är några myter och missuppfattningar om Penguin-algoritmen som har uppstått de senaste åren.

Myt: Penguin är ett straff

En av de största myterna om Penguin-algoritmen är att folk kallar det ett straff ( eller vad Google kallar manuella sanktioner).

Penguin är strikt algoritmisk till sin natur. Det kan inte appliceras eller tas bort av specialister Google i manuellt läge.

Trots att algoritmens agerande och manuella sanktioner kan leda till en stor nedgång i sökresultaten är det stor skillnad mellan dem.

Manuella sanktioner inträffar när Googles webbspamspecialist svarar på ett klagomål, genomför en utredning och avgör att en domän ska sanktioneras. I det här fallet kommer du att få ett meddelande i Google Search Console.

När manuella sanktioner tillämpas på en webbplats behöver du inte bara analysera externa länkar och skicka en disavow-fil som innehåller skräppostlänkar, utan också skicka en begäran om granskning av ditt "ärende" av Google-teamet.

Sänkningen av positioner i sökresultaten med algoritmen sker utan ingripande från Googles specialister. Gör allt Google Penguin-algoritm.

Tidigare var man tvungen att vänta på att algoritmen skulle ändras eller uppdateras, men nu fungerar Penguin i realtid. Därför kan återställningen av positioner ske mycket snabbare ( om städarbetet utfördes effektivt).

Myt: Google kommer att meddela dig om Penguin-algoritmen påverkar din webbplats

Tyvärr är detta inte sant. Google Search Console kommer inte att meddela dig det sök positioner din webbplats har försämrats som ett resultat av Penguin-algoritmen.

Detta visar återigen skillnaden mellan algoritm och manuella sanktioner - du kommer att meddelas om en webbplats har blivit straffad. Men processen för återhämtning från effekterna av en algoritm liknar återhämtning från manuella sanktioner.

Myt: Att avfärda dåliga länkar är det enda sättet att återhämta sig från effekterna av Penguin-algoritmen

Även om den här taktiken kan ta bort många länkar av låg kvalitet, är den inte till hjälp. Penguin-algoritmen bestämmer andelen bra länkar av hög kvalitet i förhållande till spamlänkar.

Så istället för att fokusera all din energi på att ta bort länkar av låg kvalitet, bör du fokusera på att öka antalet inkommande länkar av hög kvalitet. Detta kommer att ha en positiv effekt på förhållandet som Penguin-algoritmen tar hänsyn till.

Myt: Du kommer inte att återhämta dig från effekterna av Penguin-algoritmen.

Burk ta bort webbplatsen från Google Penguin. Men detta kommer att kräva viss erfarenhet av att interagera med Googles ständigt föränderliga algoritmer.

Det bästa sättet att bli av med negativ påverkan Penguin-algoritmen är att glömma alla befintliga externa länkar som leder till webbplatsen och börja samla in nya. Ju mer högkvalitativa inkommande länkar du samlar in, desto lättare blir det att befria din webbplats från gränserna för Google Penguin-algoritmen.

Denna publikation är en översättning av artikeln " En komplett guide till Google Penguin Algorithm Update", förberedd av det vänliga projektteamet

Bra dålig







2024 gtavrl.ru.