Panda från Google: vad är nytt? Hur man identifierar Pandas handling. Varför straffar inte Panda?


Vi har släppt en ny bok "Content Marketing in i sociala nätverk: Hur du kommer in i dina prenumeranters huvuden och får dem att bli kära i ditt varumärke."

Prenumerera

Google Panda är ett filterprogram från Google. Dess uppgift är att övervaka och blockera webbplatser med innehåll av låg kvalitet.

Fler videor på vår kanal - lär dig internetmarknadsföring med SEMANTICA

Sökmotor Googles system anser sin huvudsakliga funktion att ge användarna relevanta, intressanta och användbar information. Det är därför hon bestämt bekämpar svarta marknadsföringsmetoder, när en webbplats når TOPPEN av sökresultat inte genom att skapa högkvalitativt och efterfrågat innehåll, utan genom att manipulera sökmotorer.

Pandas berättelse

Google Panda-algoritm är automatisk. Det första steget mot skapandet var bedömningen av ett stort antal sajter för att uppfylla kraven som Google ställer på innehåll. Det utfördes manuellt av en grupp testare och gjorde det möjligt att formalisera de viktigaste faktorerna som påverkar kvaliteten på webbplatsens innehåll.

Först Google gånger Panda släpptes i februari 2011, men blev fullt operativ i april. Bara under 2011 uppdaterades algoritmen 57 gånger och sedan ytterligare 5 gånger under 2012. Nästa år 2013 kom Senaste uppdateringen Panda med eget nummer – Panda 25, som har genomgått mindre ändringar i juni och juli samma år. Senaste versionen Panda 4.0-algoritmen, som släpptes i maj 2014, skakade positionen för nyhetssamlare och påverkade jättar som Ebay.

Idag förbättras algoritmen nästan kontinuerligt och uppdateras varje månad i 10 dagar. Företaget publicerar inte uppdateringsdatum för att göra det så svårt som möjligt att manipulera sajternas positioner i sökresultaten.

Google Panda krav för webbplatser

Google Panda är främst utformat för att bekämpa lågkvalitativt innehåll, så dess huvudkrav för webbplatser är baserade på kvaliteten på publicerad information.

  1. Sajten ska huvudsakligen innehålla unikt innehåll och ska inte innehålla dubbletter av texter eller bilder.
  2. Användningen av automatiskt genererade texter är oacceptabel.
  3. Sökmotorrobotar och användare bör se samma sak. Du kan inte använda sidor som endast är synliga för sökmotorer och enbart behövs för att marknadsföra webbplatsen.
  4. Nyckelord Varje sida på webbplatsen måste överensstämma med dess innehåll att spamma med sökord är oacceptabelt.
  5. Länkar och annonser på sidor måste motsvara ämnet för texterna och sidans övrigt innehåll.
  6. Det är förbjudet att använda dörröppningar, dolda länkar eller dold text, vars syfte är att lura sökmotorn.

Algoritm Google Panda kommer att straffa dig om webbplatsens sidor innehåller innehåll kopierat från andra resurser utan en länk till källan, mallartiklar med identisk struktur, dubbletter av sidor. Webbplatser där texten är ett komplett ark, utan illustrationer, videor eller infografik, med samma metataggar på olika sidor kan falla under Google Panda-filtret.

Denna algoritm anses ägna lite uppmärksamhet åt länkar, men den kräver att länkar i artiklar är relevanta för deras ämne. Det vill säga i texterna om plastfönster det ska inte finnas några hänvisningar till försäljning av te osv.

Utöver allt som beskrivs lägger Google Panda mycket uppmärksamhet på beteendefaktorer. Om din webbplats har en hög avvisningsfrekvens, användare lämnar efter den första sidan och aldrig kommer tillbaka, kommer du säkerligen att falla in i algoritmens uppmärksamhet.

Hur man undkommer Google Panda-sanktioner

Hur man identifierar Pandas handling

Innan du vidtar åtgärder för att undkomma Google Pandas filter, se till att du har lidit av dess kopplingar. Hur avgör man om Google Panda är boven till ditt problem eller är orsaken till något annat?

Var uppmärksam på sambandet mellan algoritmuppdateringen och minskningen av trafik till webbplatsen. Google Panda Update hålls varje månad, varar i 10 dagar, du kan ta reda på tidpunkten för dess implementering på Moz.com-webbplatsen. Om det finns en tillfällighet måste åtgärder vidtas.

Det andra sättet att fånga Panda är att använda särskild tjänst Barracuda. En av tjänsterna på denna webbplats, Panguin Tool, har tillgång till din kontoinformation i Google Analytics, överlagrar grafen som tagits från den på datumen för algoritmuppdateringar och ger ett svar. Denna metod har två nackdelar - den är inte lämplig för dem som nyligen har installerat en Google Analytics-räknare och kräver tillgång till ett konto, vilket i sin tur ger dig tillgång till pengarna på ditt Google Analytics-konto.

Den tredje metoden är ganska enkel, men kräver tid och tålamod. Du måste kontrollera varje sida på webbplatsen. Du måste göra så här:

  1. Kopiera flera meningar från texten på sidan till sökmotorn Google-sträng. Det räcker med att ta 100-200 tecken.
  2. Se om din webbplats visas högst upp i sökresultaten.
  3. Avsluta samma avsnitt med sökruta inom citattecken och se igen om webbplatsen finns i sökresultaten eller inte.

Om webbplatsen endast visas i sökresultaten i det andra fallet, är Google Panda den skyldige till dina problem. Kom ihåg att du måste kontrollera varje sida.

Hur man tar sig ut under filtret

För att undkomma Panda-filtret måste du göra följande:

  1. Gör en fullständig revidering av webbplatsens innehåll och ersätt de flesta texterna med intressanta och användbara, och omarbeta resten så att de blir unika och relevanta.
  2. Ta bort överflödiga nyckelord från rubriker på alla nivåer och metataggar. Ändra rubrikerna till relevanta och attraktiva, se till att de fångar besökaren och gör att de vill läsa texten.
  3. Rensa webbplatsen från irrelevant och aggressiv reklam, vilket kommer att förbättras avsevärt beteendefaktorer.
  4. Ta bort alla dubbletter och trasiga länkar, avmarkera sökord.
  5. Kontrollera länkar på sidor för överensstämmelse med innehållet på sidorna och ersätt eller ta bort irrelevanta.

Dessa steg hjälper dig att ta dig ur Pandas filter över tid. Observera dock: Google Panda - automatisk algoritm, och inget överklagande hjälper dig att snabbt befria dig från hans sanktioner. Fyll sajten med intressanta saker unikt innehåll, låt dig inte ryckas med att placera annonser på den, och du kommer inte att få problem med den smarta besten Panda Google.

Hej läsare. Idag publicerar jag en annan intressant artikel om ett pressande ämne -. Säkert kommer många ihåg att den 24 februari i år introducerade mäktiga Google en ny algoritm, vars syfte är att rangordna webbplatser enligt ett nytt schema.

Naturligtvis, för att inte säga att den nya algoritmen förstörde alla webbplatser från sökresultaten, men 12% av alla sökresultat reviderades och inte till det bättre för webbplatsägare. Resultatet av att använda Google Panda var omöjligt att inte lägga märke till. På många sajter har trafiken från Google minskat med hälften. Många har ännu mer.

Kanske har du inte känt effekten av denna algoritm, men du bör inte glädjas i förväg. Det är aldrig för sent att hamna i klorna på Google Panda. I den här artikeln kommer jag att prata om själva algoritmen, samt hur den kan kringgås.

Svara på frågan: är du redo för att SE-trafiken på din sida en dag kommer att vara exakt hälften så mycket? Om inte, så kan jag försäkra er att ingen är immun från en sådan överraskning. Men först, låt oss prata om hur man identifierar det faktum att din webbplats är under attack från Google Panda

Hur man avgör om en webbplats är under ett filterGooglePanda?

I allmänhet kan du använda olika system statistik, men det är bäst att använda Google Analytics, eftersom... Det är detta statistiksystem som utvecklades direkt vid sidan av Google PS, och ingen annan återspeglar Googles statistik så exakt.

Säkert kunde många som har engelskspråkiga sajter som presenteras i amerikanska sökresultat känna effekten av Panda på sina sajter. Nedan kommer jag att visa hur katastrofal skadan orsakad av Google Panda är. Men förutom detta kommer vi att titta på hur man identifierar det faktum att ett filter appliceras på din webbplats och letar efter sätt att lösa problemet.

Naturligtvis träffade Google Panda amerikanska sökresultat först. I ryska Google är allt mycket enklare, det finns inga sådana strikta begränsningar, men ändå rekommenderar jag att du läser den här artikeln för att vara förberedd på den nya algoritmen.

Nåväl, nu till saken. Det allra första vi behöver göra är att logga in på ditt Google Analytics-konto. Inte alla killar som arbetar i RuNet har webbplatser fokuserade på USA, så om du loggar in på ditt GA-konto och ser vad som finns på skärmdumpen nedan kanske du tror att allt är bra och Google Panda har kringgått dig:

Men egentligen är detta bara det första intrycket. Faktum är att allt är mycket mer komplicerat, och du måste gräva djupare här. I Google-konto Analytics gå till fliken "Trafikkällor" och sedan till - " Sökmotorer"(Sökmotorer). Välj sedan obetalt (ej betalt):

Här kan du se uppdelningen på sökmotorer. Pilen indikerar Googles sökmotor. Klicka här. Detta är nödvändigt för att kunna se trafikstatistik enbart för detta sökmotor.

Klicka sedan på fliken "Sökord". På skärmdumpen kan du se den i en grön ram. Något sådant här dyker upp stor meny, som kan ses nedan på skärmdumpen. Från denna meny väljer du "Land/Territori". Detta element är markerat i en röd ram. Vi gör detta för att filtrera data efter specifikt land. Klicka på detta element:

Här på skärmdumpen kan du tydligt se att från och med den 24 februari minskade trafiken från Google-sökning avsevärt. Mer än 50 %. Säg mig, är detta orsaken till störningen?

Låt oss titta på vänster meny. Här väljer vi Avancerade segment, och efter det skapar vi ett nytt segment. I detta segment anger vi följande inställningar:

Du kan kalla detta segment vad du vill. Här kallas det till exempel för "G US organic". Låt oss nu spara detta segment. Vidare kommer all vår data endast att relatera till besökare som kommer till vår webbplats från organisk sökning i USA, från Googles sökmotor.

I allmänhet är allt detta bara i ord för tillfället. I själva verket, låt oss försöka förstå varför Google Panda behövs i första hand. Main Google möte Panda – rensa upp sökresultaten från UG-webbplatser.

Matt Cutts sa att Google Panda kommer att träffa:

    Webbplatser med mycket värdelöst innehåll

    Webbplatser fyllda med copy-paste

Allt detta är nödvändigt för att "ge vika" till toppen för högkvalitativa sajter som har original och intressant innehåll, sajter som inte är fulla av reklam.

Naturligtvis först och främst från Google filter Panda kommer att drabbas av HS. Men filtret är ofullkomligt, så skaparna av filtret är väl medvetna om att vanliga webbplatser också kan drabbas av det, och därför kan du om problem uppstår säkert kontakta dem genom feedback.

Förresten, in i detta exempel en normal sida ansågs - SDL, och inte någon form av UG. Grunden för denna webbplats är högkvalitativa artiklar skrivna av olika experter. Dessutom är en tjänst som Q and A (fråga och svar) kopplad till sajten, där alla deltagare kan hitta svar på sina frågor. Ja, frågor och svar-tjänster kan teoretiskt sett vara ett mål för Google Panda, eftersom sidorna i sådana tjänster ofta innehåller lite innehåll. Men det finns fakta när Google Panda också mejade ner vanliga innehållssidor där det inte finns några forum eller andra tjänster som Q&A.

När du kan "täckas"GooglePanda?

Naturligtvis ingen av dem Googles utvecklare Panda (Matt Kats och Amit Singal) avslöjade inte hemligheten, men ändå, från deras intervju med tidningen Wired, kan vissa slutsatser dras om nyanserna i funktionen av detta filter

Nedan följer en lista över potentiella faktorer som kan utsätta dig för risker:GooglePanda:

    En stor mängd copy-paste. Enligt observationer är det värsta att hela sajten, och inte dess enskilda sidor, kan pessimiseras för copy-paste

    Betydande förekomst av icke-unikt innehåll på webbplatsen framför unikt innehåll

    Sidan är irrelevant sökfrågor, enligt vilken den marknadsförs eller finns i sökresultaten

    Omoptimering av sidan

    Hög avvisningsfrekvens

    Lite tid som användarna spenderar på webbplatsen

    Låg andel avkastning

    Många länkar av låg kvalitet på sidorna. Låg kvalitet, i betydelsen icke-tematisk och länkar som leder till explicit GS

Okej, om din webbplats bara passar en av dessa punkter är det okej. Men om det passar många kan detta vara orsaken till Google Panda-strejken. Förresten måste du lära dig att skilja på straff och förbud i allmänhet. Och din webbplats kommer att ha problem tills du förbättrar dess kvalitet ny nivå. Google Panda är en mycket seriös algoritm, och om din webbplats har flera sidor med uppenbart G, kan detta vara orsaken till att hela webbplatsen "sjunker", även om alla andra sidor på webbplatsen kan ha högkvalitativt innehåll.

Det är möjligt att se hur filtret tillämpades: på webbplatsnivå eller på sidnivå

Om filtret användes på hela webbplatsen, kommer du förmodligen att se det med blotta ögat, eftersom det kommer att påverka alla sidor på webbplatsen. Med vårt exempel kan du använda "G US organic"-rapporterna och se detta...

Gå till Innehåll > Överst Målsidor. Utan kommentarer är allt klart:

Detta är statistik för målsidor. Det vill säga för enskilda sidor. Det finns 4272 av dem. För att ta reda på om alla sidor påverkades av Google Panda måste vi mixtra lite med rapporterna i Google Analytics:

    Vi behöver göra en rapport på de sidor som är viktigast för oss

    Vi måste göra en rapport om grupper av sidor. Du kan sortera efter URL. Välj till exempel bara sidor som innehåller ordet forum

Detta görs enkelt:

Ovan pratade jag om hur Google Panda tillämpar ett filter på hela webbplatsen. Denna åsikt svävar i alla fall runt på forumen. Men faktiskt, när jag analyserade flera sajter enligt filtren jag beskrev ovan, kom jag till slutsatsen att Google Panda inte filtrerar hela sajten, utan bara på sidnivå, vilket gör att allt inte är lika skrämmande som det initialt verkade .

Trots att förändringar i Googles algoritmer är ett av de hetaste ämnena inom SEO-området kan många marknadsförare inte med säkerhet säga hur exakt Panda-, Penguin- och Hummingbird-algoritmerna påverkade rankningen av deras sajter.

Moz-specialister har sammanfattat de viktigaste förändringarna i Googles algoritmer och bokstavligen brutit ner informationen om vad varje uppdatering är ansvarig för.

Google Panda – kvalitetsinspektör

Panda-algoritmen, vars huvudmål är förbättra kvaliteten på sökresultaten, lanserades den 23 februari 2011. Med sitt utseende förlorade tusentals webbplatser sina positioner, vilket gjorde hela Internet upphetsad. Först trodde SEO:are att Panda straffade webbplatser som befanns delta i länksystem. Men, som det senare blev känt, ligger kampen mot onaturliga länkar inte inom denna algoritms mandat. Allt han gör är att bedöma webbplatsens kvalitet.

För att ta reda på om du riskerar att hamna under Pandas filter, svara på dessa frågor:

  • Skulle du lita på informationen på din webbplats?
  • Finns det sidor på webbplatsen med dubblett eller mycket liknande innehåll?
  • Skulle du lita på din kreditkortsinformation till en sida som denna?
  • Innehåller artiklarna stavfel eller stilfel eller stavfel?
  • Är artiklar för webbplatsen skrivna med hänsyn till läsarnas intressen eller endast med målet att komma in i sökresultat för vissa frågor?
  • Har webbplatsen originalinnehåll (forskning, rapporter, analyser)?
  • Skiljer sig din webbplats ut från konkurrenterna som visas bredvid den på sökresultatsidan?
  • Är din webbplats en auktoritet inom sitt område?
  • Är du uppmärksam på att redigera artiklar?
  • Ger artiklarna på webbplatsen fullständiga och informativa svar på användarnas frågor?
  • Skulle du bokmärka sidan/sidan eller rekommendera den till dina vänner?
  • Skulle du kunna se en artikel som denna i en tryckt tidning, bok eller uppslagsverk?
  • Distraherar annonsering på webbplatsen läsarnas uppmärksamhet?
  • Är du uppmärksam på detaljer när du skapar sidor?

Ingen vet med säkerhet vilka faktorer Panda tar hänsyn till när de rankar sajter. Därför är det bäst att fokusera på att skapa den mest intressanta och användbara webbplatsen. I synnerhet måste du vara uppmärksam på följande punkter:

  • "Otillräckligt innehåll. I detta sammanhang innebär termen "svag" att innehållet på din webbplats inte är nytt eller värdefullt för läsaren eftersom det inte täcker ämnet tillräckligt. Och poängen är inte alls i antalet tecken, eftersom ibland till och med ett par meningar kan bära en betydande semantisk belastning. Naturligtvis, om de flesta av din webbplats sidor bara innehåller ett fåtal meningar med text, kommer Google att anse det som låg kvalitet.
  • Duplicerat innehåll. Panda kommer att anse din webbplats vara av låg kvalitet om det mesta av dess innehåll är kopierat från andra källor eller om webbplatsen har sidor med dubbletter eller liknande innehåll. Detta är ett vanligt problem med nätbutiker som säljer hundratals produkter som skiljer sig åt i endast en parameter (till exempel färg). För att undvika detta problem, använd den kanoniska taggen.
  • Innehåll av låg kvalitet. Google älskar sajter som uppdateras ständigt, så många SEO:are rekommenderar att du publicerar nytt innehåll dagligen. Men om du publicerar innehåll av låg kvalitet som inte ger användarna mervärde, kommer sådana taktiker att orsaka mer skada.

Hur kommer man ut under Panda-filtret?

Google uppdaterar Panda-algoritmen varje månad. Efter varje uppdatering granskar sökrobotar alla webbplatser och kontrollerar att de överensstämmer med fastställda kriterier. Om du föll under Panda-filtret och sedan gjorde ändringar på webbplatsen (ändrade otillräckligt, lågkvalitativt och icke-unikt innehåll), kommer din webbplatss position att förbättras efter nästa uppdatering. Observera att du med största sannolikhet kommer att behöva vänta flera månader för att dina positioner ska återställas.

Google Penguin – Link Hunter

Google Penguin-algoritmen lanserades den 24 april 2012. Till skillnad från Panda, denna algoritm syftar till att bekämpa onaturliga bakåtlänkar.

Auktoriteten och betydelsen av en webbplats i sökmotorernas ögon beror till stor del på vilka webbplatser som länkar till den. Dessutom kan en länk från en auktoritativ källa ha samma vikt som dussintals länkar från föga kända webbplatser. Därför försökte optimerare tidigare få maximalt antal externa länkar på alla möjliga sätt.

Google har lärt sig att känna igen olika manipulationer med länkar. Exakt hur Penguin fungerar vet bara dess utvecklare. Allt SEOs vet är att den här algoritmen letar efter länkar av låg kvalitet som skapas manuellt av webbansvariga för att påverka en webbplatss ranking. Dessa inkluderar:

  • köpta länkar;
  • utbyta länkar;
  • länkar från irrelevanta webbplatser;
  • länkar från satellitwebbplatser;
  • deltagande i länksystem;
  • andra manipulationer.

Hur kommer man ut under Penguin-filtret?

Penguin är samma filter som Panda. Detta innebär att den regelbundet uppdaterar och granskar webbplatser. För att komma ur Penguin-filtret måste du bli av med alla onaturliga länkar och vänta på en uppdatering.

Om du samvetsgrant följer Googles riktlinjer och inte försöker få länkar på orättvisa sätt, kan du återfå gunst hos sökmotorerna. Men för att återta toppositionerna räcker det inte att du bara tar bort länkar av låg kvalitet. Istället måste du tjäna naturliga redaktionella länkar från betrodda webbplatser.

Google Hummingbird är den mest "förstående" algoritmen

Hummingbird-algoritmen är en helt annan best. Google tillkännagav lanseringen av denna uppdatering den 26 september 2013, men nämnde också att denna algoritm har varit i kraft i en månad. Det är därför webbplatsägare vars ranking föll i början av oktober 2013 felaktigt tror att de faller under Hummingbird-filtret. Om detta verkligen var fallet skulle de ha känt effekten av denna algoritm en månad tidigare. Man kan fråga sig vad i det här fallet orsakade minskningen av trafiken? Troligtvis var detta en annan Penguin-uppdatering, som trädde i kraft den 4 oktober samma år.

Hummingbird-algoritmen utvecklades för att bättre förstå användarförfrågningar. Nu, när en användare anger frågan "Vilka ställen kan du äta gott i Jekaterinburg", förstår sökmotorn att med "ställen" menar användaren restauranger och kaféer.

Hur höjer du dig själv i Google Hummingbirds ögon?

Eftersom Google strävar efter att förstå användarna så bra som möjligt bör du göra detsamma. Skapa innehåll som ger de mest detaljerade och användbara svaren på användarfrågor, istället för att fokusera på marknadsföring av sökord.

Till sist

Som du kan se har alla sökalgoritmer ett mål - att tvinga webbansvariga att skapa högkvalitativt, intressant och användbart innehåll. Kom ihåg: Google arbetar ständigt med att förbättra kvaliteten på sökresultaten. Skapa innehåll som hjälper användare att hitta lösningar på sina problem, och du kommer garanterat att rankas först i sökresultaten.


I augusti 2011 introducerades för alla segment World Wide Web. För engelsktalande internetanvändare lanserades algoritmen lite tidigare – i april samma år. Utvecklarna av den nya algoritmen var anställda hos sökjätten Amit Singal och Matt Kats. Ny algoritm radikalt skiljer sig från tidigare utveckling i sitt fokus på den mänskliga faktorn. Algoritmen tar dock även hänsyn till konventionella kriterier vid rankning.

Unikt innehåll

Det unika med textinnehållet beaktas av Panda i form av en procentandel av copy-paste både för en specifik sida och för webbplatsen som helhet. Med andra ord, nu försämrar närvaron av lån inte bara positionen för en specifik sida, utan också hela den "piratkopierade" resursen. Dessutom spårar Panda enkelt en sådan indikator som mallar. Enkelt uttryckt ställer algoritmen in sidor som liknar innehållet, vars innehåll skapas även för olika nyckelfrågor.

Reklamrelevans

En annons för barnmat som placeras på sidan i en onlinebutik som säljer tunga lastbilar kommer nästan garanterat att orsaka "missnöje" hos sökmotorn. Denna uppmärksamhet från Google på kvaliteten på annonsplaceringar är avsedd att kyla ner iver för att tjäna pengar av skrupelfria optimerare och webbansvariga. Målet är att skapa webbplatser som verkligen motsvarar det angivna ämnet

Länkmassa

Här pratar vi om både värd och bakåtlänkar. Det finns bara ett krav - att hitta webbplatser i en singel informationsutrymme. Det vill säga att webbplatser som utbyter länkmassa bör vara så lika i ämne som möjligt. Antalet bakåtlänkar tar Panda givetvis med i beräkningen, men är långt ifrån att avgöra rankningen.

Mänskliga faktorn

I I detta fall det skulle vara mer korrekt att använda SEO-terminologi, där den mänskliga faktorn kallas beteende. Panda-sökalgoritmen, som ingen annan tidigare, tar noggrant hänsyn till användarbeteende på webbplatsen. Uppenbarligen, för detta behövde utvecklarna en kolossal komplikation av algoritmen, varför det förresten tog så lång tid för algoritmen att lanseras för hela Internet - skaparna förfinade sökverktygen oändligt.

Resultaten är dock, ärligt talat, imponerande. Idag kan verkligt användbara webbplatser nå toppositioner i Google. Tack vare användningen av den nya algoritmen har Googles sökmotor verkligen blivit den mest kraftfulla sökmotorn på planeten, vilket bekräftas inte bara av ökningen av antalet användare av denna tjänst, utan också av nivån på Googles kapitalisering , som har överstigit 200 miljarder dollar. Användaren kan fortfarande luras av olika fashionabla funktioner och aggressiv reklam, men en investerare kan inte luras av billiga knep. Han anser att Google är ett lönsamt företag. Och detta är inte minst tack vare Panda.

Alltså beteendefaktorer. Dessa inkluderar i princip en begränsad uppsättning kriterier:

  • avvisningsfrekvens;
  • tid som användaren spenderar på webbplatsen;
  • förhållandet mellan avkastningen till platsen och det totala antalet övergångar.

Dessutom uppmärksammar Panda, så att säga, detaljerna i varje indikator. Enkelt uttryckt tar det till exempel hänsyn inte bara till den tid under vilken användaren stannade på webbplatsen, utan också vilka åtgärder han utförde där, till exempel om han följde länkar, på ett eller annat sätt relaterat till ämnet i de nyckelfråga. Med ett ord, algoritmen gör det möjligt att bestämma inte bara faktumet om attraktionskraften och användbarheten av en given resurs för användaren, utan också graden av denna attraktivitet, de medel som gör denna webbplats så.

En optimerare som marknadsför webbplatser i Google kan idag, även med en relativt liten referensmassa få tillräckligt höga positioner i sökresultaten. För detta behöver du kompetent länkning interna sidor webbplats och i allmänhet öka bekvämligheten med resursen för varje användare - både för gurun och för den som bara hörde ordet "Internet" igår. Det finns en ny på detta sökalgoritm Google - Panda.

Google Panda är en av Googles mest komplexa och intressanta algoritmer, som nu, tre år efter lanseringen av den första versionen, fortsätter att förbli ett mysterium. Som vi vet är huvudmålet med Panda att identifiera lågkvalitativt innehåll, men du måste hålla med om att detta är ett mycket brett begrepp. Vi såg hur dörröppningar, sajter med automatiskt genererat innehåll, med ett stort antal dubbletter av sidor, föll under Panda, icke-unikt innehåll, i text och metataggar och med många andra mindre uppenbara problem. Men betyder det att själva algoritmen förblir på nivån med ett grovfilter? Är inte ett faktum.

Vad vet vi om Panda?

Panda är främst en heuristisk algoritm. Det betyder att den genom att skanna information försöker hitta den mest korrekta lösningen på ett problem eller svar på en förfrågan. Utvecklingen av algoritmen började med att en grupp testare utvärderade ett stort antal sajter enligt ett antal kriterier. Dessa poäng gjorde det möjligt för ingenjörer att fastställa de viktigaste faktorerna som bör beaktas och bestämma den så kallade "Panda-poängen". Förutom mekanismen för att filtrera innehåll av låg kvalitet, tror jag att det finns en annan sida av Panda, som ingår i huvudrankningsalgoritmen och kan påverka webbplatsens position både negativt och positivt (tänk inte på Panda som ett binärt filter : antingen filtrerar den eller så gör den inte det).

Är Google Panda en del av den övergripande algoritmen?

För inte så länge sedan inträffade en viktig händelse i "Pandavärlden", som gjorde livet ännu svårare för webbansvariga: Matt Cutts meddelade att algoritmen skulle uppdateras månadsvis under en 10-dagarsperiod. Dessutom kommer det inte att finnas någon bekräftelse på uppdateringen. Nu spelar vi mörkt allihop.

Varför detta blir ett problem tror jag är lätt att förstå. När du till exempel ser i Analytics att trafiken till en webbplats har minskat och du får en bekräftelse på att Panda-algoritmen har uppdaterats just nu, förstår du tydligt orsaken till den minskade trafiken och kan vidta meningsfulla åtgärder.

Nu kan en webbplats bli föremål för Panda-algoritmen under en 10-dagarsperiod, men ingen vet när den börjar och när den slutar. Dessutom huvudalgoritmen Google ranking uppdateras cirka 500 gånger per år, och detta tar inte hänsyn till "Penguin" och andra små "glädje". Det blir allt svårare att förstå orsaken till den minskade trafiken och utan detta är det inte möjligt att vidta effektiva åtgärder för att återställa den.

Den senaste bekräftade Panda-uppdateringen var den 18 juli 2013. Men detta är långt ifrån den senaste uppdateringen, eftersom algoritmen har flyttat till nästan realtidsstadiet. Jag skrev "nästan" för att många SEO:s tror att Panda nu fungerar non-stop (det är en del av den övergripande algoritmen). Detta är inte helt sant, och i en av Google+ HangOut John Miller det förklarar. Av Johns ord kan man förstå att Panda inte fungerar i realtid, utan upprätthåller samma uppdateringssystem. Men framstegen i utvecklingen är redan på en sådan nivå att Google kan lita på algoritmen och testning före lansering är inte längre obligatoriskt. Detta är viktigt att förstå, eftersom en webbplats inte kan falla under "Panda" någon dag i månaden, bara under nästa uppdatering (kom ihåg att den nu varar i 10 dagar).

Hur kan du spåra Panda-uppdateringar?

Nu kommer vi till huvudproblemet: hur man avgör att trafikfluktuationer orsakas av Panda? Matt Cutts svar på en liknande fråga:

Men låt oss försöka reda ut det själva. Några tips:

1. Håll koll på datumen

Först och främst måste du tydligt fastställa datumet för ökningen eller minskningen av trafiken, vilket gör att du kan associera den med den förväntade uppdateringen. Det kan vara antingen "Panda" eller "Pingvin". Det är mycket viktigt att bestämma vilken algoritm som "hakade" platsen - handlingsplanen för att återställa förlorade positioner kommer att bero på detta.

Till exempel, om Google rullar ut en ny Penguin-uppdatering, kan du på forumet hitta många beskrivningar av samma situation: positioner och trafik har minskat kraftigt eller, omvänt, återvänt till sina tidigare positioner. Om du ser att andras trafikfluktuationsdatum liknar dina, så är du troligen i samma båt.

3. Följ SEO-bloggar

Prenumerera på nyheter eller läs bloggarna från de SEO-specialister som regelbundet övervakar alla algoritmändringar. Erfarna specialister ha bra förbindelser och tillgång till ett brett utbud av data (klientsajter, rådgivning, publikrapporter), vilket gör att du kan få en mer komplett bild av vad som händer.

4. Genomför en SEO-revision

Om du har misstankar om att ett "gulligt djur" har gått över din webbplats, måste du först och främst genomföra en SEO-revision inom de områden som Panda riktar sig till, nämligen en innehållsrevision. Här är några tips:

  • kolla webbplatsen för tillgänglighet
  • se hur en webbplats söks efter textstycken (bred och exakt matchning);
  • kontrollera texterna och metataggarna för ;
  • Titta in Googles verktyg för webbansvariga om antalet indexerade sidor har minskat (Google Index -> Index Status);
  • checka in Google Webmaster Verktyg antal webbplatsvisningar i en sökmotor (Söktrafik -> Sökfrågor).

5. Övervaka tjänster som spårar algoritmändringar

Det finns sajter som övervakar "vädret" i SEO-världen - dessa är MozCast och Algoroo. Stora förändringar i "temperatur" indikerar att Google är på gång eller redan har startat något. Dessa tjänster kommer inte att tala om för dig vad du ska göra, men att hålla dig informerad är också mycket viktigt.

Slutsatser. Det kan antas att det faktum att Google lanserade "Panda" i halvautomatiskt läge är en tydlig signal till "SEO-futurister" om att tiden inte är långt borta när "Penguin" kommer att drabbas av ett liknande öde. Mer exakt kommer detta öde att drabba oss. Tänk dig bara: varje månad finns det två uppdateringar som inte bekräftas av sökjätten. Mörka tider Mörka tider väntar oss, vänner.

Jag hoppas att den här artikeln hjälpte dig att förstå vad Google Panda är och hur du bestämmer dess algoritmuppdateringar.







2024 gtavrl.ru.