Beskrivning male sitemap xml. Detaljerad guide till webbplatskarta


Filen sitemap.xml är ett verktyg som gör det möjligt för webbansvariga att informera sökmotorer om vilka sidor på en webbplats som är tillgängliga för indexering. I XML-kartan kan du också ange ytterligare sidparametrar: datumet för den senaste uppdateringen, uppdateringsfrekvensen och prioritet i förhållande till andra sidor. Informationen i sitemap.xml kan påverka sökrobotens beteende och i allmänhet processen att indexera nya dokument. Webbplatskartan innehåller direktiv för att inkludera sidor i genomsökningskön och kompletterar robots.txt med direktiv för att utesluta sidor.

I den här guiden hittar du svar på alla frågor angående användningen av sitemap.xml.

Behöver jag sitemap.xml

Sökmotorer använder en webbplatskarta för att hitta nya dokument på webbplatsen (dessa kan vara html-dokument eller mediainnehåll) som inte är tillgängliga via navigering, men som måste skannas. Förekomsten av en länk till ett dokument i sitemap.xml garanterar inte genomsökning eller indexering, men oftare än inte hjälper filen stora webbplatser att indexeras bättre. Dessutom används data från XML-kartan vid definition av kanoniska sidor, såvida det inte specifikt anges i taggen rel = canonical.

Sitemap.xml är viktigt för webbplatser där:

  • Vissa avsnitt är inte tillgängliga via navigeringsmenyn.
  • Det finns många isolerade eller dåligt länkade sidor.
  • Tekniker används som är dåligt stödda av sökmotorer (till exempel Ajax, Flash eller Silverlight).
  • Det finns många sidor och chansen är stor att sökroboten missar nytt innehåll.

Om dessa inte är dina fall behöver du troligen inte en sitemap.xml. För webbplatser där varje sida som är viktig för indexering är tillgänglig inom två klick, där JavaScript eller Flash-teknik inte används för att visa innehåll, där kanoniska och regionala taggar används, om det behövs, och nytt innehåll inte dyker upp oftare än att en robot besöker webbplatsen , i en fil är sitemap.xml onödig.

För små projekt, om det bara finns en hög nivå av kapsling av dokument, är det lätt att lösa det med en HTML-webbplatskarta, utan att använda en XML-karta. Men om du bestämmer dig för att du fortfarande behöver sitemap.xml, läs den här guiden i sin helhet.

Teknisk information

  • Sitemap.xml är en XML-textfil. Men sökmotorer stöder även textformat (se nästa avsnitt).
  • Varje webbplatskarta kan innehålla högst 50 000 adresser och väger inte mer 50 Mb(10 Mb för Yandex).
  • Du kan använda gzip-komprimering för att minska storleken på filen sitemap.xml och öka dess överföringshastighet. I det här fallet använder du tillägget gz (sitemap.xml.gz). Samtidigt kvarstår viktbegränsningar för okomprimerade webbplatskartor.
  • Platsen för webbplatskartan bestämmer uppsättningen webbadresser som kan inkluderas i den webbplatskartan. Kartan som innehåller adresserna till sidorna på hela webbplatsen ska finnas i roten. Om webbplatskartan finns i en mapp måste alla webbadresser i denna webbplatskarta finnas i den här mappen eller djupare ().
  • Adresserna i sitemap.xml måste vara absoluta.
  • Den maximala URL-längden är 2048 tecken (1024 tecken för Yandex).
  • Specialtecken i webbadressen (som et-tecken "&" eller citattecken) måste vara maskerade i HTML-entiteten.
  • Sidorna som anges på kartan måste returnera en 200 http statuskod.
  • Webbadresser som anges på kartan ska inte täckas in i robots.txt-filen eller metarobotar.
  • Webbplatskarta bör inte stängas i robots.txt, annars kommer sökmotorn inte att genomsöka den. Själva filen kan finnas i indexet, det är bra.

XML-kartformat

Sökmotorer stöder webbplatskartans enkla textformat, där webbadresserna till sidorna helt enkelt listas utan ytterligare parametrar. I det här fallet måste filen vara UTF-8-kodad och ha filtillägget .Text.

Sökmotorer stöder också det vanliga XML-protokollet. Google stöder dessutom webbplatskartor för bilder, videor och nyheter.

En exempelwebbplatskarta som bara innehåller en webbadress.

https://сайт/ 2018-06-14 daily 0.9

XML-taggar
urlset
url(obligatoriskt) - Den överordnade taggen för varje webbadress.
loc(obligatoriskt) - URL:en till dokumentet måste vara absolut.
lastmod- datumet för den senaste ändringen av dokumentet i formatet Datetime.
ändra frekvens- Frekvens av sidbyten (alltid, varje timme, dagligen, veckovis, månadsvis, årligen, aldrig). Innebörden av denna tagg är en rekommendation till sökmotorer, inte ett kommando.
prioritet- URL:ens prioritet i förhållande till andra adresser (från 0 till 1) för genomsökningsordningen. Om det inte anges är standardvärdet 0,5.

XML-karta för bilder

Vissa SEO:er infogar länkar till bilder i sitemap.xml på samma sätt som länkar till html-dokument. Du kan göra detta, men det är bättre för Google att använda en förlängning av standardprotokollet och skicka ytterligare information om bilder tillsammans med webbadresser. Det är användbart att skapa XML-bildkartor om bilder behöver genomsökas och indexeras, samtidigt som de inte är direkt tillgängliga för boten (exempelvis används JavaScript).

Ett exempel på en webbplatskarta som innehåller en sida och tillhörande bilder

http://example.com/primer.html http://example.com/kartinka.jpg http://example.com/photo.jpg Вид на Балаклаву Севастополь, Крым http://creativecommons.org/licenses/by-nd/3.0/legalcode

XML-taggar
bild: bild(obligatoriskt) - information om en bild. Maximalt 1000 bilder kan användas.
bild: loc(obligatoriskt) - sökväg till bildfilen. Om ett CDN används är det tillåtet att hänvisa till en annan domän om det bekräftas i panelen för webbansvariga.
bild: bildtext- bildtext (kan innehålla lång text).
bild: titel- bildtitel (vanligtvis kort text).
bild: geo_plats- skjutplatsen.
bild: licens- URL för bildlicens. Används vid avancerad bildsökning.

XML-karta för video

I likhet med en karta för bilder har Google även ett videositemaptillägg, där du kan ange detaljerad information om videoinnehåll som påverkar visningen i videosökningar. Videowebbplatskarta är nödvändig när webbplatsen använder videor som finns lokalt, och när det är svårt att indexera dessa videor på grund av den teknik som används. Om du bäddar in en YouTube-video på din webbplats, behövs inte videowebbplatskartan här.

Nyheter webbplatskarta

Om din webbplats har nyhetsinnehåll och är medlem i Google Nyheter är det användbart att använda en nyhetswebbplatskarta så att Google kan hitta ditt senaste innehåll snabbare och indexera alla nyhetsartiklar. I det här fallet bör webbplatskartan endast innehålla webbadresserna till sidor som publicerats under de senaste två dagarna och inte innehålla fler än 1 000 webbadresser.

Använder flera kort

Om det behövs kan du använda flera webbplatskartor och kombinera dem till en indexwebbplatskarta. Flera sitemap.xml används när:

  • Webbplatsen använder flera motorer (CMS).
  • Sajten har mer än 50 000 sidor.
  • Du måste ställa in bekväm felspårning i sektioner.

I det senare fallet har varje stor del av sajten sin egen sitemap.xml och alla läggs till panelen för webbansvariga, där det är bekvämt att observera vilken av avsnitten som har flest fel (se avsnittet om att hitta fel i webbplatskartan).

Om du har 2 eller fler webbplatskartor måste de kombineras till en indexwebbplatskarta, som ser likadan ut som en vanlig (förutom närvaron av sitemapindex och sitemap-taggar istället för urlset och url), har liknande begränsningar och kan bara länka till vanliga XML-kartor (ej indexerade) ...

Exempel på webbplatskartaindex:

http://www.example.com/sitemap-blog.xml.gz 2004-10-01T18: 23:17 + 00:00 http://www.example.com/sitemap-webinars.xml.gz 2005-01-01

sitemapindex(obligatoriskt) - Anger standarden för det aktuella protokollet.
webbplatskarta(obligatoriskt) - innehåller information om en enskild webbplatskarta.
loc(obligatoriskt) - platskartan (xml-, txt- eller rss-format för Google).
lastmod- tidpunkt för ändring av webbplatskartan. Tillåter sökmotorer att snabbt upptäcka nya webbadresser på stora webbplatser.

Hur man skapar en sitemap.xml

Metoder för att skapa XML-webbplatskarta:

  • Interna CMS-faciliteter. Många CMS stöder redan skapande av webbplatskartor. För att ta reda på det, läs dokumentationen för ditt CMS, titta på menyalternativen i adminpanelen eller kontakta motorns tekniska support. Ladda filen https: //yoursite.com/sitemap.xml på din webbplats, den kanske redan finns och genereras dynamiskt.
  • Externa plugins. Om CMS inte har funktionalitet för generering av webbplatskartor och det stöder plugins, googla vilket plugin som stänger problemet med sitemap.xml för din motor och installera det. I vissa fall måste du kontakta programmerarna för att skriva ett liknande plugin åt dig.
  • Ett separat manus på sajten. Genom att känna till XML-kartaprotokollet och tekniska begränsningar kan du skapa en sitemap.xml själv genom att lägga till ett generationsskript till CRON. Om du inte är en programmerare, använd de andra objekten på den här listan.
  • Generatorer av webbplatskartor. Det finns många sitemap.xml-generatorer som genomsöker din webbplats och laddar ner en färdig karta. Nackdelen här är att varje gång sidan uppdateras måste en webbplatskarta skapas manuellt.
  • Parsers. Desktopprogram utformade för teknisk analys av en webbplats ger vanligtvis en möjlighet att ladda ner en sitemap.xml som genereras från genomsökta sidor. Fungerar på samma sätt som webbplatskartor, körs endast lokalt på din maskin.

Populära webbplatskartor på nätet

XML-Sitemaps.com

Låter dig få sitemap.xml med några få klick. Stöder XML, HTML, TXT och GZ-format. Det är bekvämt att använda för små webbplatser (upp till 500 sidor).

En liknande generator, men den har lite fler inställningar och låter dig skapa en karta på upp till 2000 sidor gratis.

Har många inställningar, låter dig importera webbadresser från en CSV-fil. Skannar upp till 500 webbadresser gratis.

Har inga gränser för antalet sidor att skanna. Men för stora webbplatser kan genereringsprocessen frysa i flera tiotals minuter.

Lokala program för att skapa XML-webbplatskarta

G-Mapper Sitemap Generator

Gratis skrivbordsversion av webbplatskartgeneratorn för Windows.

Screaming Frog SEO Spider

Flexibelt verktyg för att skapa webbplatskartor med många inställningar. Bekvämt om du redan använder screen Frog för andra SEO-uppgifter. När du har genomsökt webbplatsen använder du menyalternativet Webbplatskartor -> Skapa XML-webbplatskarta.

Netpeak spindel

Mindre flexibel, men också bekväm lösning för snabb generering av sitemap.xml. Efter att ha genomsökt webbplatsen måste du använda menyalternativet Verktyg -> Skapa webbplatskarta.

Om huvudsyftet med robots.txt är att förbjuda indexering, utför webbplatskartan sitemap.xml exakt motsatta uppgifter. Hon ansvarar för att påskynda webbplatsindexeringen och fullständigheten av webbplatsindexeringen.

Sitemap.xml talar om för sökmotorn med vilken frekvens det blir nödvändigt att omindexera sidor. I detta avseende är en webbplatskarta särskilt viktig för webbplatser med regelbundet uppdaterat innehåll (nyhetsportaler, etc.). Dessutom innehåller sitemap.xml alla viktiga sidor på webbplatsen med en indikation på deras prioritet.

Krav på webbplatskartor

En webbplatskarta är en XML-fil som listar webbadresserna till en webbplats kombinerat med metadata som är associerade med varje webbadress (datum då den senast ändrades; ändringsfrekvens; dess prioritet på webbplatsnivå) så att sökmotorer kan genomsöka denna webbplats på ett mer intelligent sätt.

Det totala antalet sitemap.xml på webbplatsen bör inte överstiga 1000, medan antalet poster (urls) i varje inte bör överstiga 50 000.

Om du behöver lista fler än 50 000 webbadresser bör du skapa flera webbplatskartor.

Webbplatskartan kan komprimeras med ett gzip-arkiv för att minska dess storlek. Men storleken på varje webbplatskarta i expanderad (uppackad) form bör inte överstiga 10 megabyte.

Webbplatskartan behöver inte vara i form av en xml-fil. Protokollet tillåter generering av kartan i form av syndikering (RSS eller Atom) eller som en enkel textfil med en rad-för-rad-lista med URL:er. Men sådana "webbplatskartor" inkluderar antingen inte alla webbplatsadresser (vid syndikering) eller innehåller inte ytterligare viktig information (datum och tidpunkt för ändring av sidinnehåll), i själva verket för vilken webbplatskartor används i SEO .

Genom att tillhandahålla en tidsstämpel för den senaste ändringen Du tillåter sökmotorernas sökrobotar att bara hämta en delmängd av webbplatskartorna i indexet, det vill säga att sökroboten bara kan hämta de webbplatsfiler (sidor) som har ändrats efter ett visst datum. Denna mekanism för partiell extrahering av filer från Sitemap.xml gör att du snabbt kan upptäcka nya webbadresser på stora webbplatser. Dessutom låter det dig minska belastningen på både servern och sökmotorns sökrobot. Och de (sökmotorerna) är väldigt förtjusta i det sistnämnda.

Kombinera en webbplatskarta med robots.txt och robots metataggar

Instruktionerna för sitemap.xml bör, när de används på rätt sätt, komplettera varandra. Existerar tre viktigaste reglerna interaktioner av dessa instruktioner:

  • sitemap.xml, robots.txt och robots metataggar bör inte motsäga varandra;
  • alla sidor som är exkluderade (blockerade) i robots.txt och robots metataggar bör också uteslutas från sitemap.xml;
  • alla genomsökta sidor som tillåts av robots.txt måste finnas i sitemap.xml

Undantag från de tre reglerna

Det finns också undantag från dessa tre regler. Och som alltid är de länkade till pagineringssidor. Med utgångspunkt från den andra och längre fram på pagineringssidan registrerar vi noindex, följer i robots metataggar, medan pagineringssidorna inte är stängda från indexering i robots.txt.

Ställ in datum och tid för sidändringen så att de är lika med datum och tid för ändringen av huvudsidan (första, huvudsidan) i katalogen. I princip kan man hålla med om detta.

Gamla optimerare rekommenderar att du endast lägger till oindexerade eller ändrade sidor i din sitemap.xls-fil. Sidor som ingår i indexet bör tas bort från webbplatskartan. Men med denna åsikt är det redan svårare att hålla med. Om det finns ett lastmod-fält och det är korrekt ifyllt, finns det inget behov av sådana läckerheter.

De största problemen när du använder sitemap.xml

Under körningen stötte jag oftast på följande fel:

  1. Inkonsekvens av sitemap.xml med webbplatssidor, föråldrad webbplatskarta. Detta problem uppstår när webbplatskartan inte genereras dynamiskt, utan ibland genom att starta någon tjänst i CMS, eller till och med av tredjepartstjänster. I det här fallet visas många döda sidor, vilket ger 404-fel (detta är om sidan togs bort fysiskt eller flyttades till en annan plats, webbadressen ändrades). Dessutom indexeras nya sidor mycket långsammare, eftersom de inte finns i sitemap.xml.
  2. Nästa fel är en ogiltig sitemap.xml-struktur. Detta fel uppstår vanligtvis på "självskrivet" CMS eller när du använder fel plugins för ett populärt CMS. Detta genererar en sitemap.xml-fil som bryter mot strukturen som beskrivs av protokollet.
  3. En ändring av detta fel är felaktig hantering av postens ändringsdatum. Ur protokollsynpunkt är detta inte en bugg, eftersom lastmod-fältet är valfritt. Ur SEO- och sökmotorers synvinkel förnekar frånvaron av det korrekta värdet i detta fält (sammanfaller med den direkta förändringen av innehåll) helt betydelsen av hela sitemap.xml-filen. Som nämnts ovan kommer sökmotorer att omindexera de sidorna vars lastmod-fält har ändrats. Vad händer om detta fält ändras samtidigt för alla poster (sidor) på webbplatsen. Det vill säga ändringsdatumet är detsamma för alla webbplatsfiler. Med största sannolikhet kommer sökmotorer inte att uppmärksamma webbplatskartan och webbplatsen kommer att återindexeras på vanligt sätt, medan djupt belägna sidor antingen inte omindexeras alls eller kommer att återindexeras under en mycket lång tid. Så du får antingen inte använda lastmod-fältet (vilket är dåligt), eller ange ett datum för den senaste betydande ändringen på sidan, till exempel när priset ändrades eller produkten slutade eller beskrivningen ändrades.
  4. Nästa grupp av fel som uppstår är logiska, orsakade av brott mot tre regler för att kombinera robots.txt och sitemap.xml. I det här fallet kan du observera en konstant träff på sidan i indexet och en omedelbar avgång därifrån. Detta kommer dock inte att observeras om det finns en noindex-metatagg och en post i Sitemap.xml. I det här fallet kommer sökroboten (robot, PS-spindel) som kommer in på sidan inte att indexera den.
  5. Tja, och det sista misstaget som ofta inträffar på webbplatser är närvaron av "föräldralösa sidor". Det här är de sidor som det finns en länk till från webbplatskartan, men det finns inte en enda direktlänk från någon av sidorna på webbplatsen. Detta beror ofta på att sidorna raderades "logiskt" (till exempel placerades de i papperskorgen i WordPress), och inte fysiskt. Detta observeras också på webbplatser där åtkomst till produktkort görs med skript och filter på ett sätt som inte tillåter indexering av resultaten av dessa skript. Det kan finnas andra orsaker till förekomsten av sådana föräldralösa sidor. Allt detta minskar sökmotorernas förtroende för sajten och är en negativ rankningssignal.

Enligt protokollet, efter att ha ändrat webbplatskartan, kan du pinga sökmotorerna. För att göra detta måste du skapa en fråga av följande typ.

Du är bara en idiot om du vid ett tillfälle inte gav webbplatskartan den nödvändiga uppmärksamheten. Det räcker att förstå problemet en gång och undvika ett stort antal misstag i framtiden, vilket låt oss göra nu.

Din ödmjuka tjänare i sina yngre år var också en sådan idiot när han precis började marknadsföra sajter på ett kontor. Vid den tiden kom jag över en webbplats för marknadsföring, som jag måste säga, bara var skit. Och den här skiten hade problem med indexering. Naturligtvis, om sajten var av tillräcklig kvalitet, skulle båda sökmotorerna indexera den trots eventuella problem, men ägarna tryckte på en vanlig designer, layoutdesigner och programmerare, och i det här fallet behöver SEO bara öppna flaskan med sax, så att tala. Jag provade allt på det - både den senast ändrade inställningen och accelerationen av indexering av den fashionabla fastboten vid den tiden, och köp av länkar. Och först senare visade det sig att saken var att sajtkartan inte automatiskt uppdaterades där! När jag uppdaterade den flög alla sidor in i indexet.

Vad är en webbplatskarta och varför behövs den

Vad är en webbplatskarta? Detta är en fil med information om de sidor på webbplatsen som behöver indexeras. Vanligtvis skapas en webbplatskarta för Yandex och Google för att meddela sökrobotar om de sidor som behöver läggas till i indexet. Med hjälp av en webbplatskarta kontrolleras också hur ofta uppdateringar sker och indexeringen av vilka webbdokument som är viktigast. I allmänhet pratade de mycket bra om honom på Yandex Webmaster:

[yt = INGCBkR26eo] [yt = INGCBkR26eo]

Påverkar närvaron av en webbplatskarta marknadsföringen?

Om du inte har en webbplatskarta betyder det inte att sökmotorer inte kommer att indexera resursen. Sökrobotar genomsöker ofta webbplatser bra och inkluderar dem i sökningar utan det. Men ibland kan misslyckanden uppstå, på grund av vilka det ibland är möjligt att inte hitta alla webbdokument. De främsta anledningarna är:

  1. Delar av webbplatsen, som endast kan nås genom att göra en lång kedja av övergångar;
  2. Dynamiska webbadresser.

Så att skapa en sitemap.xml hjälper mycket för att lösa detta problem. Denna fil påverkar SEO endast i den mån den gör indexering av sidor enklare/snabbare. Det ökar också chansen att webbsidor kommer att indexeras innan dina konkurrenter kan kopiera innehållet genom att publicera det på sin webbplats.

Vilket annat format är en webbplatskarta i och varför görs den i XML-format

Varför behöver vi en webbplatskarta, vi kom på det. Låt oss nu titta på vilka format det kan göras i:

  1. I html-format. Den skapas i form av en vanlig sida med adresser som leder till resursens huvudsektioner. Den här typen av kartor hjälper till att snabbt navigera och är designad mer för människor än för sökrobotar. Ett begränsat antal länkar (högst 100) kan placeras i HTML-webbplatskartan, för om det finns fler av dem kommer inte alla att inkluderas i indexet. Eller så kan sökrobotar helt utesluta en sådan sida från sökning efter ett för stort antal webbadresser, även interna.
  2. Genererar webbplatskarta för xml-fil. Det finns inga alltför kritiska begränsningar för antalet länkar, och sökmotorer indexerar det bättre, eftersom webbplatskartfilen i xml-format innehåller fullständig information i en form som är förståelig för roboten. Det är särskilt viktigt för projekt där det finns hundratals och tusentals dokument av samma betydelse, och placeringen av alla länkar till dem är nödvändig. Denna typ av webbplatskarta har förmågan att placera upp till 50 tusen webbadresser, och dessutom kan du ställa in uppdateringsfrekvens och ungefärlig prioritet, vilket inte kan sägas om en karta i HTML-format. Det är av dessa skäl som en webbplatskarta nästan alltid skapas i xml.

Här är lite mer information om den här filen:

[yt = ti3NKPknHDA] [yt = ti3NKPknHDA]

Hur man gör en korrekt webbplatskarta

Låt oss se hur man gör en korrekt xml-karta. Följande krav måste uppfyllas här:

  1. Filstorleken bör inte vara mer än 10 MB;
  2. Kartan får inte innehålla fler än 50 000 länkar. I de fall det finns fler länkar kan du skapa flera kartor och inkludera dem i xml-huvudkartan;
  3. Webbplatskartans adress bör registreras i robots.txt;
  4. Ladda också upp webbplatskartan till Yandex och Google (hur man lägger till en fil beskrivs nedan);
  5. Sökmotorer måste kunna komma åt kartan. Det är nödvändigt att använda speciella taggar som låter sökmotorer förstå att detta är en karta och inte något annat;
  6. Webbplatskartan måste vara UTF-8-kodad.

Här är ett enkelt exempel på en karta:

http://site.ru/ 2016-11-20T19:45:08+03:00 always 0,9 http://site.ru/category/ 2016-11-20T19:46:38+03:00 monthly 0,6 http://site.ru/page/ 2016-11-20T19:48:41+03:00 yearly 0.4

< url >

< loc >http://site.ru/

< lastmod >2016 - 11 - 20T19: 45:08 + 03:00< / lastmod >

< changefreq >alltid< / changefreq >

< priority > 0 , 9 < / priority >

< / url >

< url >

< loc >http://site.ru/category/

< lastmod >2016 - 11 - 20T19: 46: 38 + 03:00< / lastmod >

< changefreq >en gång i månaden< / changefreq >

< priority > 0 , 6 < / priority >

< / url >

< url >

< loc >http://site.ru/page/

< lastmod >2016 - 11 - 20T19: 48: 41 + 03:00< / lastmod >

< changefreq >årlig< / changefreq >

< priority > 0.4 < / priority >

< / url >

Taggarna URL och loc krävs. Den första innehåller all information om en specifik URL. I den andra skrivs själva adressen.

Lastmod, changefreq, priority-taggarna är valfria, men rekommenderas fortfarande.

Lastmod i webbplatskartan ansvarar för datumet för den senaste uppdateringen.

Changefreq anger frekvensen av sidbyten. Värden kan vara följande:

  1. Varje timme - uppdatera varje timme;
  2. Alltid - alltid uppdaterad;
  3. Varje vecka - uppdateras en gång i veckan;
  4. Dagligen - uppdateringar sker dagligen;
  5. Månatlig - uppdateringar sker en gång i månaden;
  6. Årligen - en gång om året;
  7. Aldrig - inte uppdaterad (det är bättre att inte använda ett sådant värde).

Prioritet talar om för sökmotorer hur viktig en sida är jämfört med andra. Prioriteten kan ställas in från 0,1 (låg) till 1 (hög).

Detta var bara ett exempel på en karta, du behöver inte ange dessa värden. I allmänhet rekommenderas det att ordna prioritet enligt följande: maximalt för huvudsidan (1), för rubriker - medium (0,6) och för inlägg - minimum (0,4).

Låt oss nu titta på ett exempel när det finns mer än 50 tusen länkar. I det här fallet innehåller filen andra kartor:

http://site.ru/sitemaps/sitemap01.xml 2016-11-20T21: 37: 28 + 03: 00 http://site.ru/sitemaps/sitemap02.xml 2016-11-20T21: 37: 29 + 03: 00

< sitemap >

< loc >http: //site.ru/sitemaps/sitemap01.xml

< lastmod >2016 - 11 - 20T21: 37: 28 + 03:00< / lastmod >

< / sitemap >

< sitemap >

< loc >http: //site.ru/sitemaps/sitemap02.xml

< lastmod >2016 - 11 - 20T21: 37: 29 + 03:00< / lastmod >

< / sitemap >

Hur man skapar en webbplatskarta

Det finns flera sätt att skapa en xml-karta, överväg dem:

  1. Ladda ner en karta med en onlinegenerator från en annan resurs;
  2. Generera med ett speciellt program. Men det är värt att tänka på att program av detta slag mestadels betalas. Ett exempel på en sådan generator är Wonder WebWare SiteMap Generationor. Screaming Frog har också denna funktion;
  3. Skapa en webbplatskarta manuellt;
  4. Skapa automatiskt en karta med CMS (en sådan funktion är till exempel tillgänglig på WordPress).

Här är ett sätt att skapa en webbplatskarta utan att använda plugins:

[yt = Tnfy601BUZc] [yt = Tnfy601BUZc]

WordPress sitemap plugins

Du kan skapa en webbplatskarta i WordPress med hjälp av en speciell plugin som heter Google XML Sitemaps. Allt är enkelt här: ladda ner plugin-programmet, installera det och börja skapa filen. För att göra detta, öppna konsolinställningarna och välj XML-webbplatskartan. Därefter gör vi inställningarna. Lämna standardprioriteten.

Filerna robots.txt och sitemap.xml gör det möjligt att organisera webbplatsindexering. Dessa två filer kompletterar varandra väl, även om de samtidigt löser motsatta problem. Om robots.txt tjänar till att förbjuda indexering av hela avsnitt eller enskilda sidor, talar sitemap.xml tvärtom om för sökrobotar vilka webbadresser som ska indexeras. Låt oss analysera var och en av filerna separat.

Robots.txt-fil

robots.txt är en fil som registrerar regler som begränsar sökrobotar från att komma åt kataloger och webbplatsfiler för att undvika att deras innehåll indexeras av sökmotorer. Filen måste finnas i webbplatsens rotkatalog och vara tillgänglig på: site.ru/robots.txt.

I robots.txt måste du stänga alla dubbletter och servicesidor på webbplatsen från indexering. Ofta skapar offentligt tillgängligt CMS dubbletter, artiklar kan vara tillgängliga på flera URL-adresser samtidigt, till exempel; i kategorierna site.ru/category/post-1/, taggar site.ru/tag/post-1/ och archive site.ru/arhive/post-1/. För att undvika dubbletter är det nödvändigt att förbjuda indexering av taggar och arkivet, endast kategorier kommer att finnas kvar i indexet. Med tjänstesidor menar jag sidorna för administratörens del av sajten och automatiskt genererade sidor, till exempel: sökresultat på sajten.

Du behöver bara bli av med dubbletter, eftersom de berövar webbplatssidorna deras unika karaktär. När allt kommer omkring, om indexet innehåller flera sidor med samma innehåll, men tillgängliga på olika URL-adresser, kommer innehållet på ingen av dem inte att betraktas som unikt. Som ett resultat kommer sökmotorer att med tvång underskatta positionen för sådana sidor i sökresultaten.

Robots.txt-direktiv

Direktiv är regler, eller så kan du också säga kommandon för sökrobotar. Den viktigaste är User-agenten, med dess hjälp kan du ställa in regler för alla robotar eller för en specifik bot. Detta direktiv är skrivet i början, och efter det anges alla andra regler.

# För alla robotar Användaragent: * # För Yandex-robotar Användaragent: Yandex

Ett annat obligatoriskt direktiv är Disallow, med dess hjälp stängs sektionerna och sidorna på webbplatsen, och dess motsats är Allow-direktivet, som å andra sidan tvång tillåter indexering av de angivna avsnitten och sidorna på webbplatsen.

# Tillåt inte indexering av avsnittet Disallow: / mapp / # Tillåt indexering av undersektionen med bilder Tillåt: / mapp / bilder /

För att specificera huvudsidans spegel, till exempel: med eller utan www, används värddirektivet. Det bör noteras att huvudspegeln är registrerad utan att specificera http://-protokollet, men https: //-protokollet måste anges. Värden förstås endast av Yandex och Mail.ru bots och du behöver bara skriva direktivet en gång.

# Om huvudspegeln fungerar med http-protokollet utan www Host: site.ru # Om huvudspegeln fungerar med https-protokollet med www Host: https://www.site.ru

Sitemap är ett direktiv som anger sökvägen till filen sitemap.xml, sökvägen måste anges i sin helhet med protokollet, detta direktiv kan skrivas var som helst i filen.

# Ange den fullständiga sökvägen till filen sitemap.xml Sitemap: http://site.ru/sitemap.xml

För att förenkla skrivreglerna finns det speciella symboliska operatorer:

  • * - anger valfritt antal tecken, såväl som deras frånvaro;
  • $ - betyder att tecknet före dollartecknet är det sista;
  • # - betecknar en kommentar, allt som står i raden efter denna operator kommer att ignoreras av sökrobotar.

Efter att ha bekantat dig med de grundläggande direktiven och speciella operatörer kan du redan skissa på innehållet i en enkel robots.txt-fil.

User-agent: * Disallow: / admin / Disallow: / arhive / Disallow: / tag / Disallow: / modules / Disallow: / search / Disallow: *? S = Disallow: /login.php User-agent: Yandex Disallow: / admin / Disallow: / arhive / Disallow: / tag / Disallow: / modules / Disallow: / search / Disallow: *? s = Disallow: /login.php # Tillåt Yandex-roboten att indexera bilder i modulesektionen Tillåt: / moduler / *. png Tillåt: /modules/*.jpg Värd: site.ru Webbplatskarta: http://site.ru/sitemap.xml

Du kan läsa en detaljerad beskrivning av alla direktiv med exempel på deras användning i publikationen på Yandex-webbplatsen i hjälpsektionen.

Sitemap.xml-fil

sitemap.xml är en så kallad sitemap för sökmotorer. Filen sitemap.xml innehåller information för sökrobotar om de webbplatssidor som behöver indexeras. Innehållet i filen måste innehålla URL-adresser till sidorna, och valfritt kan du ange sidornas prioritet, frekvensen för sidgenomsökning, datum och tid för senaste sidändring.

Det bör noteras att sitemap.xml inte krävs, och sökmotorer kanske inte tar hänsyn till det, men samtidigt säger alla sökmotorer att närvaron av en fil är önskvärd och hjälper till att indexera webbplatsen korrekt, särskilt om sidorna skapas dynamiskt eller så har webbplatsen en komplex struktur.

Slutsatsen är en: att filerna robots.txt och sitemap.xml är nödvändiga. Korrekt inställning av indexering är en av faktorerna för att hitta webbplatssidor på högre ställen i sökresultaten, och detta är målet för alla mer eller mindre seriösa sajter.

En webbplatskarta (Sitemap.xml) är en speciell fil i .xml-format som lagras i serverns rotkatalog. Detta är en fil med information om de sidor på webbplatsen som behöver indexeras. Vanligtvis skapas en webbplatskarta för Yandex och Google för att meddela sökrobotar om de sidor som behöver läggas till i indexet. Med hjälp av en webbplatskarta kontrolleras också hur ofta uppdateringar sker och indexeringen av vilka webbdokument som är viktigast.

Video från Yandex Webmaster:

[yt = INGCBkR26eo]

Sitemap.xml sammanställs med hänsyn till en speciell syntax som är förståelig av sökmotorer, som kommer att lista alla sidor som ska indexeras med en indikation på deras grad av betydelse, datumet för den senaste uppdateringen och den ungefärliga uppdateringsfrekvensen.

Det finns två huvudfiler som alla webbprojekt bör ha - robots.txt och sitemap.xml... Om ditt projekt inte har dem, eller de är felaktigt ifyllda, skadar du med stor sannolikhet din resurs mycket och låter den inte öppna upp till hundra procent.

Påverkar sitemap.xml marknadsföring av webbplatser?

Om du inte har en webbplatskarta betyder det inte att sökmotorer inte kommer att indexera resursen. Sökrobotar genomsöker ofta webbplatser bra och inkluderar dem i sökningar utan det. Men ibland kan misslyckanden uppstå, på grund av vilka det ibland är möjligt att inte hitta alla webbdokument. De främsta anledningarna är:

  1. Delar av webbplatsen, som endast kan nås genom att göra en lång kedja av övergångar;
  2. Dynamiska webbadresser.

Att generera en sitemap.xml hjälper till att lösa det här problemet.

Sitemap.xml påverkar SEO indirekt: gör det enklare och snabbare att indexera sidor.

HTML-webbplatskarta

Webbplatskartor är indelade i två huvudtyper eller format: html webbplatskarta och sitemap xml-fil. HTML-webbplatskarta är en webbplatssida som listar länkarna. Vanligtvis är dessa länkar till de viktigaste avsnitten och sidorna på webbplatsen. HTML-webbplatskarta är mer inriktad på människor snarare än robotar och hjälper dig att snabbt navigera i de viktigaste delarna av webbplatsen. För en webbplatskarta i form av en html-sida finns det allvarliga begränsningar för antalet länkar på en sida. Om det finns för många länkar på sidan kan inte alla länkar indexeras, eller så kan webbplatskartsidan uteslutas från sökningen efter ett för stort antal länkar, även interna länkar.

För att html-webbplatskartan ska vara korrekt indexerad och adekvat uppfattad av besökarna bör du inte placera fler än 100 länkar på sidan. Detta är mer än tillräckligt för att placera alla sektioner och underavdelningar som inte passade in i huvudmenyn på sidan.

Vanligtvis, HTML-webbplatskarta har en trädstruktur med utökade sektioner och underavdelningar. Onödigt krångliga HTML-webbplatskartor dekoreras ofta med grafiska element, CSS-stilar och kompletteras med Java-script. Men html-webbplatskartan spelar ingen roll för sökmotorer.

En HTML-webbplatskarta är inte en komplett webbplatskarta. Vad händer om webbplatsen har hundratals, tusentals, tiotusentals sidor? För att göra detta måste du placera länkar till alla sidor i webbplatskartan i xml-format.

Webbplatskarta sitemap.txt

Ett annat sätt att designa en webbplatskarta som en fil kan vara en webbplatskarta i txt-format:

1.http: //site.ru/ 2.http: //site.ru/page/ 3.http: //site.ru/page1/

Det är enkelt. Filen sitemap.txt listar alla nödvändiga länkar rad för rad. En webbplatskarta i txt-format är ett "alternativ för lata". En liknande XML-gräns för webbplatskarta på 50 000 länkar fungerar här. Däremot saknar TXT-webbplatskartan möjligheten att ange senaste ändringsdatum och sidprioritet.

XML-webbplatskarta

En XML-webbplatskarta är en XML-fil med formen sitemap.xml som vanligtvis ligger vid roten av platsen. XML-webbplatskartan har många fördelar jämfört med html-webbplatskartan:

  • Webbplatskarta xml är ett speciellt format för en webbplatskarta, som bestäms av alla populära sökmotorer som Google och Yandex.
  • Du kan ange upp till 50 000 länkar i xml-webbplatskartan.
  • I sitemap xml kan du ange relativ prioritet och frekvens för siduppdatering.

Innehållet i webbplatskartan är bara en rekommendation för sökmotorns spindel. Om du till exempel ställer in en årlig uppdateringsfrekvens för en sida på din webbplats, kommer sökmotorernas sökrobotar fortfarande att besöka oftare. Och om du ställer in sidans uppdateringsfrekvens till timme betyder det inte att robotar kommer att indexera sidan varje timme.

Hur man skapar korrekt sitemap.xml

Låt oss se hur man gör en korrekt xml-karta. Följande krav måste uppfyllas här:

  1. Filstorleken bör inte vara mer än 10 MB;
  2. Kartan får inte innehålla fler än 50 000 länkar. I de fall det finns fler länkar kan du skapa flera kartor och inkludera dem i xml-huvudkartan;
  3. Webbplatskartans adress bör registreras i robots.txt;
  4. Ladda också upp webbplatskartan till Yandex och Google (hur man lägger till en fil beskrivs nedan);
  5. Sökmotorer måste kunna komma åt kartan. Det är nödvändigt att använda speciella taggar som låter sökmotorer förstå att detta är en karta och inte något annat;
  6. Webbplatskartan måste vara UTF-8-kodad.

Innehållet i filen sitemap.xml ser ut så här:

http://site.ru/ 2015-10-18T18:54:13+04:00 always 1.0 http://site.ru/category/ 2015-10-18T18:57:09+04:00 hourly 0.8 http://site.ru/page/ 2015-10-18T18:59:37+04:00 daily 0.6

Där följande obligatoriska taggar används:

  • - förälder-tagg, den innehåller alla webbadresser;
  • - en tagg som innehåller information om en specifik url-adress;
  • https://gtavrl.ru/sv/- den här taggen innehåller själva webbadressen.
  • - denna tagg innehåller datumet då sidan senast ändrades;
  • - taggen används för att indikera hur ofta sidan ändras: alltid, varje timme, dagligen, veckovis, månadsvis, årligen, aldrig;
  • Indikerar prioritet för en specifik sida i förhållande till andra sidor på webbplatsen från 0.1 - låg prioritet till 1 - hög prioritet.

Changefreq anger frekvensen av sidändringar:

  1. Varje timme - uppdatera varje timme;
  2. Alltid - alltid uppdaterad;
  3. Varje vecka - uppdateras en gång i veckan;
  4. Dagligen - uppdateringar sker dagligen;
  5. Månatlig - uppdateringar sker en gång i månaden;
  6. Årligen - en gång om året;
  7. Aldrig - inte uppdaterad (det är bättre att inte använda ett sådant värde).

Prioritet talar om för sökmotorer hur viktig en sida är jämfört med andra. Prioriteten kan ställas in från 0,1 (låg) till 1 (hög).

Filen sitemap.xml måste innehålla en referens till XML-namnrymden:

Xmlns = "http://www.sitemaps.org/schemas/sitemap/0.9"

Om webbplatskartfilen innehåller mer än 50 tusen länkar eller storleken på sitemap.xml överstiger 10 MB, rekommenderas att dela upp webbplatskartan i flera filer. I detta fall måste flera länkar till olika kartfiler anges i webbplatskartan.

http://site.ru/sitemaps/sitemap01.xml 2015-10-18T18: 54: 13 + 04: 00 http://site.ru/sitemaps/sitemap02.xml 2015-10-18T18: 54: 13 + 04: 00

De taggar vi redan känner till används här. och och även de obligatoriska taggarna:

  • - överordnad tagg, som innehåller adresserna till alla webbplatskartor;
  • - taggen som innehåller parametrarna för varje webbplatskarta.

Hur man skapar Sitemap.xml

Skapande av webbplatskarta en viktig process där det är nödvändigt att tydligt ange vilka sidor på webbplatsen som behöver indexeras och hur man bäst indexerar dem. Olika typer av webbplatskartor används beroende på typ av webbplatskarta. sätt att skapa en webbplatskarta... Det är ingen idé att diskutera hur man skapar en html-webbplatskarta separat. Låt oss överväga hur man gör en kartkarta i xml-filformat. Det finns flera grundläggande sätt att skapa en webbplatskarta, men vad de alla har gemensamt är var webbplatskartan finns och hur webbplatskartan identifieras av sökmotorer.

Som det redan skrevs ovan - webbplatskartfilen finns i roten på webbplatsen... Sökmotorer kan hitta webbplatskartfilen på egen hand. Men det finns flera sätt att tillhandahålla en direktlänk till webbplatskartfilen (filerna) för snabbare upptäckt av sökmotorer. Det enklaste sättet att ange platsen för webbplatskartfilen är att direkt ange länken eller flera länkar till webbplatskartfilerna i verktygen för webbansvariga från Yandex och Google. Du kan också kolla webbplatskarta, uppförande analys av webbplatskartan för korrekthet, matchning av vilka sidor från webbplatskartan som hittades av sökmotorn och hur många av dem som är i indexering.

Det andra sättet att berätta för sökmotorer var din webbplatskartfil är genom att använda direktivet om webbplatskartor i din robots.txt-fil.

Webbplatskarta: http://site.ru/sitemap.xml

I robots.txt kan du ange flera webbplatskartfiler, varefter de automatiskt läggs till i verktygen för webbansvariga. Vi har täckt hur man hittar en webbplatskarta, låt oss nu gå vidare till hur man skapar en webbplatskarta.

Grundläggande sätt att skapa en webbplatskarta

  1. Generering av webbplatskartor av platshanteringssystemet, om CMS har en liknande inbyggd kapacitet.
  2. Ladda ner webbplatskarta från en tredje parts onlinetjänst. Det finns många webbplatskartor online med olika möjligheter och begränsningar. Förmodligen en av de mest kända webbplatskartgeneratorerna online är Sitemap Generator. Den har ganska mycket funktionalitet och låter dig skapa en webbplatskarta för 1500 sidor gratis, vilket är ganska mycket. Det finns också xml-sitemaps.com har förmågan att anpassa webbplatskartsparametrar, men har en begränsning på antalet länkar i filen sitemap.xml på 500 bitar.
  3. Ladda ner generator för webbplatskartor... Sådana generatorprogram är vanligtvis betalda, men med deras hjälp kan du regelbundet generera sitemap xml för en eller flera webbplatser. Här är ett par exempel på sådana generatorprogram: SiteMap XML Dynamic SiteMap Generator, WonderWebWare SiteMap Generator.
  4. Automatiskt skapande av webbplatskarta i Joomla (Joomla), WordPress (Wordpress), Bitrix (Bitrix), ModX.
  5. Skapa en webbplatskarta manuellt.

Webbplatskarta WordPress

Du kan skapa en webbplatskarta för WordPress med Google XML Sitemaps-plugin. För det kan du göra många inställningar som gör att du kan utesluta en del av materialet på din webbplats, och du kan också ställa in den förväntade uppdateringsfrekvensen. Förutom att skapa en karta, meddelar Google XML Sitemaps-plugin, när du publicerar nytt material på din blogg, många sökmotorer om detta och uppmanar dem att snabbt indexera.

Du kan ställa in sökvägen till webbplatskartfilen själv i plugin-inställningarna och du kan till och med ge den ett annat namn än den klassiska sitemap.xml.

[yt = 5ZmRSR1bbEI]

Webbplatskarta Joomla

Du kan skapa en webbplatskarta för Joomla med hjälp av Xmap-komponenten.

Kontrollera webbplatskarta för trasiga länkar

För att inte lura sökmotorns sökrobot måste sitemap.xml konfigureras utan fel. Därför måste du efter varje uppdatering av filen kontrollera webbplatskartan för trasiga länkar.

Gå till Yandex Webmaster - avsnittet "Verktyg" - "Analys av webbplatskartfiler".

Välj ett av sätten att ladda ner filen:

  • kopiera texten sitmepa.xml;
  • skicka in webbadress för webbplatskarta;
  • ladda upp xml-filen till tjänsten.

Kontrollerar sitemap.xml i Yandex Webmaster

Gå till Google Search Console - avsnittet "Genomsök" - "Webbplatskartor".

Analys av Sitemap.xml från PixelPlus

Verktyg från pixelplus.ru - XML-webbplatskartaanalys. Det är enkelt, coolt och okomplicerat.

  1. Ange en webbplatskarta (URL) eller ladda upp en XML-fil.

    Vi väljer om vi ska kontrollera serverns svarskod för varje URL i den.

Med verktyget kan du kontrollera att webbplatskartan är korrekt (fil i * .xml-format) och även hitta:

    Filens giltighetsfel.

    De webbadresser som returnerar svarskoden är inte 200 OK.

    Andra fel (som pekar på en URL från en annan domän, överdriven filstorlek eller antal webbadresser i den, och så vidare).

Kom ihåg att antalet giltiga webbadresser i en fil är 50 000, och filstorleken bör inte överstiga 10 MB.

Om fel hittas (detta händer ofta) kommer tjänsten att berätta för dig vilka webbadresser som ger ett felaktigt svar (raderade, onödiga och så vidare).

Sitemap.xml är ett viktigt verktyg

En webbplatskarta är ett av de viktigaste verktygen för marknadsföring av SEO-webbplatser. Det spelar ingen roll hur webbplatskartan skapas. Det är viktigt vilka länkar som kommer att listas i webbplatskartan och hur ofta den kommer att uppdateras. Ibland laddas allt upp till webbplatskartan, och även de länkar som är förbjudna i robots.txt eller icke-kanoniska länkar. Och webbplatskartan uppdateras en gång i månaden eller mindre. En sådan inställning till webbplatskartan kan inte bara göra den värdelös, utan ännu värre - förvirra sökroboten, vilket negativt kommer att påverka indexeringen och positionen för webbplatsen i sökningen.

Skapa en webbplatskarta för din resurs. Men var försiktig och fundera noga på vad du ska ladda upp till webbplatskartan och inte.







2021 gtavrl.ru.