

Čo to vlastne je sitemap.xml a robots.txt
V rámci SEO veľmi dôležitá vec. Obidve súbory sú dôležité pre správne naindexovanie – načítanie celej stránky crawlom. Crawl je v preklade robot, ktorý chodí po stránkach a nasáva informácie z nich, na základe takto získaných informácií potom vie zobraziť ľuďom relevantné výsledky. Čiže niekto do www.google.sk napíšte napr. umývanie áut a vyhľadávač zobrazí všetky stránky, ktoré obsahujú v svojom tele hľadaný výraz. Samozrejme je to len jeden faktor z 200 ktoré Google používa.
Ak sa Vaša firma zameriava napr. na umývanie áut, máte webstránku a tieto 2 súbory nemáte, vyhľadávače Google, Seznam, Yahoo.. o Vašej stránke nemusia ani len vedieť, a práve preto Vás ani nezobrazia vo vyhľadávaní. Divili by ste sa koľko stránok tak závažnú chybu obsahuje.
Ako si viem zistiť či dané súbory moja stránka má?
Ak už máte vlastnú stránku napíšte “www.vasa stranka.sk/robots.txt” a “www.vasa stranka.sk/sitemap.xml” takto jednoducho overíte existenciu tíchto súborov, ak sa Vám zobrazí error – chyba, neváhajte nás ihneď kontaktovať.
Chýbajúce, alebo chybne nastavené súbory majú za následok buď žiadne naindexovanie, alebo len čiastočné indexovanie stránky.
Ak stránka, alebo podstránky napr. podstránky produktov v Google neexistuju, asi ťažko sa k Vám klienti reálne dostanú!
Kedysi sme riešili problém kedy stránka mala obidve súbory avšak jeden z pluginov obsahoval chybu, vďaka ktorej sa časť podstránok do indexu Google vôbec nedostala. Preto je veľmi dôležité tejto problematike venovať v rámci SEO pozornosť. Odporúčame Vám preto SEO audit, formou ktorého túto vec mimo iných preskúmame.
To koľko stránok reálne v indexe Google existuje si samozrejme viete skontrolovať cez Google Webmaster Tools, a nielen to. Viete si tiež prezistiť, ktoré sú živé a ktoré už neexistujú, pretože neexistujúce stránky ktoré Google drží v zozname majú za následok penalizáciu Vašej stránky, čiže jej nižšie umiestnenie = menej klientov.