SEO nástroje a služby

Optimalizace pro vyhledávače krok za krokem - kapitola 8

V SEO je tendence využívat různé nástroje. Ty nejužitečnější však poskytují samotné vyhledávače. Vyhledávače vyžadují, aby správci webových stránek vytvářeli weby a obsah přístupný a přehledných jejich robotům i uživatelům. Proto poskytují různé nástroje s pokyny a analýzou. Tyto nástroje přístupné zdarma poskytují cenná data a umožňují získávat informace od samotných vyhledávačů.

Níže si vysvětlíme základní prvky, které každý z hlavních vyhledávačů podporuje a určuje, proč jsou užitečné.

Základní vyhledávací protokoly

Sitemaps

Představte si Sitemap jako soubor, který poskytuje vyhledávačům rady, jak mohou procházet vaše webové stránky. Sitemap pomáhá vyhledávačům najít a klasifikovat obsah na vašem webu, který by se jim nepodařilo vůbec nalézt. Soubory Sitemap mohou být také v různých formátech a mohou vyzdvihnout různé typy obsahu včetně obrázků, videa, zpráv a mobilního obsahu.

Úplné podrobnosti o protokolech si můžete přečíst na stránkách Sitemaps.org. Kromě toho, můžete na webu XML-Sitemaps.com vytvářet vlastní soubory Sitemap.

Sitemaps mohou být ve třech formátech:

XML

Rozšířitelný značkovací jazyk (doporučený formát).

  • Nejčastěji akceptovaný formát souborů Sitemap. Pro vyhledávače je velmi snadný k analyzování a mýt vytvořen množstvím různých generátorů. Navíc umožňuje nejpokročilejší ovládání parametrů stránky.
  • Jelikož XML potřebuje otevírací a uzavírací tag kolem každého prvku, mohou být výsledné soubory velmi objemné.

RSS

ReallySimpleSyndication nebo RichSiteSummary

  • RSS sitemaps mohou být snadno nakódovány, aby se automaticky aktualizovaly při přidávání nového obsahu.
  • Ačkoli RSS je dialekt XML, kvůli jeho aktualizačním vlastnostem je mnohem těžší ho spravovat.

Txt

Textový soubor

  • Extrémně snadný. Formát souboru Sitemap je jedna adresa URL na řádku a může obsahovat až 50 000 řádků.
  • Neposkytuje možnost přidávat metadata jednotlivým stránkám.

Robots.txt

Robots.txt je soubor uložený v kořenovém adresáři webových stránek. Tento soubor poskytuje pokyny pro automatizované webové crawlery, které navštěvují vaše stránky, včetně vyhledávacích crawlerů.

Používáním robots.txt, mohou webmasteři zakázat a povolit přístup k jednotlivým částem webu, označit umístění souboru Sitemap.

K dispozici jsou následující příkazy:

  • Disallow
    Zabraňuje robotům přístup ke konkrétním stránkám nebo složkám.
  • Sitemap
    Označuje umístění souboru Sitemap.
  • CrawlDelay
    Označuje rychlost (v sekundách), při které může robot procházet server.

Příklad souboru Robots.txt

#Robots.txt www.example.com/robots.txt
User-agent: *
Disallow:

# Don’tallowspambot to crawlanypages
User-agent: spambot
disallow: /

sitemap:www.example.com/sitemap.xml

 

Kapitoly SEO průvodce pro začátečníky

  1. Na jakém principu fungují vyhledávače

  2. Jak lidé pracují s vyhledávači

  3. Proč je Search Engine Marketing nezbytný

  4. Základy vhodného designu a vývoje webu přátelského k vyhledávačům

  5. Vyhledávání a analýza klíčových slov

  6. Jak použitelnost, uživatelská interakce (UX) a obsah ovlivňují hodnocení vyhledávačů

  7. Rostoucí popularita webu a zpětné odkazy

  8. SEO nástroje a služby

  9. Mýty a mylné představy o vyhledávačích

  10. Měření a sledování úspěšnosti vaší SEO strategie

SEO nástroje a služby
Ohodnoť článek

Sdílej:

Be the first to comment

Leave a Reply

Your email address will not be published.


*