📖 SEO i pozycjonowanie

Crawling

Proces, w którym roboty wyszukiwarek (np. Googlebot) skanują strony internetowe, podążając za linkami, żeby odkryć nowe i zaktualizowane treści.

Crawling to proces automatycznego skanowania stron internetowych przez roboty wyszukiwarek (crawlery/pająki). Googlebot odwiedza Twoją stronę, podąża za linkami i zbiera dane o treściach.

Jak działa crawling?

  1. Googlebot odkrywa URL (z sitemap, linków, GSC)
  2. Wysyła żądanie HTTP do serwera
  3. Pobiera kod HTML strony
  4. Renderuje JavaScript (jeśli jest)
  5. Podąża za linkami na stronie, odkrywając kolejne URL-e

Crawl budget

Google przydziela każdej stronie "budżet crawlowania" – limit stron, które odwiedzi w danym czasie. Dla małych stron (do kilkuset podstron) to nie problem. Dla dużych witryn optymalizacja crawl budget jest kluczowa: szybki serwer, brak duplikatów, poprawny robots.txt i sitemap.

← Wróć do słownika marketingowego