Spis treści
Czytasz teraz:
Crawler – do czego służy i jak działa?
- Crawler – sposób działania
- Google Crawler i jego rola w wyszukiwarce
- W jaki sposób crawler indeksuje strony?
- Czy crawler ma dostęp do całej zawartości strony?
- Weryfikacja zawartości a indeksowanie
- Crawler Google a inne roboty
- Crawlery i ich przeznaczenie
- Google Crawler a SEO
Zamknij
Mamy z nimi do czynienia nieustannie, choć możemy nie być tego świadomi. Crawlery, czyli roboty indeksujące, odpowiadają za zbieranie informacji o stronach, strukturach i treściach internetowych. Działają na podstawie protokołów HTTP i HTTPS oraz algorytmów i reguł określających, w jaki sposób oraz jak często powinny przeglądać witryny.
Crawler jako robot wyszukiwarek jest przydatnym narzędziem wspomagającym pozycjonowanie danej strony internetowej. W tłumaczeniu na język polski oznacza gąsienicę, ale bywa nazywany również pająkiem, robotem, botem lub pełzaczem.
Crawler – sposób działania
Zadaniem crawlera jest gromadzenie i przechowywanie danych opisowych strony internetowej, tzw. meta tagów. Następnie robot indeksuje je w taki sposób, by wyszukiwarka mogła dokonać skanowania, na podstawie którego wyłoni słowa kluczowe. Dane pozyskiwane przez bota to zarówno cała treść witryny internetowej, jak i linki zewnętrzne i wewnętrzne.
Do głównych zadań crawlera indeksującego należy m.in.:
(Dalszą część artykułu znajdziesz pod formularzem)
Wypełnij formularz i odbierz wycenę
Zapoznamy się z Twoim biznesem i przygotujemy indywidualną ofertę cenową na optymalny dla Ciebie mix marketingowy. Zupełnie za darmo.
Administratorem Twoich danych osobowych jest Verseo spółka z ograniczoną odpowiedzialnością z siedzibą w Poznaniu, przy ul. Węglowej 1/3.
O Verseo
Siedziba Spółki znajduje się w Poznaniu. Spółka jest wpisana do rejestru przedsiębiorców prowadzonego przez Sąd Rejonowy Poznań – Nowe Miasto i Wilda w Poznaniu, Wydział VIII Gospodarczy Krajowego Rejestru Sądowego pod numerem KRS: 0000910174, NIP: 7773257986. Możesz skontaktować się z nami listownie na podany wyżej adres lub e-mailem na adres: [email protected]
Masz prawo do:
- dostępu do swoich danych,
- sprostowania swoich danych,
- żądania usunięcia danych,
- ograniczenia przetwarzania,
- wniesienia sprzeciwu co do przetwarzania danych osobowych,
- przenoszenia danych osobowych,
- cofnięcia zgody.
Jeśli uważasz, iż przetwarzamy Twoje dane niezgodnie z wymogami prawnymi masz prawo wnieść skargę do organu nadzorczego – Prezesa Urzędu Ochrony Danych Osobowych.
Twoje dane przetwarzamy w celu:
- obsługi Twojego zapytania, na podstawie art. 6 ust. 1 lit. b ogólnego rozporządzenia o ochronie danych osobowych (RODO);
- marketingowym polegającym na promocji naszych towarów i usług oraz nas samych w związku z udzieloną przez Ciebie zgodą, na podstawie art. 6 ust. 1 lit. a RODO;
- zabezpieczenia lub dochodzenia ewentualnych roszczeń w związku z naszym uzasadnionym interesem, na podstawie art. 6 ust. 1 lit. f. RODO.
Podanie przez Ciebie danych jest dobrowolne. Przy czym, bez ich podania nie będziesz mógł wysłać wiadomości do nas, a my nie będziemy mogli Tobie udzielić odpowiedzieć.
Twoje dane możemy przekazywać zaufanym odbiorcom:
- dostawcom narzędzi do: analityki ruchu na stronie, wysyłki informacji marketingowych.
- podmiotom zajmującym się hostingiem (przechowywaniem) strony oraz danych osobowych.
Twoje dane będziemy przetwarzać przez czas:
- niezbędny do zrealizowania określonego celu, w którym zostały zebrane, a po jego upływie przez okres niezbędny do zabezpieczenia lub dochodzenia ewentualnych roszczeń
- w przypadku przetwarzanie danych na podstawie zgody do czasu jej odwołania. Odwołanie przez Ciebie zgody nie wpływa na zgodność z prawem przetwarzania przed wycofaniem zgody.
Nie przetwarzamy danych osobowych w sposób, który wiązałby się z podejmowaniem wyłącznie zautomatyzowanych decyzji co do Twojej osoby. Więcej informacji dotyczących przetwarzania danych osobowych zawarliśmy w Polityce prywatności.
- badanie zawartości strony,
- odwiedzanie linków na stronie docelowej,
- sprawdzanie kodu witryny,
- gromadzenie informacji o stronie,
- sprawdzanie aktualizacji treści.
Wszystkie te czynności wpływają na widoczność strony internetowej w danej wyszukiwarce. Jak to działa?
Google Crawler i jego rola w wyszukiwarce
Crawlerem Google jest Googlebot. Podczas analizy treści kodu oraz struktury strony robot indeksujący gromadzi informacje na temat jej zawartości, poprawności oraz przydatności. Te dane są następnie przechowywane przez wyszukiwarkę i wykorzystywane w celu adekwatnego dopasowania listy witryn w odpowiedzi na zapytanie użytkownika.
Robot ocenia zbieżność treści na każdej z wcześniej zaindeksowanych stron z hasłem wpisanym do wyszukiwarki i na tej podstawie decyduje, które witryny pojawią się pierwsze w Google. Crawler ma zatem ogromny wpływ na widoczność w wynikach wyszukiwania danej strony. Dodatkowo dzięki indeksowaniu i gromadzeniu danych wyszukiwarka posiada obszerną i zaktualizowaną bazę danych, dzięki czemu użytkownicy otrzymują sprawdzone i przydatne dla nich informacje.
W jaki sposób crawler indeksuje strony?
Wiemy już, iż te boty działają poprzez skanowanie stron internetowych, jednak warto wspomnieć, iż nie na każdej witrynie wygląda to tak samo. Różnica jest związana przede wszystkim z zawartością danej strony oraz z ilością wprowadzonych na niej zmian.
Przykładowo jeżeli konieczna jest szczegółowa analiza całej witryny – jej struktury, kodu źródłowego czy pojawiających się duplikacji treści – wówczas mamy do czynienia z tzw. metodą deep crawl. Natomiast w przypadku stron, na których dane są często aktualizowane, bot będzie wykonywał jedynie tzw. fresh crawl. Oznacza to, iż sprawdzi jedynie nowe, zmienione obszary, nie powtarzając czynności indeksowania już wcześniej istniejących treści.
Czy crawler ma dostęp do całej zawartości strony?
Zanim bot indeksujący rozpocznie swoją pracę, musi pobrać plik o nazwie „robots.txt”, który zawiera szczegółowe instrukcje dla crawlera, określające, jakie dokumenty z witryny mogą zostać przeszukane, a jakie adresy nie są dla niego dostępne. Roboty już na samym początku muszą sprawdzić, czy mają dostęp do zawartości znajdującej się w wybranym obszarze strony.
Decyduje o tym zapis w pliku robots.txt: wpis „Allow: /” oznacza, iż robot ma pełny dostęp do strony, a wpis „Disallow: /” całkowicie blokuje botom dostęp. Istnieje również możliwość wprowadzenia wpisu „Disallow: /” tylko dla konkretnych podstron – wówczas pozostałe obszary mogą być przeglądane.
Weryfikacja zawartości a indeksowanie
Warto wiedzieć, iż indeksowanie meta danych następuje po ich przeglądzie i może zostać zablokowane. choćby jeśli crawler dokona analizy treści na wybranej witrynie, nie zawsze jest upoważniony do wyświetlania ich w wynikach wyszukiwania. Przykładowo jeżeli w sekcji meta znajdzie się wpis „noindex” lub „none”, robot może jedynie przeglądać zawartość, ale nie ma pozwolenia na udostępnianie jej użytkownikom.
Crawler swoją wiedzę na temat listy adresów czerpie z pliku sitemap.xml oraz z linków. Natomiast o ile sami chcemy zgłosić dany adres URL do crawlera, możemy to zrobić dzięki narzędzia Google Search Console.
Crawler Google a inne roboty
Każda wyszukiwarka internetowa ma własnego bota indeksującego. Należą do nich:
- Googlebot – robot sieciowy wykorzystywany przez Google,
- Bingbot – crawel wyszukiwarki Bing,
- Yandex bot – tworzy bazę wyszukiwarki Yandex.
Zastosowanie botów indeksujących nie ogranicza się jednak tylko do wyszukiwarek – służą one również innym działaniom związanym ze stronami internetowymi.
Crawlery i ich przeznaczenie
Istnieją crawlery przeznaczone m.in. do:
- analizy treści na stronach, które usprawniają działania SEO, np. Screaming Frog czy SEMrush,
- e-commerce, które analizują sklepy internetowe i produkty, np. eBay Crawler czy Amazon Crawler.
Za pomocą botów możemy zatem monitorować zmiany zachodzące na stronach, dodawać komentarze, analizować linki czy tworzyć kontaktowe bazy danych. W zależności od potrzeb użytkowników można zaprogramować go w taki sposób, by wykonywał wskazane zadania.
Google Crawler a SEO
Optymalizacja witryny pod kątem SEO polega na przystosowaniu strony do algorytmów wyszukiwarki internetowej, tym samym prowadząc do zwiększenia jej widoczności. Ogromną pomocą w tej kwestii mogą się okazać boty Google, które decydują o pozycji witryny w liście wyszukiwania na dane zapytanie.
Crawler Google wpływa m.in. na:
- identyfikację błędów technicznych, np. niedziałających linków czy zduplikowanych treści,
- ocenę poprawności struktury danej strony oraz wartości treści,
- zwiększenie widoczności w organicznych wynikach wyszukiwania,
- wzrost popularności witryny w rankingu, co jest spowodowane analizą linków zewnętrznych.
Stosowanie się do wytycznych, według których Google Crawler ocenia i klasyfikuje witryny, przyczyni się do lepszego pozycjonowania strony internetowej, a w konsekwencji również do wzrostu zainteresowania potencjalnych klientów.