Screaming Frog SEO Spider to program do przeszukiwania stron internetowych, który pomaga w poprawieniu SEO na miejscu, poprzez wyodrębnienie danych i audytu dla typowych problemów SEO. Pobierz i przeszukaj 500 adresów URL za darmo lub kup licencję, aby usunąć limit i uzyskać dostęp do zaawansowanych funkcji.
Co można zrobić z narzędziem Screaming Frog SEO Spider Tool?
Screaming Frog SEO Spider jest potężnym i elastycznym crawlerem witryn, zdolnym do efektywnego indeksowania zarówno małych, jak i bardzo dużych stron internetowych, jednocześnie umożliwiając analizę wyników w czasie rzeczywistym. Zbiera kluczowe dane onsite, które pozwalają SEO na podejmowanie świadomych decyzji.
Znajdź uszkodzone linki
Przeczesuj stronę natychmiast i znajdź uszkodzone linki (404) i błędy serwera. Masowo eksportuj błędy i źródłowe adresy URL, aby je naprawić lub wysłać do programisty.
Znajdź przekierowania
Znajdź tymczasowe i stałe przekierowania, zidentyfikuj łańcuchy i pętle przekierowań lub prześlij listę adresów URL do audytu w migracji witryny.
Analizuj tytuły stron i meta dane
Przeanalizuj tytuły stron i meta opisy podczas indeksowania i zidentyfikuj te, które są zbyt długie, krótkie, brakuje ich lub są zduplikowane w całej witrynie.
Odkryj powielane treści
Odkryj dokładne zduplikowane adresy URL dzięki sprawdzeniu algorytmicznemu md5, częściowo zduplikowane elementy, takie jak tytuły stron, opisy lub nagłówki i znajdź strony o niskiej zawartości.
Wyciąganie danych za pomocą XPath
Zbierz dowolne dane z HTML strony internetowej używając CSS Path, XPath lub regex. Może to obejmować meta tagi społecznościowe, dodatkowe nagłówki, ceny, SKU i wiele innych!
Przeglądaj dyrektywy dla robotów
Zobacz adresy URL zablokowane przez robots.txt, meta robots lub dyrektywy X-Robots-Tag, takie jak „noindex” lub „nofollow”, a także kanoniczne i rel=”next” i rel=”prev”.
Generuj mapy stron XML
Szybko utwórz XML Sitemaps i Image XML Sitemaps, z zaawansowaną konfiguracją adresów URL do włączenia, ostatniej modyfikacji, priorytetu i częstotliwości zmian.
Integracje Google
Połącz się z interfejsami API Google Analytics, Search Console i PageSpeed Insights i pobierz dane o użytkownikach i wydajności dla wszystkich adresów URL w indeksie, aby uzyskać lepszy wgląd.
Skanuj strony w JavaScript
Renderuj strony internetowe za pomocą zintegrowanego Chromium WRS, aby raczkować dynamiczne, bogate w JavaScript strony internetowe i frameworki, takie jak Angular, React i Vue.js.
Wizualizuj architekturę strony
Oceniaj wewnętrzne linkowanie i strukturę adresów URL za pomocą interaktywnych diagramów indeksowania i wymuszania katalogów oraz wizualizacji witryn typu tree graph.
Zaplanuj audyty
Zaplanuj badania w wybranych odstępach czasu i automatycznie eksportuj dane o badaniach do dowolnej lokalizacji, w tym do arkuszy Google. Możesz też całkowicie zautomatyzować pracę z wiersza poleceń.
Porównuj wersje stron
Śledź postępy w kwestiach SEO i możliwości oraz zobacz, co się zmieniło pomiędzy kolejnymi indeksami. Porównaj środowiska inscenizacyjne z produkcyjnymi używając zaawansowanego mapowania URL.
Lista Raportów Screaming Frog Seo Spider
Screaming Frog SEO Spider to narzędzie do audytu SEO, zbudowane przez prawdziwych SEOwców z tysiącami użytkowników na całym świecie. Szybkie podsumowanie niektórych danych zebranych w crawlu obejmuje
- Błędy – Błędy klienta, takie jak uszkodzone linki i błędy serwera (brak odpowiedzi, błędy klienta 4XX i serwera 5XX).
- Przekierowania – stałe, tymczasowe, przekierowania JavaScript i odświeżanie meta.
- Zablokowane adresy URL – Przeglądanie i kontrola adresów URL zablokowanych przez protokół robots.txt.
- Zablokowane zasoby – Przeglądaj i kontroluj zablokowane zasoby w trybie renderowania.
- Linki zewnętrzne – Zobacz wszystkie linki zewnętrzne, ich kody statusu i strony źródłowe.
- Bezpieczeństwo – Odkryj niezabezpieczone strony, mieszane treści, niezabezpieczone formularze, brakujące nagłówki bezpieczeństwa i inne.
- Problemy z adresami URL – Znaki inne niż ASCII, podkreślenia, wielkie litery, parametry lub długie adresy URL.
- Duplikaty stron – Wykrywanie dokładnych i bliskich duplikatów stron przy użyciu zaawansowanych algorytmów.
- Tytuły stron – Brakujące, zduplikowane, długie, krótkie lub wielokrotne elementy tytułu.
- Meta Description – Brakujące, zduplikowane, długie, krótkie lub wielokrotne opisy.
- Meta Keywords – Głównie dla wyszukiwarek referencyjnych lub regionalnych, ponieważ nie są one używane przez Google, Bing lub Yahoo.
- Rozmiar pliku – Rozmiar adresów URL i obrazów.
- Czas odpowiedzi – Zobacz jak długo strony odpowiadają na żądania.
- Last-Modified Header – Zobacz datę ostatniej modyfikacji w nagłówku HTTP.
- Crawl Depth – Zobacz jak głęboko dany adres URL znajduje się w architekturze strony.
- Word Count – Analizuj liczbę słów na każdej stronie.
- H1 – Brakujące, zduplikowane, długie, krótkie lub wielokrotne nagłówki.
- H2 – Brak, duplikat, długie, krótkie lub wielokrotne nagłówki.
- Meta Robots – Index, noindex, follow, nofollow, noarchive, nosnippet itp.
- Meta Odświeżanie – Włącznie z docelową stroną i opóźnieniem.
- Elementy kanoniczne – elementy linków i kanoniczne nagłówki HTTP.
- X-Robots-Tag – Zobacz dyrektywy wydawane przez nagłówek HTTP.
- Paginacja – Zobacz atrybuty rel=”next” i rel=”prev”.
- Follow & Nofollow – Zobacz atrybuty meta nofollow i nofollow linków.
- Redirect Chains – Odkryj łańcuchy i pętle przekierowań.
- hreflang Attributes – Audytuj brakujące linki potwierdzające, niespójne i nieprawidłowe kody językowe, niekanoniczne hreflang i więcej.
- Inlinks – Zobacz wszystkie strony linkujące do adresu URL, anchor text i czy link jest follow czy nofollow.
- Outlinks – Zobacz wszystkie strony, do których linkuje URL, jak również zasoby.
- Anchor Text – Wszystkie teksty linków. Alt text z obrazów z linkami.
- Rendering – Badaj frameworki JavaScript, takie jak AngularJS i React, poprzez badanie renderowanego HTML po wykonaniu JavaScript.
- AJAX – Wybierz, aby stosować się do przestarzałego schematu indeksowania AJAX Google.
- Obrazy – Wszystkie adresy URL z linkiem do obrazu i wszystkie obrazy z danej strony. Obrazki powyżej 100kb, brak tekstu alt, tekst alt powyżej 100 znaków.
- Przełącznik User-Agent – indeksowanie jako Googlebot, Bingbot, Yahoo! Slurp, mobilni user-agenci lub własne UA.
- Własne nagłówki HTTP – Dostarczaj dowolne wartości nagłówków w żądaniu, od Accept-Language do cookie.
- Niestandardowe wyszukiwanie kodu źródłowego – Znajdź wszystko, co chcesz w kodzie źródłowym witryny! Czy jest to kod Google Analytics, konkretny tekst, czy kod itp.
- Niestandardowa ekstrakcja – wyskrob dowolne dane z HTML adresu URL za pomocą XPath, selektorów CSS Path lub regex.
- Integracja z Google Analytics – Połącz się z Google Analytics API i pobieraj dane o użytkownikach i konwersji bezpośrednio podczas indeksowania.
- Integracja z Google Search Console – Połącz się z interfejsem API Google Search Analytics i URL Inspection i zbieraj dane o wydajności i stanie indeksu w masie.
- Integracja z PageSpeed Insights – Połącz się z interfejsem API PSI, aby uzyskać metryki Lighthouse, możliwości szybkości, diagnostykę i dane Chrome User Experience Report (CrUX) w skali.
- Metryki linków zewnętrznych – Przeciągnij metryki linków zewnętrznych z interfejsów API Majestic, Ahrefs oraz Moz do crawlera w celu przeprowadzenia audytu treści lub profilowania linków.
- Generowanie XML Sitemap – Tworzenie sitemapy XML oraz sitemapy obrazu przy użyciu pająka SEO.
- Niestandardowy robots.txt – Pobierz, edytuj i przetestuj robots.txt witryny przy użyciu nowego niestandardowego robots.txt.
- Renderowane zrzuty ekranu – Pobieraj, przeglądaj i analizuj renderowane strony, które zostały przeczesane.
- Store & View HTML & Rendered HTML – Niezbędne do analizy DOM.
- AMP Crawling & Validation – Wypełniaj adresy URL AMP i waliduj je, używając oficjalnego zintegrowanego walidatora AMP.
- Analiza XML Sitemap – przeszukuj XML Sitemap niezależnie lub w ramach przeszukiwania, aby znaleźć brakujące, nieindeksowalne i osierocone strony.
- Wizualizacje – Analizuj wewnętrzne linkowanie i strukturę adresów URL witryny, korzystając z diagramów i wykresów drzewa indeksowania i drzewa katalogowego.
- Dane strukturalne i walidacja – Wyodrębnij i sprawdź dane strukturalne pod kątem specyfikacji Schema.org i funkcji wyszukiwania Google.
- Pisownia i gramatyka – Sprawdź pisownię i gramatykę swojej strony w ponad 25 różnych językach.
- Porównanie crawli – Porównaj dane crawli, aby zobaczyć zmiany w problemach i możliwościach, aby śledzić postępy w technicznym SEO. Porównaj strukturę witryny, wykryj zmiany w kluczowych elementach i metrykach oraz użyj mapowania adresów URL, aby porównać witryny testowe z produkcyjnymi.