Screaming Frog Seo Spider

Screaming Frog SEO Spider to program do przeszukiwania stron internetowych, który pomaga w poprawieniu SEO na miejscu, poprzez wyodrębnienie danych i audytu dla typowych problemów SEO. Pobierz i przeszukaj 500 adresów URL za darmo lub kup licencję, aby usunąć limit i uzyskać dostęp do zaawansowanych funkcji.

Co można zrobić z narzędziem Screaming Frog SEO Spider Tool?

Screaming Frog SEO Spider jest potężnym i elastycznym crawlerem witryn, zdolnym do efektywnego indeksowania zarówno małych, jak i bardzo dużych stron internetowych, jednocześnie umożliwiając analizę wyników w czasie rzeczywistym. Zbiera kluczowe dane onsite, które pozwalają SEO na podejmowanie świadomych decyzji.

Znajdź uszkodzone linki

Przeczesuj stronę natychmiast i znajdź uszkodzone linki (404) i błędy serwera. Masowo eksportuj błędy i źródłowe adresy URL, aby je naprawić lub wysłać do programisty.

Znajdź przekierowania

Znajdź tymczasowe i stałe przekierowania, zidentyfikuj łańcuchy i pętle przekierowań lub prześlij listę adresów URL do audytu w migracji witryny.

Analizuj tytuły stron i meta dane

Przeanalizuj tytuły stron i meta opisy podczas indeksowania i zidentyfikuj te, które są zbyt długie, krótkie, brakuje ich lub są zduplikowane w całej witrynie.

Odkryj powielane treści

Odkryj dokładne zduplikowane adresy URL dzięki sprawdzeniu algorytmicznemu md5, częściowo zduplikowane elementy, takie jak tytuły stron, opisy lub nagłówki i znajdź strony o niskiej zawartości.

Wyciąganie danych za pomocą XPath

Zbierz dowolne dane z HTML strony internetowej używając CSS Path, XPath lub regex. Może to obejmować meta tagi społecznościowe, dodatkowe nagłówki, ceny, SKU i wiele innych!

Przeglądaj dyrektywy dla robotów

Zobacz adresy URL zablokowane przez robots.txt, meta robots lub dyrektywy X-Robots-Tag, takie jak „noindex” lub „nofollow”, a także kanoniczne i rel=”next” i rel=”prev”.

Generuj mapy stron XML

Szybko utwórz XML Sitemaps i Image XML Sitemaps, z zaawansowaną konfiguracją adresów URL do włączenia, ostatniej modyfikacji, priorytetu i częstotliwości zmian.

Integracje Google

Połącz się z interfejsami API Google Analytics, Search Console i PageSpeed Insights i pobierz dane o użytkownikach i wydajności dla wszystkich adresów URL w indeksie, aby uzyskać lepszy wgląd.

Skanuj strony w JavaScript

Renderuj strony internetowe za pomocą zintegrowanego Chromium WRS, aby raczkować dynamiczne, bogate w JavaScript strony internetowe i frameworki, takie jak Angular, React i Vue.js.

Wizualizuj architekturę strony

Oceniaj wewnętrzne linkowanie i strukturę adresów URL za pomocą interaktywnych diagramów indeksowania i wymuszania katalogów oraz wizualizacji witryn typu tree graph.

Zaplanuj audyty

Zaplanuj badania w wybranych odstępach czasu i automatycznie eksportuj dane o badaniach do dowolnej lokalizacji, w tym do arkuszy Google. Możesz też całkowicie zautomatyzować pracę z wiersza poleceń.

Porównuj wersje stron

Śledź postępy w kwestiach SEO i możliwości oraz zobacz, co się zmieniło pomiędzy kolejnymi indeksami. Porównaj środowiska inscenizacyjne z produkcyjnymi używając zaawansowanego mapowania URL.

Lista Raportów Screaming Frog Seo Spider

Screaming Frog SEO Spider to narzędzie do audytu SEO, zbudowane przez prawdziwych SEOwców z tysiącami użytkowników na całym świecie. Szybkie podsumowanie niektórych danych zebranych w crawlu obejmuje

  • Błędy – Błędy klienta, takie jak uszkodzone linki i błędy serwera (brak odpowiedzi, błędy klienta 4XX i serwera 5XX).
  • Przekierowania – stałe, tymczasowe, przekierowania JavaScript i odświeżanie meta.
  • Zablokowane adresy URL – Przeglądanie i kontrola adresów URL zablokowanych przez protokół robots.txt.
  • Zablokowane zasoby – Przeglądaj i kontroluj zablokowane zasoby w trybie renderowania.
  • Linki zewnętrzne – Zobacz wszystkie linki zewnętrzne, ich kody statusu i strony źródłowe.
  • Bezpieczeństwo – Odkryj niezabezpieczone strony, mieszane treści, niezabezpieczone formularze, brakujące nagłówki bezpieczeństwa i inne.
  • Problemy z adresami URL – Znaki inne niż ASCII, podkreślenia, wielkie litery, parametry lub długie adresy URL.
  • Duplikaty stron – Wykrywanie dokładnych i bliskich duplikatów stron przy użyciu zaawansowanych algorytmów.
  • Tytuły stron – Brakujące, zduplikowane, długie, krótkie lub wielokrotne elementy tytułu.
  • Meta Description – Brakujące, zduplikowane, długie, krótkie lub wielokrotne opisy.
  • Meta Keywords – Głównie dla wyszukiwarek referencyjnych lub regionalnych, ponieważ nie są one używane przez Google, Bing lub Yahoo.
  • Rozmiar pliku – Rozmiar adresów URL i obrazów.
  • Czas odpowiedzi – Zobacz jak długo strony odpowiadają na żądania.
  • Last-Modified Header – Zobacz datę ostatniej modyfikacji w nagłówku HTTP.
  • Crawl Depth – Zobacz jak głęboko dany adres URL znajduje się w architekturze strony.
  • Word Count – Analizuj liczbę słów na każdej stronie.
  • H1 – Brakujące, zduplikowane, długie, krótkie lub wielokrotne nagłówki.
  • H2 – Brak, duplikat, długie, krótkie lub wielokrotne nagłówki.
  • Meta Robots – Index, noindex, follow, nofollow, noarchive, nosnippet itp.
  • Meta Odświeżanie – Włącznie z docelową stroną i opóźnieniem.
  • Elementy kanoniczne – elementy linków i kanoniczne nagłówki HTTP.
  • X-Robots-Tag – Zobacz dyrektywy wydawane przez nagłówek HTTP.
  • Paginacja – Zobacz atrybuty rel=”next” i rel=”prev”.
  • Follow & Nofollow – Zobacz atrybuty meta nofollow i nofollow linków.
  • Redirect Chains – Odkryj łańcuchy i pętle przekierowań.
  • hreflang Attributes – Audytuj brakujące linki potwierdzające, niespójne i nieprawidłowe kody językowe, niekanoniczne hreflang i więcej.
  • Inlinks – Zobacz wszystkie strony linkujące do adresu URL, anchor text i czy link jest follow czy nofollow.
  • Outlinks – Zobacz wszystkie strony, do których linkuje URL, jak również zasoby.
  • Anchor Text – Wszystkie teksty linków. Alt text z obrazów z linkami.
  • Rendering – Badaj frameworki JavaScript, takie jak AngularJS i React, poprzez badanie renderowanego HTML po wykonaniu JavaScript.
  • AJAX – Wybierz, aby stosować się do przestarzałego schematu indeksowania AJAX Google.
  • Obrazy – Wszystkie adresy URL z linkiem do obrazu i wszystkie obrazy z danej strony. Obrazki powyżej 100kb, brak tekstu alt, tekst alt powyżej 100 znaków.
  • Przełącznik User-Agent – indeksowanie jako Googlebot, Bingbot, Yahoo! Slurp, mobilni user-agenci lub własne UA.
  • Własne nagłówki HTTP – Dostarczaj dowolne wartości nagłówków w żądaniu, od Accept-Language do cookie.
  • Niestandardowe wyszukiwanie kodu źródłowego – Znajdź wszystko, co chcesz w kodzie źródłowym witryny! Czy jest to kod Google Analytics, konkretny tekst, czy kod itp.
  • Niestandardowa ekstrakcja – wyskrob dowolne dane z HTML adresu URL za pomocą XPath, selektorów CSS Path lub regex.
  • Integracja z Google Analytics – Połącz się z Google Analytics API i pobieraj dane o użytkownikach i konwersji bezpośrednio podczas indeksowania.
  • Integracja z Google Search Console – Połącz się z interfejsem API Google Search Analytics i URL Inspection i zbieraj dane o wydajności i stanie indeksu w masie.
  • Integracja z PageSpeed Insights – Połącz się z interfejsem API PSI, aby uzyskać metryki Lighthouse, możliwości szybkości, diagnostykę i dane Chrome User Experience Report (CrUX) w skali.
  • Metryki linków zewnętrznych – Przeciągnij metryki linków zewnętrznych z interfejsów API Majestic, Ahrefs oraz Moz do crawlera w celu przeprowadzenia audytu treści lub profilowania linków.
  • Generowanie XML Sitemap – Tworzenie sitemapy XML oraz sitemapy obrazu przy użyciu pająka SEO.
  • Niestandardowy robots.txt – Pobierz, edytuj i przetestuj robots.txt witryny przy użyciu nowego niestandardowego robots.txt.
  • Renderowane zrzuty ekranu – Pobieraj, przeglądaj i analizuj renderowane strony, które zostały przeczesane.
  • Store & View HTML & Rendered HTML – Niezbędne do analizy DOM.
  • AMP Crawling & Validation – Wypełniaj adresy URL AMP i waliduj je, używając oficjalnego zintegrowanego walidatora AMP.
  • Analiza XML Sitemap – przeszukuj XML Sitemap niezależnie lub w ramach przeszukiwania, aby znaleźć brakujące, nieindeksowalne i osierocone strony.
  • Wizualizacje – Analizuj wewnętrzne linkowanie i strukturę adresów URL witryny, korzystając z diagramów i wykresów drzewa indeksowania i drzewa katalogowego.
  • Dane strukturalne i walidacja – Wyodrębnij i sprawdź dane strukturalne pod kątem specyfikacji Schema.org i funkcji wyszukiwania Google.
  • Pisownia i gramatyka – Sprawdź pisownię i gramatykę swojej strony w ponad 25 różnych językach.
  • Porównanie crawli – Porównaj dane crawli, aby zobaczyć zmiany w problemach i możliwościach, aby śledzić postępy w technicznym SEO. Porównaj strukturę witryny, wykryj zmiany w kluczowych elementach i metrykach oraz użyj mapowania adresów URL, aby porównać witryny testowe z produkcyjnymi.

Opublikowano

w

przez

Tagi: