Filtry wyszukiwarek: lista, opis. Jak działają filtry wyszukiwarek?

Wyszukiwarki ponoszą ogromną odpowiedzialność za dostarczenie użytkownikom Internetu informacji w pełni odpowiadających ich prośbom. Jednak wraz z upływem czasu liczba stron zaczęła wzrastać wraz z tempem postępu geometrycznego. Nie wszystkie z nich mają wysokiej jakości i przydatne treści, a niektóre zasoby są tworzone wyłącznie dla zysku. W związku z tym stworzono filtry dla wyszukiwarek, które obniżają pozycję witryny podczas wydawania lub blokowania zasobu.


Cechy pracy filtrów

Przede wszystkim musisz zrozumieć, jak działają filtry wyszukiwarek. Ogólnie rzecz biorąc, wyszukiwarki nakładają sankcje w kilku przypadkach:
  • Teksty i mikrodruk. Filtry wyszukiwarek działają, gdy witryna wykrywa dużą ilość spamu (spamowanie tekstu można sprawdzić za pomocą programów, aby zweryfikować wyjątkowość tekstu). Negatywny wpływ na jakość zasobów ma nadmierna optymalizacja, a także nadmiar kluczowych żądań w strukturze tekstu (nagłówki, napisy itp.).
  • Masa wzorcowa. Ze względu na nienaturalnie szybki wzrost masy referencyjnej (w szczególności zewnętrznej) zasób może podlegać filtrom. Wpływa również negatywnie na mechanizm wyszukiwania spamu w zakotwiczeniu, nadmierne przekierowywanie i manipulowanie linkami. Na przykład odpływ lub pierścienie referencyjne.
  • Czynniki behawioralne. Pod filtrami wyszukiwarek znajduje się również zestaw czynników behawioralnych i umieszczaniestrony niewidocznych elementów, z którymi użytkownik wchodzi w interakcję, ale nie podejrzewa. Nie można przekierować użytkowników do witryny, która nie spełnia ich wymagań.
  • Reklama. Nie najmniej ważną rolę w pojawieniu się sankcji stanowi strona z treścią reklamową. Reklamy powinny być obsesyjne lub nadmierne. Co więcej, wyszukiwarki mogą obniżyć problem z witryną, która ma mobilne wersje "tam" agresywnych reklam, takich jak subskrypcje lub kliknięcia. Istnieją również filtry, które ograniczają aktywność stron, które zostały oznaczone przez ponad 18 treści
  • Identyczne fragmenty. Jeśli te same informacje dla poszczególnych linków tej samej witryny pojawiają się obok linku do wyszukiwania, może to być powodem nałożenia sankcji na witrynę. Tak jest często w przypadku sklepów internetowych, które mają szeroki asortyment towarów tego samego typu.
  • Filie. Filtry wyszukiwarek są bardzo negatywne w stosunku do grup witryn należących do tej samej kampanii i stworzonych specjalnie w celu przeniesienia głównego zasobu na szczyt.



  • Dla każdego z tych przypadków tworzone są specjalne programy filtrujące lub algorytmy wyszukiwania, które starannie monitorują czystość optymalizacji, zapobiegając pojawianiu się niskiej jakości treści w wyszukiwarce. Każda wyszukiwarka ma swoje własne limity, które z powodzeniem radzą sobie z tym zadaniem.

    Główne filtry «Yandex»

    Na dużej przestrzeni Runet «Yandex» był i pozostaje główną wyszukiwarką. Każdego roku zwiększa wymagania dla stron i tworzycoraz więcej nowych filtrów. Początkujący webmasterzy boją się poddać surowym sankcjom tej wyszukiwarki, więc aby skutecznie promować swój zasób, trzeba znać "wroga w twarz", to znaczy mieć wyobrażenie o głównych filtrach wyszukiwarki "Yandex".
  • AGS "Yandex", według opinii internetowych sprzedawców, jest uważany za najbardziej sztywny filtr, ponieważ w pewnym momencie skutecznie zablokował nie sto zasobów. Jego główna działalność ma na celu zwalczanie witryn, które sprzedają linki i zwiększają nielegalną pozycję innych zasobów, chociaż same nie mają użytecznych informacji.
  • "Filtr Nepot" został utworzony zgodnie z modelem AGS. Jednak jego zadanie jest węższe: zablokowane są tylko te zasoby, które sprzedają link. Filtr definiuje witrynę, która jest zaangażowana w nieuprawnione działanie i narzuca ograniczenia, które wykorzystują wagę referencyjną promowanego zasobu.
  • "Jesteś ostatni". Ten filtr o bezpretensjonalnej nazwie ma na celu jedynie obniżenie pozycji witryn o nieunikatowej treści. Jednak nie jest to powód, aby go ignorować. Najczęściej podlegają one sankcjom, w których wyjątkowość jest niższa niż 92%.
  • "Nowa domena". Nie jest to raczej filtr, ale rodzaj ograniczenia, który nie pozwala nowo utworzonemu zasobowi zajmować czołowych pozycji.
  • "Jesteś spamem". Filtr śledzenia spamu ściśle monitoruje jakość treści w witrynie, a jeśli tekst zostanie ponownie zoptymalizowany, pozycja zasobu spada na emisję. Ważne jest, aby zrozumieć, że duża liczba kluczowych zapytań nie gwarantuje, że strona zajmie dobre pierwsze miejsce.Każda informacja powinna być przede wszystkim przydatna dla użytkownika, a dopiero potem spełniać wymagania robotów poszukiwawczych. Jest mało prawdopodobne, aby użytkownik znalazł chęć przeglądania arkusza tekstu, gdzie bezsensowna "szansa" w praktycznie każdym zdaniu zawiera kluczowe zapytanie, ale brakuje mu niezbędnych informacji.
  • "Partner". Yandex ściśle śledzi kampanie, które starają się promować swoje podstawowe zasoby poprzez tworzenie dodatkowych stron i łączenie ich. Jeśli takie witryny mają unikalne i użyteczne informacje, będą miały prawo do życia, ale jeśli treść jest tworzona dla dobra treści, to zasoby mogą być łatwo zablokowane.
  • "Przekierowanie". Ten filtr aktywnie walczy z drzwiami, czyli z witrynami przekierowującymi użytkowników do zasobu, którego nie szukają.
  • "Dorosły". Nakłada ograniczenia na zasoby z treściami "tylko dla dorosłych".
  • "Czynniki behawioralne". Filtr śledzi zachowanie użytkowników, którzy prowadzą link do witryny. Liczba błędów, głębokość i czas trwania przeglądu treści, które są uważane za główne wskaźniki użyteczności, są ściśle ustalone.
  • "Reklama agresywna". W ciągu ostatnich kilku lat Yandex zaczął aktywnie walczyć z obsesyjną i agresywną reklamą, która przeszkadza w oglądaniu treści.

  • Główne filtry Google'a

    Po wyszukiwarce Google Yandex wyszukiwarka Google zajęła drugie miejsce. W związku z tym jego filtry nie są pozostawione bez opieki przez webmastera. Najczęściej spotykane są:
  • "Duplikowanetreść ". Stworzony specjalnie w celu nałożenia sankcji na powtarzalne treści. Filtr zmniejsza pozycję tych zasobów, które umieszczają na swoich stronach nieunikalne treści, które są wielokrotnie powtarzane.
  • Sandbox. Ten filtr reguluje popularność witryny za pomocą zapytań o wysokiej częstotliwości, zwalczając spam i wątpliwą zawartość.
  • "Wzrost liczby referencji". Jeśli masa referencyjna zaczyna szybko rosnąć w zasobach, zmniejsza emisję.
  • Google Bombing. Ten filtr nakłada sankcje na zasób, który ma nadmiar kluczowych żądań do kotwicy linków.
  • "- 30". Takie fajne, można nawet powiedzieć, syberyjskie imię, ma filtr, który walczy z licznymi spamami. W zakresie swoich kompetencji, oprócz standardowych wiadomości-śmieci, obejmuje przekierowania i blokowanie drzwi.
  • "Sukcesja". Dla wyszukiwarki Rosji "Gogla" ważne jest, aby zasób odnosił się do stron bliskich tematowi. Jeśli witryna podnosi swoją pozycję, ale odniesienia do niej są zasobami dalece odbiegającymi od głównych tematów, to ten filtr zaczyna działać.
  • "Prędkość ładowania". W przeciwieństwie do Yandex, Google kontroluje prędkość pobierania. Jeśli po przejściu z wyszukiwarki do zasobu, powoli ładuje się i powtarza się wielokrotnie, to witryna traci swoje pozycje.
  • "Wyniki uzupełniające". Na niektórych stronach witryny, które nie zawierają unikatowych informacji lub nie mają wewnętrznych linków, wyszukiwarka może nałożyć filtr. W takim przypadku zasób z główną treścią nie traci swojej pozycji.
  • "Wymianalinki ". Gdy tylko epopeja zaczęła tworzyć witryny, popularne były zasoby do wzajemnej wymiany linków. Teraz, jeśli projekt nagle zaczyna aktywnie rekrutować masę odniesienia, filtr obniża jego pozycję.
  • "Trast Rank". Lub, mówiąc wprost, "poziom zaufania". Głównym celem filtra jest określenie, jak renomowany jest projekt. W związku z tym im bardziej autorytatywny, tym wyższa jego pozycja. Wpływ na to ma kilka czynników: jakość linków i ich łączna waga, ilość treści, wiek nazwy domeny i przekierowanie stron zasobu.
  • "Wynik +". Lub filtr dla dodatkowych wyników. Jeśli system nagle uzna, że ​​projekt jest podobny do setek innych i nie zawiera niczego nowego, to strony witryny należą do dodatkowego indeksu, ale nie do głównego.
  • AGS

    Najbardziej aktualne filtry wyszukiwarek są wymienione powyżej. Jednak niektóre z nich należy rozważyć bardziej szczegółowo. Na początek zwróć uwagę na najstraszniejszy "dyktator" Runet - AGS "Yandex". Ten filtr został stworzony specjalnie w celu przeciwdziałania niskiej jakości treści w Internecie. Nazwa ta może być używana łącznie z cyframi "17", "30" lub "40", które mówią o wersjach programu. Pod sankcją tego filtra są witryny, które mają źródłowy link SEO. Negatywny wpływ na pozycję strony ma nieciekawe i nietypowe treści, które powodują dużą liczbę błędów użytkowników. Dub, agresywna reklama, drzwi, przekierowania, maskowanie. Ponadto filtr dokładnie monitoruje funkcjonalność projektów. Jeśli strona nie jest dobraproblemy z projektowaniem lub pobieraniem, może także znacznie zmniejszyć jego pozycję. Aby ustalić, czy projekt trafił na filtr AGS, ważne jest, aby śledzić proces indeksowania i poziom obecności. Kiedy filtr rozpoczyna swoją czarną działalność, nowe strony nie są indeksowane przez wyszukiwarkę, a stare, które podlegają sankcjom, całkowicie znikają z indeksu. Aby przywrócić poprzednie pozycje, musisz stworzyć prawdziwe arcydzieło z zasobu, zaprojektowane w celu zaspokojenia potrzeb użytkowników. Aby to zrobić, musisz dostosować specyfikacje do wymagań wyszukiwarki. Oznacza to zakaz indeksowania zduplikowanych stron, usuwanie linków seo, ułatwianie nawigacji i wyświetlanie reklam poprzez usunięcie wszystkich agresywnych mediów. Użytkownicy muszą szybko znajdować informacje, które mogą ich zainteresować, a te informacje muszą być wysokiej jakości, nowe, przydatne i łatwe do zauważenia. Treść strony powinna być stale aktualizowana o nowe artykuły. Tylko wtedy, gdy projekt spełnia wymagania wyszukiwarek, możesz skontaktować się z działem wsparcia Yandex, aby usunąć filtry.

    "Pingwin"

    Ale nie tylko sankcje "Yandex" są straszne, filtry wyszukiwarki Google również muszą zwracać uwagę. Jeśli AGS podąża za głównymi cechami, które determinują jakość projektu, wówczas kara "Penguin" wymusza sztucznie zwiększanie czynników behawioralnych. Filtr "Penguin" został stworzony specjalnie w celu wykluczenia manipulacyjnego budowania linków podczas optymalizacji strony internetowej.
    ​​Umieszczanie linków spamowych na forach i blogach,zakup linków wstecznych, nadwyżka kotew seo, tworzenie niewidocznych linków na stronach projektu - wszystko to jest powodem nałożenia sankcji. Obejmując filtr Penguin, strona zaczyna drastycznie tracić swoją pozycję, zmniejsza frekwencję, a indeksowanie jest znacznie wolniejsze niż zwykle. Aby uniknąć smutnego losu, musisz usunąć wszystkie słabe linki i zmienić strategię promocji. Bardzo często witryna podlega sankcjom nie jednego filtra. Razem z "Pingwinem" Panda może wejść do webmastera. To jest kolejny filtr wyszukiwania Google. Jeśli witryna publikuje materiał o wyjątkowości poniżej 90%, możesz mieć pewność, że dany zasób znajduje się pod tymi dwoma "przeniesieniami".

    "Panda"

    Filtr "Panda" odpowiada za jakość strony internetowej jako całości. Nieodpowiednie projekty tracą dużo ruchu, aw niektórych przypadkach nie są całkowicie wyłączone z wyszukiwania. Jakość witryn jest oceniana zgodnie z następującymi cechami:
  • Treść. Jakość treści decyduje nie tylko o pracy, która skanuje ją pod kątem wyjątkowości i użyteczności, ale także oceniających - poświadczenia, niezależne oceny treści wyświetlania. Ponadto informacja wpływa na zadowolenie użytkownika. Znajduje to odzwierciedlenie w głębi widoku i czasu spędzanego na stronie. Nie można duplikować ani jawnie kradzieży informacji (to znaczy z niskim stopniem wyjątkowości).
  • Właściciele i użytkownicy. Wszystko, co jest na stronie, a sam projekt musi najpierw skupić się na użytkowniku. Oznacza to, że powinien istnieć dobry projekt, wygodny i zrozumiały interfejs,co najmniej niepoprawna i obsesyjna reklama. Witryna może otrzymać karę, jeśli jednostki reklamowe znajdują się u góry strony, a treść jest poniżej. Ukarane również nieczytelne teksty.
  • Podobnie jak w innych przypadkach, jeśli strona zaczyna drastycznie tracić swoją pozycję i ruch, podczas gdy strony indeksowe wypadają, wysokie prawdopodobieństwo, że projekt jest objęty filtrem Panda, jest wysokie. Aby pozbyć się ograniczeń wyszukiwarki, musisz zmienić strategię optymalizacji, poprawić jakość materiałów i funkcjonalność strony. W tym wydaniu pomogą następujące manipulacje:
  • Audyt techniczny. Musisz upewnić się, że strona działa poprawnie, ładuje się dobrze, nie ma uszkodzonych linków.
  • Jakość. Ponownie sprawdź materiały zasobu ze względu na wyjątkowość i jakość. Wszystkie materiały z pytaniami do zastąpienia.
  • Czystość jest kluczem do sukcesu. Jeśli istnieją strony bez treści lub małych akapitów tekstów, powinny one zostać usunięte, uzupełnione lub zastąpione. To znaczy, że musisz oczyścić, pozbywając się niepotrzebnych fragmentów aktywności webmasterów.
  • Regularność. Witryna powinna być stale aktualizowana. Co najmniej raz w tygodniu musisz dodawać nowe posty.
  • Baden-Baden

    W 2017 r. Pojawiła się aktualizacja filtra wyszukiwarki Yandex "Baden-Baden", która spowodowała niewiarygodne poruszenie wśród webmasterów. Ktoś argumentował, że ten algorytm wyszukiwania zastosowałby surowe sankcje do zasobów, które przynajmniej wskazywałyby na spam, i ktoś spokojnie stwierdził, że nie jeststanie się rewolucją w optymalizacji SEO.
    Deweloperzy twierdzą, że znacznie ulepszyli algorytm, który "karze" ponownie zoptymalizowane strony. Chociaż nadal nie jest jasne, nowy Baden-Baden zastąpił zwykłe filtry lub jest częścią ogólnego algorytmu. Jeśli masz drugą opcję, webmasterom trudno będzie określić, które sankcje dostały. Baden-Baden boryka się z niską jakością treści, eliminując wyszukiwanie tekstów, w których występuje wiele kluczowych pytań. Jednak jego efekt rozciąga się nie na cały projekt, ale na osobny dokument (strona). Mówiąc najprościej, jeśli witryna ma jeden tekst niskiej jakości, wtedy tylko strona, na której się znajduje, zniknie z wyszukiwania, w innym zasobie zostaną zapisane jego pozycje i większa część ruchu. Ale nie relaksuj się. Za jednym filtrem może być wiele innych. Dlatego konieczne jest zwiększenie widoczności zasobów, przeglądanie wszystkich tekstów SEA w celu ponownej optymalizacji i usunięcie technologii, która ukrywa zawartość SEO przed wyszukiwarkami.

    On pulse

    Wymagania wyszukiwarek są takie same dla wszystkich stron i takie same kary za niepowodzenie. Jeśli projekt nagle zaczął tracić ruch i spadł w emisji, to zdecydowanie podlegał sankcjom wyszukiwarek. Aby utrzymać rękę na pulsie, musisz stale sprawdzać natężenie ruchu, a nie tylko ilość, ale także źródła. Dlatego każdy webmaster musi nauczyć się zarządzać filtrami wyszukiwania. Jak włączyć filtr wyszukiwania? To dość proste zadanie. Podczas rejestracji witryny wWebmaster otrzymuje spersonalizowaną wyszukiwarkę, która może monitorować zmiany zachodzące w jej projekcie (Yandex Webmaster lub Google Analytics). Przechodząc na tę stronę, należy otworzyć panel administracyjny, wybrać interesujący Cię obszar i otworzyć sekcję "Filtry". W większości przypadków wystarczy aktywować wbudowane limity, ale w niektórych przypadkach trzeba stworzyć własne osobiste ograniczenia.
    Dlaczego jest to konieczne? Na przykład, jeśli witryna należy do dużej firmy, istnieje duże prawdopodobieństwo, że pracownicy będą do niej przychodzić codziennie. I jeśli ta witryna ma czat lub forum, na którym mogą się ze sobą komunikować, logiczne jest założenie, że pracownicy będą szczęśliwi, że będą spędzać czas na stronie internetowej firmy. Nie są jednak docelowymi odbiorcami. Ale wyszukiwarka naprawia wszystkie odwiedziny. Aby logicznie myśleć o strategii optymalizacji, należy wykluczyć z raportów wyszukiwarek informacje o przejściu z lokalnej sieci firmy użytkowników. Istnieją niestandardowe filtry do tego celu. Mówiąc prosto, filtry dostosowane przez webmastera dają ci możliwość uzyskania tylko informacji, które będą potrzebne do promocji zasobu. Dotyczy to nie tylko konkretnych adresów IP, ale także skierowań z konkretnych katalogów, witryn i cech behawioralnych.

    Co wchodzi w równowagę?

    Filtry wyszukiwarek są ulepszane co roku. I tak jak każdego roku, webmasterzy ulepszają swoją optymalizację witryny. W tym samym czasie, nie wszystkie i nie zawsze idą długo ibezpiecznie i często starają się zredukować drogę do szczytu przy pomocy ryzykownych i zbrodniczych metod.
    W rzeczywistości filtry wyszukiwarek nie są tak straszne, wymagają dość zwykłych rzeczy:
  • Jakość treści.
  • Dyskretna reklama.
  • Brak materiałów zabronionych.
  • Przejrzysty interfejs i kompetentny postęp, polegający na naturalnym zwiększaniu masy referencyjnej i wewnętrznym łączeniu.
  • Rada

    Naturalnie, w ten sposób jest długa, potrzeba około sześciu miesięcy, aby strona znalazła się na szczycie głównych pytań kluczowych, ale jeśli już tam dotarł, jego pozycja będzie znacznie stabilniejsza niż tych, którzy wzięli to miejsce jest nieuczciwym sposobem. Dopiero na początku rozwoju epiki internetowej można było bezkarnie rozcieńczyć małe fragmenty tekstów kluczowymi pytaniami i szybko przejść do przodu w poszukiwaniu. Teraz wszystko się zmieniło. Wyszukiwarki koncentrują się na wypełnianiu wysokiej jakości zasobów. Priorytetem jest teraz oryginalna, autorska treść, która może udzielić wyczerpującej odpowiedzi na pytania użytkownika. Dlatego, jeśli nie ma pragnienia, aby stać się ofiarą sankcji, trzeba skupić się na rozwiązaniu tego konkretnego problemu i dopiero po wzięciu na siebie masy referencyjnej i przyciągnięciu gości.

    Powiązane publikacje