Computer und moderne Geräte

So entfernen Sie Ihre Seiten vorübergehend aus den Google-Suchergebnissen

Mit diesem Tool können Sie die Seiten Ihrer Website in den Google-Suchergebnissen vorübergehend blockieren. Lesen Sie, wie Sie Seiten aus der Google-Suche entfernen, die Ihnen nicht gehören.

Wichtige Notizen

So schließen Sie eine Seite vorübergehend aus den Google-Suchergebnissen aus

  1. Die URL muss auf eine Property verweisen, die Sie in der Search Console besitzen. Ist dies nicht der Fall, müssen Sie andere Anweisungen befolgen.
  2. Wechseln zu Tool zum Entfernen von URLs.
  3. Klicken Vorübergehend verstecken.
  4. Angeben relativer Pfad zum gewünschten Bild, zur gewünschten Seite oder zum gewünschten Verzeichnis. Berücksichtigen Sie dabei folgende Anforderungen:
    • Die Groß-/Kleinschreibung der Zeichen in der URL ist wichtig. Die URLs example.com/Stranitsa und example.com/stranitsa sind nicht identisch.
    • Der Pfad muss relativ zum Stammverzeichnis Ihrer Property in der Search Console sein.
    • Varianten mit http- und https-Präfixen sowie mit und ohne www-Subdomain bedeuten dasselbe. Wenn wir also über example.com/stranitsa sprechen, dann:
      • https://example.com/stranitsa ist nicht anders;
      • http://example.com/stranitsa ist nicht anders;
      • https://www.example.com/stranitsa ist nicht anders;
      • http://www.example.com/stranitsa ist nicht anders;
      • http://m.example.com/stranitsa ist anders. Subdomains m. und Verstärker. (wie auch alle anderen) machen URLs ungleich.
    • Um eine ganze Site auszublenden, geben Sie keinen Pfad an und wählen Sie im nächsten Schritt die Option aus Cache leeren und vorübergehend alle URLs ausblenden, die mit ... beginnen.
  5. Klicken Weitermachen.
  6. Wählen Sie die gewünschte Aktion aus der Liste unten aus.
  7. Klicken Senden Sie eine Anfrage. Die Bearbeitung kann bis zu einem Tag dauern. Wir übernehmen keine Garantie dafür, dass die Anfrage erfüllt wird. Überprüfen Sie den Status der Anfrage. Wenn es abgelehnt wurde, klicken Sie auf Mehr um weitere Details zu sehen.
  8. Senden Sie zusätzliche Anfragen, einschließlich aller URLs, die dieselbe Seite öffnen können, sowie Varianten der URL mit umgekehrter Groß-/Kleinschreibung, sofern Ihr Server diese unterstützt. Insbesondere können die folgenden URLs auf dieselbe Seite verweisen:
    • example.com/mypage
    • example.com/MyPage
    • example.com/page?1234
  9. Wenn Sie eine URL dauerhaft aus den Suchergebnissen entfernen möchten, siehe nächster Abschnitt.

Endgültig löschen

Mit dem URL Removal Tool können Sie nur Seiten entfernen auf Zeit. Wenn Sie Inhalte dauerhaft aus den Google-Suchergebnissen entfernen möchten, führen Sie zusätzliche Schritte aus:

  • Website-Inhalte löschen oder ändern(Bilder, Seiten, Verzeichnisse) und stellen Sie sicher, dass der Server den Fehlercode 404 (nicht gefunden) oder 410 (gelöscht) zurückgibt. Dateien, die nicht im HTML-Format vorliegen (z. B. PDF), müssen vollständig vom Server entfernt werden. Erfahren Sie mehr über HTTP-Statuscodes...
  • Blockieren Sie den Zugriff auf Inhalte Legen Sie beispielsweise ein Passwort fest.
  • Stoppen Sie das Crawlen der Seite Verwenden des Noindex-Meta-Tags. Diese Methode ist weniger zuverlässig als die anderen.

URL-Entfernung abbrechen

Wenn Sie die Seite in den Suchergebnissen wiederherstellen müssen, bevor die temporäre Sperre abläuft, öffnen Sie die Statusseite im Tool und klicken Sie auf Wieder aktivieren neben dem abgeschlossenen Antrag auf URL-Entfernung. Die Bearbeitung Ihrer Anfrage kann mehrere Tage dauern.

Verwendung des Tools für andere Zwecke

Das URL Removal Tool ist für die dringende Sperrung von Inhalten gedacht, beispielsweise in Fällen, in denen vertrauliche Daten versehentlich offengelegt werden. Die Verwendung dieses Tools für andere Zwecke hat negative Folgen für Ihre Website.

  • Verwenden Sie kein Werkzeug, um unerwünschte Elemente zu entfernen B. alte Seiten mit der Fehlermeldung 404. Wenn Sie die Struktur Ihrer Website geändert haben und einige der URLs im Google-Index veraltet sind, erkennen Crawler dies und crawlen sie erneut. Die alten Seiten werden nach und nach aktualisiert aus den Suchergebnissen ausgeschlossen werden. Es besteht keine Notwendigkeit, ein dringendes Update anzufordern.
  • Verwenden Sie das Tool nicht, um Crawling-Fehler aus Ihrem Search Console-Konto zu entfernen. Diese Funktion verhindert, dass Adressen in den Google-Suchergebnissen und nicht in Ihrem Google-Konto angezeigt werden. Sie müssen die URL nicht manuell entfernen. Mit der Zeit werden sie automatisch ausgeschlossen.
  • Verwenden Sie den URL-Entferner nicht, wenn Sie eine Website komplett neu gestalten. Wenn die Website Gegenstand manueller Maßnahmen ist oder von einem Vorbesitzer gekauft wurde, empfehlen wir Ihnen, eine Anfrage zur erneuten Überprüfung einzureichen. Teilen Sie uns mit, welche Änderungen Sie vorgenommen haben und auf welche Probleme Sie gestoßen sind.
  • Verwenden Sie kein Tool, um eine Website nach einem Hackerangriff zu „deaktivieren“. Wenn Ihre Website gehackt wurde und Sie Seiten mit Schadcode aus dem Index entfernen möchten, verwenden Sie das URL-Blockierungstool, um neue, vom Angreifer generierte URLs zu blockieren, z. B. http://www.example.com/cheap-cialis-kaufen -skq3w598.html. Wir empfehlen jedoch nicht, alle Seiten der Website oder die URLs zu blockieren, die in Zukunft indexiert werden müssen. Entfernen Sie stattdessen den Schadcode, damit Googlebots Ihre Website erneut crawlen können.
  • Verwenden Sie kein URL-Entfernungstool, um die richtige „Version“ Ihrer Website zu indizieren. Auf vielen Ressourcen sind dieselben Inhalte und Dateien unter unterschiedlichen URLs zu finden. Wenn Sie nicht möchten, dass Ihre Inhalte in den Suchergebnissen dupliziert werden, lesen Sie hier. Verwenden Sie kein Tool zum Entfernen von URLs, um unerwünschte Versionen einer URL zu blockieren. Dadurch wird nicht die bevorzugte Version der Seite gespeichert, sondern alle Versionen der URL (mit http- oder https-Präfixen und mit oder ohne www-Subdomain) entfernt.

War diese Information hilfreich?

Wie kann dieser Artikel verbessert werden?

Es gibt Situationen, in denen ein Geschäftsinhaber eine Seite aus der Google- oder Yandex-Suche entfernen muss. Manchmal gelangt eine Ressource versehentlich in die Suchergebnisse oder die Informationen darauf verlieren ihre Relevanz. Doch das Schlimmste ist, wenn Suchmaschinen Serviceseiten mit vertraulichen Kundendaten herausgeben.

Um solche Situationen zu vermeiden, müssen Sie wissen, wie Sie eine Seite oder einen Site-Abschnitt aus dem Index entfernen.

Je nach Suchmaschine gibt es hierfür mehrere Möglichkeiten. Werfen wir einen Blick auf die Vor- und Nachteile jeder Option.

Entscheiden Sie vor der Auswahl einer Methode:

  • Sie müssen den Zugriff auf die Seite nur von Suchmaschinen entfernen;
  • Es ist notwendig, den Zugriff absolut für alle zu entfernen.

Fehler 404

Wichtig! Dies ist die am einfachsten durchzuführende Methode. Es kann jedoch bis zu einem Monat dauern, bis Informationen aus den Suchergebnissen entfernt werden. Entfernt die Seite sowohl aus der Suchmaschine als auch aus der gesamten Website.

Bei der Suche nach bestimmten Informationen stößt der Benutzer regelmäßig auf die Fehlermeldung 404 – „Seite nicht gefunden“. Zu diesem Ergebnis führt die tatsächliche Entfernung der Site-Seite.

Dies geschieht durch Löschen der Seite im Verwaltungsbereich der Site. In der Sprache der Suchmaschinen ist der Server so konfiguriert, dass er für eine bestimmte URL den HTTP-Status „404 nicht gefunden“ bereitstellt. Beim nächsten Besuch des Suchroboters informiert ihn der Server über das Fehlen des Dokuments.

Danach erkennt die Suchmaschine, dass die Seite nicht mehr verfügbar ist und entfernt sie aus den Suchergebnissen, sodass Benutzer bei der Suche nicht auf die 404-Fehlerseite gelangen.

Diese Methode hat ihre eigenen Eigenschaften:

  • Einfachheit: Einstellungen erfolgen mit wenigen Klicks.
  • Die Seite verschwindet vollständig von der Website. Wenn Sie also nur vertrauliche Informationen vor der Veröffentlichung verbergen müssen, ist es besser, auf andere Methoden zurückzugreifen.
  • Wenn eingehende Links zu der Seite vorhanden sind, die Sie ausblenden möchten, ist es effizienter, eine 301-Weiterleitung einzurichten.
  • Nicht die Entfernung von der Website führt direkt dazu, dass die Seite aus der Suche verschwindet, sondern die anschließende Indizierung. Im Durchschnitt dauert es zwischen 1–2 Tagen und einem Monat, bis der Roboter die Ressource besucht und die Seite anpingt.

Wenn diese Option für einen Webmaster eine der einfachsten und bequemsten ist, ist eine 404-Fehlermeldung für einen Website-Besucher selten eine Freude. In einigen Fällen kann es dazu führen, dass der Client nicht mehr zu dieser Ressource zurückkehrt.

Um solche Konsequenzen zu vermeiden, versuchen Webmaster heute immer häufiger, eine Seite mit einem 404-Fehler kreativ zu gestalten oder dort Informationen und Vorschläge zu platzieren, die den Benutzer interessieren könnten. Eine solche Richtlinie macht die Website kundenfreundlicher und trägt zur Steigerung ihrer Beliebtheit bei.

Robots.txt

Wichtig! Diese Methode entfernt die Seite nicht aus der Suche, sondern blendet sie nur aus den Ergebnissen aus. Die Seite bleibt über andere Verkehrskanäle sichtbar.

Eine ziemlich gängige Methode, einzelne Objekte und ganze Abschnitte loszuwerden. Robot.txt bietet sowohl eine Erlaubnis als auch ein Verbot der Indizierung, daher ist es nicht verwunderlich, dass im Internet viele nützliche Anleitungen zum Thema Seitenlöschalgorithmen erstellt wurden, beispielsweise Devaka . Sie basieren jedoch auf einem Prinzip: der Verwendung der Disallow-Direktive.

Um zu verhindern, dass eine Seite von Suchmaschinen gecrawlt wird, müssen Sie Zugriff auf den Stammordner der Domain haben. Andernfalls müssen Sie Meta-Tags verwenden.

  • Benutzeragent: Hier wird der Name des Roboters eingegeben, auf den Sie die Sperre anwenden möchten (der Name kann aus der Scanner-Datenbank übernommen werden, aber wenn Sie die Seite in Zukunft für alle schließen möchten, dann verwenden Sie einfach „Benutzer“) -agent: *");
  • Disallow: Diese Anweisung gibt die betreffende Adresse direkt an.

Dieses Paar bildet einen Befehl in Bezug auf eine bestimmte URL. Bei Bedarf können mehrere Objekte einer Site in einer Datei gesperrt werden, die absolut unabhängig voneinander sind.

Nachdem Sie eine Seite oder einen Abschnitt über robots.txt geschlossen haben, müssen Sie auf die nächste Indizierung warten.

Hierbei ist zu beachten, dass es sich bei der Aktion in robots.txt für Suchmaschinen lediglich um eine Empfehlung handelt, an die sie sich nicht immer halten. Auch wenn diese Anweisung befolgt wird, erscheint die Ressource weiterhin in den Suchergebnissen, jedoch mit einem Hinweis zum Schließen über robots.txt.

Nur wenn sich der Status des Objekts in der Datei im Laufe der Zeit nicht ändert, entfernen die Suchmaschinen es aus ihrer Datenbank.

In jedem Fall bleiben gelöschte Objekte weiterhin sichtbar, wenn Sie externen Links folgen, sofern vorhanden.

Roboter-Meta-Tag

Wichtig! Diese Methode entfernt die Seite aus Suchmaschinen, die Seite bleibt jedoch über andere Verkehrskanäle sichtbar.

In gewisser Weise wird diese Option als Alternative zur vorherigen bezeichnet, nur dass hier die Arbeit im HTML-Code zwischen den Head-Tags erledigt wird:

<metaname="robots" content="noindex, nofollow" />

Nach Eingabe des Befehls müssen Sie auf die nächste Indizierung der Ressource warten, danach werden die Änderungen wirksam.

Warum ist diese Methode gut?

Mithilfe von Meta-Tags können Sie die URL sowohl für eine Seite als auch für die gesamte Liste auf einmal von Google oder Yandex entfernen. Dadurch bleibt die robots.txt-Datei einfach. Diese Option wird Anfängern empfohlen, die Schritt für Schritt arbeiten und neue Seiten der Website erstellen.

Interessante Tatsache! Mit dieser Methode können Sie eine Seite aus einer Suchmaschine entfernen und sie in den anderen belassen.

Das Schließen einer Seite über Mega-Tags ist die beste Möglichkeit, eine Seite aus dem Google-Index zu entfernen und sie bei Bedarf in Yandex aktiv zu lassen. Es wird auch empfohlen, diese Methode in Situationen zu verwenden, in denen Sie eine Seite aus dem Index entfernen müssen, während ihre Informationen für den internen Gebrauch auf der Website verbleiben.

Beispiel

Schließt die Seite nur für Google PS

Schließt die Seite nur für Yandex PS

Der unbestreitbare Vorteil von Meta-Tags gegenüber robots.txt ist die Möglichkeit, die Seite von der Indexierung auszuschließen, selbst wenn externe Links vorhanden sind. Verwenden Sie dazu einfach das Noindex-Mega-Tag.

Einer der Nachteile der Verwendung von Meta-Tags: Wenn Sie nicht über Wordpress verfügen, kann es zu Problemen bei der Implementierung kommen. In Wordpress wird das Problem durch die Installation des Yoast SEO-Plugins gelöst, bei dem jede Seite mit einem Meta-Tag geschlossen werden kann.

301-Weiterleitung

Wichtig! Die Implementierung wird dazu führen, dass der Inhalt der Seite nicht mehr für absolut alle Besucher, einschließlich Websitebesitzer, verfügbar ist.

Der Kern dieser Methode besteht darin, dass ein Benutzer, wenn er nach einer Seite sucht, die nicht mehr existiert, von der Website automatisch zu einer anderen URL weitergeleitet wird.

Diese Option ist für einen Webmaster nicht die bequemste und einfachste, da der Arbeitsalgorithmus je nach CMS unterschiedlich ist. Aus Benutzersicht ist dies jedoch der bequemste Ausweg, viel bequemer und angenehmer als die 404-Fehlermeldung.

Auf Wunsch kann die Weiterleitung Marketing-Tricks untergeordnet werden und den Benutzer nicht nur auf die Hauptseite der Website, sondern auf einen bestimmten Abschnitt weiterleiten, den die Verwaltung bewerben oder aktiv verkaufen möchte.

Diese Methode wird häufig verwendet, wenn eine große Anzahl veralteter Seiten verarbeitet werden muss oder wenn die Ressourcenstruktur vollständig geändert wird. Schließlich können Sie mit einer Weiterleitung Ihre Positionen in den Rankings von Suchmaschinen beibehalten, sodass Ihre Bemühungen, die Website zu bewerben, nicht umsonst sind.

Die Neuindizierung in Suchmaschinen dauert je nach Website durchschnittlich 1-3 Tage, aber erst nach dem Besuch des Roboters werden die Änderungen für Besucher der Ressource wirksam.

Lesen Sie mehr über das Einrichten von 301-Weiterleitungen auf der Devaka-Website.

Manuelle Entfernung über das Webmaster-Panel

Wichtig! Die Methode beschleunigt das Entfernen von Informationen aus der Suchmaschine.

Eine schnelle Möglichkeit (dauert 8 bis 48 Stunden), eine Website oder Seite aus Yandex oder einer anderen Suchmaschine zu entfernen. Jedes System hat in diesem Fall seinen eigenen Algorithmus, aber eines haben sie gemeinsam: die Notwendigkeit, zusätzliche Methoden zum Schließen der Seite zu verwenden. Es kann ein 404-Fehler, robots.txt, ein Mega-Tag Ihrer Wahl sein, aber ohne eine solche Vorbereitung geht es nicht.

Sie können eine Website über die Google Search Console aus der Google-Suche entfernen:

  1. Melden Sie sich in der Symbolleiste an.
  2. Wählen Sie die gewünschte Ressource aus.
  3. Schauen Sie dann im Unterabschnitt „Google Index“ nach „URLs entfernen“.
  4. Hier erstellen wir einen neuen Löschantrag, geben dann im sich öffnenden Fenster den gewünschten Link ein und klicken auf „Senden“.

In einer separaten Liste können Sie den Status der Anfrage überwachen. Normalerweise dauert es zwischen 2 und 3 Stunden bis zu einem Tag, bis es aus dem Google-Index entfernt wird. Auf Wunsch können Sie auf diesem Weg eine unbegrenzte Anzahl an Seiten zur Deaktivierung versenden.

Das System bietet seinen Benutzern außerdem die Funktion des vorübergehenden (bis zu 90 Tage) Einfrierens von Seiten.

Den gleichen Weg gehen wir im Yandex Webmaster. Die Anweisung dieser Suchmaschine warnt sofort vor der Notwendigkeit eines vorläufigen Verbots der Indizierung durch robots.txt oder Meta-Tags.

Danach prüft das System das Objekt über einen längeren Zeitraum, um festzustellen, ob sich sein Status geändert hat. Wenn die Seite immer noch nicht verfügbar ist, löscht der Roboter sie aus seiner Datenbank.
Um diesen Vorgang zu beschleunigen, gehen Sie unmittelbar nach dem Vornehmen von Änderungen an robots.txt oder Mega-Tags zu Ihrem Yandex-Konto. Webmaster.

Geben Sie hier im Abschnitt „URL löschen“ die Adresse der Seite ein und bestätigen Sie deren Löschung. Pro Tag können maximal 500 Objekte deaktiviert werden.

Das Entfernen einer URL aus Yandex dauert länger als bei Google: von mehreren Stunden bis zu mehreren Tagen.

Das Tool zum Entfernen von URLs eignet sich hervorragend für Situationen, in denen Sie dringend Seiten mit vertraulichen Informationen oder Informationen entfernen müssen, die bei einem Hackerangriff auf eine Website hinzugefügt wurden.

Entfernen der gesamten Website

Manchmal gibt es Situationen, in denen es notwendig ist, nicht nur einige Seiten, sondern die gesamte Ressource aus den Suchergebnissen zu entfernen.

Sie können dies mit allen oben genannten Methoden + dem Google- oder Yandex-Webmaster-Panel tun, Sie müssen lediglich Änderungen an den Details vornehmen. Durch das Löschen der gesamten Ressource wird die URL durch einen Domänennamen ersetzt.

Schließen Sie mit dem Login und Passwort auf dem Server ab. Dies ist die beste Lösung für Websites in der Entwicklung und für Testversionen. Der Aktionsalgorithmus hängt in diesem Fall vom CMS ab, auf dessen Grundlage die Ressource erstellt wurde.

Damit diese Methode funktioniert, weisen Sie die Entwickler an, den Zugriff auf die Website nur über Login und Passwort einzurichten.

Gesamt

Das Löschen einer Seite oder sogar einer gesamten Site ist für den Eigentümer oder Administrator kein Problem. Unter den vorhandenen Methoden kann jeder die für ihn bequemste Option wählen. Wenn es jedoch darum geht, in kürzester Zeit ein Ergebnis zu erzielen, ist es besser, mehrere Methoden gleichzeitig anzuwenden.

Haben Sie irgendwelche Fragen? Unser Team hilft Ihnen bei der Lösung Ihres Problems. Hinterlassen Sie Ihre Frage im .

Guten Tag! Im heutigen Beitrag geht es um einen wunden Punkt für die meisten unerfahrenen Website-Ersteller. Ich musste in den Kommentaren sehr oft die gleiche Frage beantworten - So entfernen Sie Seiten aus der Suche, die früher indiziert wurden, aber aufgrund von Umständen entfernt wurden und nicht mehr existieren, sich aber weiterhin im Index von Suchmaschinen befinden. Oder es gibt bei der Suche Seiten, deren Indexierung verboten ist.

Man kann in den Kommentaren nicht wirklich umdrehen, daher habe ich mich nach der nächsten Frage entschieden, diesem Thema besondere Aufmerksamkeit zu widmen. Lassen Sie uns zunächst herausfinden, wie solche Seiten in der Suche erscheinen könnten. Ich werde Beispiele geben, die auf meiner eigenen Erfahrung basieren. Wenn ich also etwas vergesse, füge es bitte hinzu.

Warum geschlossene und gelöschte Seiten in der Suche sind

Es kann mehrere Gründe geben, und ich werde versuchen, einige davon in Form einer kleinen Liste mit Erläuterungen hervorzuheben. Bevor ich anfange, erkläre ich, was ich unter „zusätzlichen“ (geschlossenen) Seiten verstehe: Dienst- oder andere Seiten, deren Indizierung durch Regeln oder ein Meta-Tag verboten ist.

Nicht vorhandene Seiten werden aus folgenden Gründen durchsucht:

  • Das Banalste ist, dass die Seite gelöscht wurde und nicht mehr existiert.
  • Manuelle Bearbeitung der Adresse einer Webseite, wodurch ein bereits in der Suche befindliches Dokument nicht mehr angezeigt werden kann. Besonderes Augenmerk sollte auf diesen Punkt gelegt werden, wenn Anfänger aufgrund ihrer geringen Kenntnisse der Funktionsweise der Ressource ablehnend gegenüberstehen.
  • Wenn ich die Überlegungen zur Struktur fortsetze, möchte ich Sie daran erinnern, dass WordPress nach der Installation auf einem Hosting standardmäßig nicht den Anforderungen der internen Optimierung entspricht und aus alphanumerischen Kennungen besteht. Es fällt auf die CNC, dabei erscheinen viele nicht funktionierende Adressen, die noch lange im Index der Suchmaschinen verbleiben. Wenden Sie daher die Grundregel an: Wenn Sie sich für eine Änderung der Struktur entscheiden, verwenden Sie 301-Weiterleitungen von alten Adressen zu neuen. Die ideale Option besteht darin, alle Site-Einstellungen VOR dem Öffnen abzuschließen. Ein lokaler Server kann hierfür hilfreich sein.
  • Der Server ist nicht richtig konfiguriert. Eine nicht vorhandene Seite sollte den Fehlercode 404 oder 3xx zurückgeben.

Unter den folgenden Bedingungen werden zusätzliche Seiten im Index angezeigt:

  • Die Seiten sind, wie es Ihnen scheint, geschlossen, aber tatsächlich sind sie für Suchroboter geöffnet und werden ohne Einschränkungen durchsucht (oder robots.txt ist falsch geschrieben). Um die Zugriffsrechte des PS auf die Seiten zu überprüfen, verwenden Sie die entsprechenden Tools für.
  • Sie wurden indiziert, bevor sie mit den verfügbaren Methoden geschlossen wurden.
  • Auf diese Seiten verweisen andere Websites oder interne Seiten innerhalb derselben Domain.

Also haben wir die Gründe herausgefunden. Es ist zu beachten, dass nach Beseitigung der Ursache möglicherweise nicht vorhandene oder zusätzliche Seiten noch lange in der Suchbasis verbleiben – alles hängt von der Häufigkeit des Besuchs der Website durch den Roboter ab.

So entfernen Sie eine Seite aus der Yandex-Suchmaschine

Für URL aus Yandex entfernen Folgen Sie einfach dem Link und geben Sie die Adresse der Seite, die Sie aus den Suchergebnissen entfernen möchten, in das Textfeld des Formulars ein.

Die Hauptvoraussetzung für eine erfolgreiche Löschanfrage:

  • Die Seite muss durch Robots-Regeln oder das Noindex-Meta-Tag auf dieser Seite für die Indizierung gesperrt sein – wenn die Seite existiert, aber nicht an den Suchergebnissen teilnehmen soll;
  • Beim Versuch, auf die Seite zuzugreifen, sollte der Server einen 404-Fehler zurückgeben – wenn die Seite gelöscht wurde und nicht mehr existiert.

Wenn der Roboter das nächste Mal die Website crawlt, werden die Löschanfragen erfüllt und die Seiten verschwinden aus den Suchergebnissen.

So entfernen Sie eine Seite aus der Google-Suchmaschine

Um Seiten zu löschen, gehen Sie genauso vor. Öffnen Sie die Webmaster-Tools, suchen Sie in der Dropdown-Liste „Optimierung“ nach dem Element „URLs entfernen“ und folgen Sie dem Link.

Vor uns liegt ein spezielles Formular, mit dem wir einen neuen Löschantrag erstellen:

Klicken Sie auf „Weiter“ und befolgen Sie die weiteren Anweisungen, um den Grund für die Löschung auszuwählen. Meiner Meinung nach ist das Wort „Vernunft“ dafür nicht ganz das richtige Wort, aber darum geht es nicht...

Folgende Optionen stehen uns zur Verfügung:

  • Löschen einer Seite aus den Google-Suchergebnissen und aus dem Suchmaschinen-Cache;
  • Nur die Seite aus dem Cache löschen;
  • Löschen eines Verzeichnisses mit allen seinen Adressen.

Eine sehr praktische Funktion zum Löschen eines gesamten Verzeichnisses, wenn Sie beispielsweise mehrere Seiten einer Kategorie löschen müssen. Sie können den Status der Löschanforderung auf derselben Seite mit Tools mit der Möglichkeit zum Abbrechen überwachen. Für einen Erfolg Seiten von Google löschen Es gelten die gleichen Bedingungen wie für . Die Anfrage wird in der Regel innerhalb kürzester Zeit erledigt und die Seite verschwindet sofort aus den Suchergebnissen.

Viele Webmaster stehen früher oder später vor der Notwendigkeit, Seiten einer Website aus der Suchmaschine zu entfernen, die versehentlich dorthin gelangt sind, nicht mehr relevant sind, Duplikate sind oder vertrauliche Kundeninformationen enthalten (die Gründe können unterschiedlich sein). Ein anschauliches Beispiel dafür ist die ohnehin schon aufsehenerregende Situation bei Megafon, deren SMS-Benutzer von Yandex indiziert wurden, die Situation bei Online-Shops, als es möglich war, bei der Suche persönliche Daten von Kunden und Details ihrer Bestellungen zu finden, die Situation bei Banken und Transportunternehmen usw.

Auf die Gründe für die oben beschriebenen Vorfälle gehen wir in diesem Artikel nicht näher ein, sondern überlegen, wie man unnötige Seiten aus Yandex oder Google entfernt. Es wird davon ausgegangen, dass sie zu Ihrer Site gehören, andernfalls müssen Sie sich mit einer entsprechenden Anfrage an den Eigentümer der gewünschten Ressource wenden.

5 Möglichkeiten, Seiten aus den Suchergebnissen zu entfernen

1. 404-Fehler

Eine der einfachsten Möglichkeiten, eine Seite aus der Suche zu entfernen, besteht darin, sie von Ihrer Website zu entfernen, mit der Bedingung, dass der Server später beim Zugriff auf die alte Adresse einen 404-Fehler ausgibt, was bedeutet, dass die Seite nicht existiert.

HTTP/1.1 404 Nicht gefunden

In diesem Fall müssen Sie warten, bis der Roboter die Seite erneut besucht. Dies dauert mitunter sehr lange, je nachdem, wie es in den Index gelangt ist.

Wenn die Seite beim Entfernen aus der Suche auf der Website vorhanden sein muss, ist diese Methode nicht geeignet. Es ist besser, die anderen unten aufgeführten zu verwenden.

2. Robots.txt-Datei

Eine sehr beliebte Methode, um die Indexierung ganzer Abschnitte oder einzelner Seiten zu blockieren, ist die Verwendung der Root-Robots.txt-Datei. Es gibt viele Handbücher zur richtigen Konfiguration dieser Datei. Hier geben wir nur einige Beispiele.

Schließen Sie den Abschnitt des Admin-Panels, damit er nicht in den Index der Suchmaschinen gelangt:

User-Agent: *
Nicht zulassen: /admin/

Schließen Sie eine bestimmte Seite aus der Indizierung:

User-Agent: *
Nicht zulassen: /my_emails.html # Seite my_emails.html schließen
Nicht zulassen: /search.php?q=* # Suchseiten schließen

Im Fall von robots.txt müssen Sie außerdem mit der Neuindizierung warten, bis der Roboter eine Seite oder einen ganzen Abschnitt aus dem Index entfernt. Gleichzeitig kann es vorkommen, dass einige Seiten im Index verbleiben, wenn mehrere externe Links der Grund dafür waren, dass sie dorthin gelangen.

Diese Methode ist unpraktisch, wenn Sie verschiedene Seiten aus verschiedenen Abschnitten entfernen müssen und es unmöglich ist, eine gemeinsame Vorlage für die Disallow-Direktive in robots.txt zu erstellen.

3. Meta-Robots-Tag

Dies ist eine Alternative zur vorherigen Methode, nur wird die Regel direkt im HTML-Code der Seite zwischen den Tags festgelegt .

Der Vorteil des Meta-Tags besteht darin, dass es (über das Verwaltungssystem) zu allen erforderlichen Seiten hinzugefügt werden kann, die im Suchmaschinenindex unerwünscht sind, während die Datei robots.txt einfach und verständlich bleibt. Der Nachteil dieser Methode besteht darin, dass sie für eine dynamische Site, die eine einzelne header.tpl-Vorlage verwendet, schwierig zu implementieren ist, wenn keine besonderen Fähigkeiten vorhanden sind.

4. X-Robots-Tag-Header

Diese Methode wird von ausländischen Suchmaschinen, darunter Google, als Alternative zur vorherigen Methode verwendet. Yandex verfügt noch nicht über offizielle Informationen zur Unterstützung dieses http-Headers, dies könnte jedoch in naher Zukunft erfolgen.

Im Wesentlichen ist seine Verwendung dem Robots-Meta-Tag sehr ähnlich, mit der Ausnahme, dass der Eintrag in HTTP-Headern erfolgen muss, die im Seitencode nicht sichtbar sind.

X-Robots-Tag: noindex, nofollow

In einigen, oft unethischen Fällen ist die Verwendung sehr praktisch (z. B. beim Austausch von Links und beim Ausblenden der Link-Bereinigungsseite).

5. Manuelles Entfernen aus dem Webmaster-Panel

Schließlich besteht die letzte und schnellste Möglichkeit, Seiten aus dem Index zu entfernen, darin, sie manuell zu entfernen.

Die einzige Bedingung für das manuelle Löschen von Seiten besteht darin, dass sie durch vorherige Methoden (in robots.txt, Meta-Tag oder 404-Fehler) vom Robot geschlossen werden müssen. Es wurde festgestellt, dass Google Löschanfragen innerhalb weniger Stunden bearbeitet, Yandex muss auf das nächste Update warten. Verwenden Sie diese Methode, wenn Sie schnell eine kleine Anzahl von Seiten aus der Suche entfernen müssen.


Durch die Verbesserung der Benutzerfreundlichkeit von 404-Seiten werden die Absprungraten reduziert. Dieser Artikel enthält einige Tipps, die Ihnen dabei helfen, Ihre 404-Seite effektiver zu gestalten.

Alles über die robots.txt-Datei
Für diejenigen, die noch nicht mit dem Anpassen der robots.txt-Datei vertraut sind, ist diese Ressource ein nützlicher Ausgangspunkt. Es enthält viele Beispiele und andere nützliche Informationen.

Yandex: Verwenden von robots.txt
Offizielle Beispiele für die Verwendung der robots.txt-Datei von Yandex. Es gibt auch Richtlinien, die von Yandex berücksichtigt werden, und andere Tipps.


Ein Beispiel für die Verwendung des X-Robots-Tag-HTTP-Headers in Apache.

Wie entferne ich indizierte Seiten aus der Yandex- und Google-Suche?

Manchmal ist es aus irgendeinem Grund notwendig, Seiten zu entfernen, die zuvor von einer Suchmaschine indiziert wurden. Es gibt mehrere Möglichkeiten.

1. Weitere Indizierung der Seite verbieten.

Sie können die weitere Indizierung der Seite in der robots.txt-Datei mit der folgenden Zeile deaktivieren:

Dis: your_page

Zum Beispiel:

Nicht zulassen: /shops/mylikes.html

Diese Zeile verhindert, dass Suchmaschinen die Seite indizieren mylikes.html befindet sich im Verzeichnis (Ordner) Geschäft.

Wenn Sie die Indizierung der Website und nicht nur ihrer einzelnen Seiten vollständig deaktivieren möchten, fügen Sie Folgendes zur robots.txt hinzu:

Diese Methode verhindert, dass Suchmaschinen Ihre Websites crawlen. Der Nachteil eines solchen Systems besteht jedoch darin, dass alle Seiten, die zum Zeitpunkt des Hinzufügens der entsprechenden Zeilen zur robots.txt aus der Indexierung entfernt wurden, im Cache der Suchmaschine gespeichert und auch in den Suchergebnissen angezeigt werden.

2. Löschen von Site-Seiten aus dem Yandex- und Google-Cache.

2.1. Yandex

Um die Seiten Ihrer Website vollständig aus der Indexierung zu entfernen und die Suche zu deaktivieren, müssen Sie zunächst die erforderlichen Seiten in robots.txt entfernen (damit Ihre Seiten-URL 404 sendet) oder deaktivieren. Dann folgen Sie dem Link http://webmaster.yandex.ru/delurl.xml, wobei Sie im entsprechenden Formular den Pfad zur Seite eingeben und Yandex Ihre Seite aus den Suchergebnissen und entsprechend aus dem Cache entfernt.

Beispielsweise, wenn Sie die gesamte Seite aus den Suchergebnissen entfernen möchten mylikes.html eingeben:

http://your.site/shops/mylikes.html

Nach dieser Seite mylikes.html, wird zur Löschwarteschlange hinzugefügt und verlässt in einigen Tagen den Yandex-Cache. Auf die gleiche Weise können Sie die gesamte Site aus dem Cache löschen. Geben Sie dazu Folgendes in das Formular ein:

http://your.site/

2.2. Google

Um Seiten aus der Google-Suche zu entfernen, müssen Sie:

1. Melden Sie sich beim Google Webmaster-Dashboard an.

2. Wählen Sie in der Liste der von Ihnen hinzugefügten Websites diejenige aus, deren Seiten Sie aus der Suche entfernen möchten.

3. Links im Reiter „ Optimierung" wählen " URLs entfernen".

4. Klicken " Erstellen Sie eine neue Löschanforderung", und geben Sie dann im sich öffnenden Fenster den Pfad zur Seite unter Berücksichtigung der Groß- und Kleinschreibung ein.

Seien Sie aufmerksam! Geben Sie den Pfad in relativer Form an. Diese. Wenn Sie eine Seite löschen möchten http://your.site/shops/mylikes.html, geben Sie einfach das Formular ein /shops/mylikes.html!!!

Wenn Sie die gesamte Website aus den Suchergebnissen entfernen möchten, geben Sie Folgendes in das Formular ein / . Mit diesem einen Zeichen beantragen Sie die Entfernung der gesamten Website.

5. Erwarten Sie, dass Ihre Seiten in naher Zukunft aus der Suche verschwinden.

Wenn Sie einen Fehler bemerken, wählen Sie einen Textabschnitt aus und drücken Sie Strg + Eingabetaste
AKTIE:
Computer und moderne Geräte