So entfernen Sie Ihre Seiten vorübergehend aus den Google-Suchergebnissen
Mit diesem Tool können Sie die Seiten Ihrer Website in den Google-Suchergebnissen vorübergehend blockieren. Lesen Sie, wie Sie Seiten aus der Google-Suche entfernen, die Ihnen nicht gehören.
Wichtige Notizen
So schließen Sie eine Seite vorübergehend aus den Google-Suchergebnissen aus
Mit dem URL Removal Tool können Sie nur Seiten entfernen auf Zeit. Wenn Sie Inhalte dauerhaft aus den Google-Suchergebnissen entfernen möchten, führen Sie zusätzliche Schritte aus:
Wenn Sie die Seite in den Suchergebnissen wiederherstellen müssen, bevor die temporäre Sperre abläuft, öffnen Sie die Statusseite im Tool und klicken Sie auf Wieder aktivieren neben dem abgeschlossenen Antrag auf URL-Entfernung. Die Bearbeitung Ihrer Anfrage kann mehrere Tage dauern.
Das URL Removal Tool ist für die dringende Sperrung von Inhalten gedacht, beispielsweise in Fällen, in denen vertrauliche Daten versehentlich offengelegt werden. Die Verwendung dieses Tools für andere Zwecke hat negative Folgen für Ihre Website.
War diese Information hilfreich?
Wie kann dieser Artikel verbessert werden?
Es gibt Situationen, in denen ein Geschäftsinhaber eine Seite aus der Google- oder Yandex-Suche entfernen muss. Manchmal gelangt eine Ressource versehentlich in die Suchergebnisse oder die Informationen darauf verlieren ihre Relevanz. Doch das Schlimmste ist, wenn Suchmaschinen Serviceseiten mit vertraulichen Kundendaten herausgeben.
Um solche Situationen zu vermeiden, müssen Sie wissen, wie Sie eine Seite oder einen Site-Abschnitt aus dem Index entfernen.
Je nach Suchmaschine gibt es hierfür mehrere Möglichkeiten. Werfen wir einen Blick auf die Vor- und Nachteile jeder Option.
Entscheiden Sie vor der Auswahl einer Methode:
Wichtig! Dies ist die am einfachsten durchzuführende Methode. Es kann jedoch bis zu einem Monat dauern, bis Informationen aus den Suchergebnissen entfernt werden. Entfernt die Seite sowohl aus der Suchmaschine als auch aus der gesamten Website.
Bei der Suche nach bestimmten Informationen stößt der Benutzer regelmäßig auf die Fehlermeldung 404 – „Seite nicht gefunden“. Zu diesem Ergebnis führt die tatsächliche Entfernung der Site-Seite.
Dies geschieht durch Löschen der Seite im Verwaltungsbereich der Site. In der Sprache der Suchmaschinen ist der Server so konfiguriert, dass er für eine bestimmte URL den HTTP-Status „404 nicht gefunden“ bereitstellt. Beim nächsten Besuch des Suchroboters informiert ihn der Server über das Fehlen des Dokuments.
Danach erkennt die Suchmaschine, dass die Seite nicht mehr verfügbar ist und entfernt sie aus den Suchergebnissen, sodass Benutzer bei der Suche nicht auf die 404-Fehlerseite gelangen.
Diese Methode hat ihre eigenen Eigenschaften:
Wenn diese Option für einen Webmaster eine der einfachsten und bequemsten ist, ist eine 404-Fehlermeldung für einen Website-Besucher selten eine Freude. In einigen Fällen kann es dazu führen, dass der Client nicht mehr zu dieser Ressource zurückkehrt.
Um solche Konsequenzen zu vermeiden, versuchen Webmaster heute immer häufiger, eine Seite mit einem 404-Fehler kreativ zu gestalten oder dort Informationen und Vorschläge zu platzieren, die den Benutzer interessieren könnten. Eine solche Richtlinie macht die Website kundenfreundlicher und trägt zur Steigerung ihrer Beliebtheit bei.
Wichtig! Diese Methode entfernt die Seite nicht aus der Suche, sondern blendet sie nur aus den Ergebnissen aus. Die Seite bleibt über andere Verkehrskanäle sichtbar.
Eine ziemlich gängige Methode, einzelne Objekte und ganze Abschnitte loszuwerden. Robot.txt bietet sowohl eine Erlaubnis als auch ein Verbot der Indizierung, daher ist es nicht verwunderlich, dass im Internet viele nützliche Anleitungen zum Thema Seitenlöschalgorithmen erstellt wurden, beispielsweise Devaka . Sie basieren jedoch auf einem Prinzip: der Verwendung der Disallow-Direktive.
Um zu verhindern, dass eine Seite von Suchmaschinen gecrawlt wird, müssen Sie Zugriff auf den Stammordner der Domain haben. Andernfalls müssen Sie Meta-Tags verwenden.
Dieses Paar bildet einen Befehl in Bezug auf eine bestimmte URL. Bei Bedarf können mehrere Objekte einer Site in einer Datei gesperrt werden, die absolut unabhängig voneinander sind.
Nachdem Sie eine Seite oder einen Abschnitt über robots.txt geschlossen haben, müssen Sie auf die nächste Indizierung warten.
Hierbei ist zu beachten, dass es sich bei der Aktion in robots.txt für Suchmaschinen lediglich um eine Empfehlung handelt, an die sie sich nicht immer halten. Auch wenn diese Anweisung befolgt wird, erscheint die Ressource weiterhin in den Suchergebnissen, jedoch mit einem Hinweis zum Schließen über robots.txt.
Nur wenn sich der Status des Objekts in der Datei im Laufe der Zeit nicht ändert, entfernen die Suchmaschinen es aus ihrer Datenbank.
In jedem Fall bleiben gelöschte Objekte weiterhin sichtbar, wenn Sie externen Links folgen, sofern vorhanden.
Wichtig! Diese Methode entfernt die Seite aus Suchmaschinen, die Seite bleibt jedoch über andere Verkehrskanäle sichtbar.
In gewisser Weise wird diese Option als Alternative zur vorherigen bezeichnet, nur dass hier die Arbeit im HTML-Code zwischen den Head-Tags erledigt wird:
<metaname="robots" content="noindex, nofollow" />
Nach Eingabe des Befehls müssen Sie auf die nächste Indizierung der Ressource warten, danach werden die Änderungen wirksam.
Warum ist diese Methode gut?
Mithilfe von Meta-Tags können Sie die URL sowohl für eine Seite als auch für die gesamte Liste auf einmal von Google oder Yandex entfernen. Dadurch bleibt die robots.txt-Datei einfach. Diese Option wird Anfängern empfohlen, die Schritt für Schritt arbeiten und neue Seiten der Website erstellen.
Interessante Tatsache! Mit dieser Methode können Sie eine Seite aus einer Suchmaschine entfernen und sie in den anderen belassen.
Das Schließen einer Seite über Mega-Tags ist die beste Möglichkeit, eine Seite aus dem Google-Index zu entfernen und sie bei Bedarf in Yandex aktiv zu lassen. Es wird auch empfohlen, diese Methode in Situationen zu verwenden, in denen Sie eine Seite aus dem Index entfernen müssen, während ihre Informationen für den internen Gebrauch auf der Website verbleiben.
Beispiel
Schließt die Seite nur für Google PS
Schließt die Seite nur für Yandex PS
Der unbestreitbare Vorteil von Meta-Tags gegenüber robots.txt ist die Möglichkeit, die Seite von der Indexierung auszuschließen, selbst wenn externe Links vorhanden sind. Verwenden Sie dazu einfach das Noindex-Mega-Tag.
Einer der Nachteile der Verwendung von Meta-Tags: Wenn Sie nicht über Wordpress verfügen, kann es zu Problemen bei der Implementierung kommen. In Wordpress wird das Problem durch die Installation des Yoast SEO-Plugins gelöst, bei dem jede Seite mit einem Meta-Tag geschlossen werden kann.
Wichtig! Die Implementierung wird dazu führen, dass der Inhalt der Seite nicht mehr für absolut alle Besucher, einschließlich Websitebesitzer, verfügbar ist.
Der Kern dieser Methode besteht darin, dass ein Benutzer, wenn er nach einer Seite sucht, die nicht mehr existiert, von der Website automatisch zu einer anderen URL weitergeleitet wird.
Diese Option ist für einen Webmaster nicht die bequemste und einfachste, da der Arbeitsalgorithmus je nach CMS unterschiedlich ist. Aus Benutzersicht ist dies jedoch der bequemste Ausweg, viel bequemer und angenehmer als die 404-Fehlermeldung.
Auf Wunsch kann die Weiterleitung Marketing-Tricks untergeordnet werden und den Benutzer nicht nur auf die Hauptseite der Website, sondern auf einen bestimmten Abschnitt weiterleiten, den die Verwaltung bewerben oder aktiv verkaufen möchte.
Diese Methode wird häufig verwendet, wenn eine große Anzahl veralteter Seiten verarbeitet werden muss oder wenn die Ressourcenstruktur vollständig geändert wird. Schließlich können Sie mit einer Weiterleitung Ihre Positionen in den Rankings von Suchmaschinen beibehalten, sodass Ihre Bemühungen, die Website zu bewerben, nicht umsonst sind.
Die Neuindizierung in Suchmaschinen dauert je nach Website durchschnittlich 1-3 Tage, aber erst nach dem Besuch des Roboters werden die Änderungen für Besucher der Ressource wirksam.
Lesen Sie mehr über das Einrichten von 301-Weiterleitungen auf der Devaka-Website.
Wichtig! Die Methode beschleunigt das Entfernen von Informationen aus der Suchmaschine.
Eine schnelle Möglichkeit (dauert 8 bis 48 Stunden), eine Website oder Seite aus Yandex oder einer anderen Suchmaschine zu entfernen. Jedes System hat in diesem Fall seinen eigenen Algorithmus, aber eines haben sie gemeinsam: die Notwendigkeit, zusätzliche Methoden zum Schließen der Seite zu verwenden. Es kann ein 404-Fehler, robots.txt, ein Mega-Tag Ihrer Wahl sein, aber ohne eine solche Vorbereitung geht es nicht.
Sie können eine Website über die Google Search Console aus der Google-Suche entfernen:
In einer separaten Liste können Sie den Status der Anfrage überwachen. Normalerweise dauert es zwischen 2 und 3 Stunden bis zu einem Tag, bis es aus dem Google-Index entfernt wird. Auf Wunsch können Sie auf diesem Weg eine unbegrenzte Anzahl an Seiten zur Deaktivierung versenden.
Das System bietet seinen Benutzern außerdem die Funktion des vorübergehenden (bis zu 90 Tage) Einfrierens von Seiten.
Den gleichen Weg gehen wir im Yandex Webmaster. Die Anweisung dieser Suchmaschine warnt sofort vor der Notwendigkeit eines vorläufigen Verbots der Indizierung durch robots.txt oder Meta-Tags.
Danach prüft das System das Objekt über einen längeren Zeitraum, um festzustellen, ob sich sein Status geändert hat. Wenn die Seite immer noch nicht verfügbar ist, löscht der Roboter sie aus seiner Datenbank.
Um diesen Vorgang zu beschleunigen, gehen Sie unmittelbar nach dem Vornehmen von Änderungen an robots.txt oder Mega-Tags zu Ihrem Yandex-Konto. Webmaster.
Geben Sie hier im Abschnitt „URL löschen“ die Adresse der Seite ein und bestätigen Sie deren Löschung. Pro Tag können maximal 500 Objekte deaktiviert werden.
Das Entfernen einer URL aus Yandex dauert länger als bei Google: von mehreren Stunden bis zu mehreren Tagen.
Das Tool zum Entfernen von URLs eignet sich hervorragend für Situationen, in denen Sie dringend Seiten mit vertraulichen Informationen oder Informationen entfernen müssen, die bei einem Hackerangriff auf eine Website hinzugefügt wurden.
Manchmal gibt es Situationen, in denen es notwendig ist, nicht nur einige Seiten, sondern die gesamte Ressource aus den Suchergebnissen zu entfernen.
Sie können dies mit allen oben genannten Methoden + dem Google- oder Yandex-Webmaster-Panel tun, Sie müssen lediglich Änderungen an den Details vornehmen. Durch das Löschen der gesamten Ressource wird die URL durch einen Domänennamen ersetzt.
Schließen Sie mit dem Login und Passwort auf dem Server ab. Dies ist die beste Lösung für Websites in der Entwicklung und für Testversionen. Der Aktionsalgorithmus hängt in diesem Fall vom CMS ab, auf dessen Grundlage die Ressource erstellt wurde.
Damit diese Methode funktioniert, weisen Sie die Entwickler an, den Zugriff auf die Website nur über Login und Passwort einzurichten.
Das Löschen einer Seite oder sogar einer gesamten Site ist für den Eigentümer oder Administrator kein Problem. Unter den vorhandenen Methoden kann jeder die für ihn bequemste Option wählen. Wenn es jedoch darum geht, in kürzester Zeit ein Ergebnis zu erzielen, ist es besser, mehrere Methoden gleichzeitig anzuwenden.
Haben Sie irgendwelche Fragen? Unser Team hilft Ihnen bei der Lösung Ihres Problems. Hinterlassen Sie Ihre Frage im .
Guten Tag! Im heutigen Beitrag geht es um einen wunden Punkt für die meisten unerfahrenen Website-Ersteller. Ich musste in den Kommentaren sehr oft die gleiche Frage beantworten - So entfernen Sie Seiten aus der Suche, die früher indiziert wurden, aber aufgrund von Umständen entfernt wurden und nicht mehr existieren, sich aber weiterhin im Index von Suchmaschinen befinden. Oder es gibt bei der Suche Seiten, deren Indexierung verboten ist.
Man kann in den Kommentaren nicht wirklich umdrehen, daher habe ich mich nach der nächsten Frage entschieden, diesem Thema besondere Aufmerksamkeit zu widmen. Lassen Sie uns zunächst herausfinden, wie solche Seiten in der Suche erscheinen könnten. Ich werde Beispiele geben, die auf meiner eigenen Erfahrung basieren. Wenn ich also etwas vergesse, füge es bitte hinzu.
Es kann mehrere Gründe geben, und ich werde versuchen, einige davon in Form einer kleinen Liste mit Erläuterungen hervorzuheben. Bevor ich anfange, erkläre ich, was ich unter „zusätzlichen“ (geschlossenen) Seiten verstehe: Dienst- oder andere Seiten, deren Indizierung durch Regeln oder ein Meta-Tag verboten ist.
Also haben wir die Gründe herausgefunden. Es ist zu beachten, dass nach Beseitigung der Ursache möglicherweise nicht vorhandene oder zusätzliche Seiten noch lange in der Suchbasis verbleiben – alles hängt von der Häufigkeit des Besuchs der Website durch den Roboter ab.
Für URL aus Yandex entfernen Folgen Sie einfach dem Link und geben Sie die Adresse der Seite, die Sie aus den Suchergebnissen entfernen möchten, in das Textfeld des Formulars ein.
Die Hauptvoraussetzung für eine erfolgreiche Löschanfrage:
Wenn der Roboter das nächste Mal die Website crawlt, werden die Löschanfragen erfüllt und die Seiten verschwinden aus den Suchergebnissen.
Um Seiten zu löschen, gehen Sie genauso vor. Öffnen Sie die Webmaster-Tools, suchen Sie in der Dropdown-Liste „Optimierung“ nach dem Element „URLs entfernen“ und folgen Sie dem Link.
Vor uns liegt ein spezielles Formular, mit dem wir einen neuen Löschantrag erstellen:
Klicken Sie auf „Weiter“ und befolgen Sie die weiteren Anweisungen, um den Grund für die Löschung auszuwählen. Meiner Meinung nach ist das Wort „Vernunft“ dafür nicht ganz das richtige Wort, aber darum geht es nicht...
Folgende Optionen stehen uns zur Verfügung:
Eine sehr praktische Funktion zum Löschen eines gesamten Verzeichnisses, wenn Sie beispielsweise mehrere Seiten einer Kategorie löschen müssen. Sie können den Status der Löschanforderung auf derselben Seite mit Tools mit der Möglichkeit zum Abbrechen überwachen. Für einen Erfolg Seiten von Google löschen Es gelten die gleichen Bedingungen wie für . Die Anfrage wird in der Regel innerhalb kürzester Zeit erledigt und die Seite verschwindet sofort aus den Suchergebnissen.
Viele Webmaster stehen früher oder später vor der Notwendigkeit, Seiten einer Website aus der Suchmaschine zu entfernen, die versehentlich dorthin gelangt sind, nicht mehr relevant sind, Duplikate sind oder vertrauliche Kundeninformationen enthalten (die Gründe können unterschiedlich sein). Ein anschauliches Beispiel dafür ist die ohnehin schon aufsehenerregende Situation bei Megafon, deren SMS-Benutzer von Yandex indiziert wurden, die Situation bei Online-Shops, als es möglich war, bei der Suche persönliche Daten von Kunden und Details ihrer Bestellungen zu finden, die Situation bei Banken und Transportunternehmen usw.
Auf die Gründe für die oben beschriebenen Vorfälle gehen wir in diesem Artikel nicht näher ein, sondern überlegen, wie man unnötige Seiten aus Yandex oder Google entfernt. Es wird davon ausgegangen, dass sie zu Ihrer Site gehören, andernfalls müssen Sie sich mit einer entsprechenden Anfrage an den Eigentümer der gewünschten Ressource wenden.
5 Möglichkeiten, Seiten aus den Suchergebnissen zu entfernen
Eine der einfachsten Möglichkeiten, eine Seite aus der Suche zu entfernen, besteht darin, sie von Ihrer Website zu entfernen, mit der Bedingung, dass der Server später beim Zugriff auf die alte Adresse einen 404-Fehler ausgibt, was bedeutet, dass die Seite nicht existiert.
HTTP/1.1 404 Nicht gefunden
In diesem Fall müssen Sie warten, bis der Roboter die Seite erneut besucht. Dies dauert mitunter sehr lange, je nachdem, wie es in den Index gelangt ist.
Wenn die Seite beim Entfernen aus der Suche auf der Website vorhanden sein muss, ist diese Methode nicht geeignet. Es ist besser, die anderen unten aufgeführten zu verwenden.
Eine sehr beliebte Methode, um die Indexierung ganzer Abschnitte oder einzelner Seiten zu blockieren, ist die Verwendung der Root-Robots.txt-Datei. Es gibt viele Handbücher zur richtigen Konfiguration dieser Datei. Hier geben wir nur einige Beispiele.
Schließen Sie den Abschnitt des Admin-Panels, damit er nicht in den Index der Suchmaschinen gelangt:
User-Agent: *
Nicht zulassen: /admin/
Schließen Sie eine bestimmte Seite aus der Indizierung:
User-Agent: *
Nicht zulassen: /my_emails.html # Seite my_emails.html schließen
Nicht zulassen: /search.php?q=* # Suchseiten schließen
Im Fall von robots.txt müssen Sie außerdem mit der Neuindizierung warten, bis der Roboter eine Seite oder einen ganzen Abschnitt aus dem Index entfernt. Gleichzeitig kann es vorkommen, dass einige Seiten im Index verbleiben, wenn mehrere externe Links der Grund dafür waren, dass sie dorthin gelangen.
Diese Methode ist unpraktisch, wenn Sie verschiedene Seiten aus verschiedenen Abschnitten entfernen müssen und es unmöglich ist, eine gemeinsame Vorlage für die Disallow-Direktive in robots.txt zu erstellen.
Dies ist eine Alternative zur vorherigen Methode, nur wird die Regel direkt im HTML-Code der Seite zwischen den Tags festgelegt
.Der Vorteil des Meta-Tags besteht darin, dass es (über das Verwaltungssystem) zu allen erforderlichen Seiten hinzugefügt werden kann, die im Suchmaschinenindex unerwünscht sind, während die Datei robots.txt einfach und verständlich bleibt. Der Nachteil dieser Methode besteht darin, dass sie für eine dynamische Site, die eine einzelne header.tpl-Vorlage verwendet, schwierig zu implementieren ist, wenn keine besonderen Fähigkeiten vorhanden sind.
Diese Methode wird von ausländischen Suchmaschinen, darunter Google, als Alternative zur vorherigen Methode verwendet. Yandex verfügt noch nicht über offizielle Informationen zur Unterstützung dieses http-Headers, dies könnte jedoch in naher Zukunft erfolgen.
Im Wesentlichen ist seine Verwendung dem Robots-Meta-Tag sehr ähnlich, mit der Ausnahme, dass der Eintrag in HTTP-Headern erfolgen muss, die im Seitencode nicht sichtbar sind.
X-Robots-Tag: noindex, nofollow
In einigen, oft unethischen Fällen ist die Verwendung sehr praktisch (z. B. beim Austausch von Links und beim Ausblenden der Link-Bereinigungsseite).
Schließlich besteht die letzte und schnellste Möglichkeit, Seiten aus dem Index zu entfernen, darin, sie manuell zu entfernen.
Die einzige Bedingung für das manuelle Löschen von Seiten besteht darin, dass sie durch vorherige Methoden (in robots.txt, Meta-Tag oder 404-Fehler) vom Robot geschlossen werden müssen. Es wurde festgestellt, dass Google Löschanfragen innerhalb weniger Stunden bearbeitet, Yandex muss auf das nächste Update warten. Verwenden Sie diese Methode, wenn Sie schnell eine kleine Anzahl von Seiten aus der Suche entfernen müssen.
Durch die Verbesserung der Benutzerfreundlichkeit von 404-Seiten werden die Absprungraten reduziert. Dieser Artikel enthält einige Tipps, die Ihnen dabei helfen, Ihre 404-Seite effektiver zu gestalten.
Alles über die robots.txt-Datei
Für diejenigen, die noch nicht mit dem Anpassen der robots.txt-Datei vertraut sind, ist diese Ressource ein nützlicher Ausgangspunkt. Es enthält viele Beispiele und andere nützliche Informationen.
Yandex: Verwenden von robots.txt
Offizielle Beispiele für die Verwendung der robots.txt-Datei von Yandex. Es gibt auch Richtlinien, die von Yandex berücksichtigt werden, und andere Tipps.
Ein Beispiel für die Verwendung des X-Robots-Tag-HTTP-Headers in Apache.
Manchmal ist es aus irgendeinem Grund notwendig, Seiten zu entfernen, die zuvor von einer Suchmaschine indiziert wurden. Es gibt mehrere Möglichkeiten.
Sie können die weitere Indizierung der Seite in der robots.txt-Datei mit der folgenden Zeile deaktivieren:
Dis: your_page
Zum Beispiel:
Nicht zulassen: /shops/mylikes.html
Diese Zeile verhindert, dass Suchmaschinen die Seite indizieren mylikes.html befindet sich im Verzeichnis (Ordner) Geschäft.
Wenn Sie die Indizierung der Website und nicht nur ihrer einzelnen Seiten vollständig deaktivieren möchten, fügen Sie Folgendes zur robots.txt hinzu:
Diese Methode verhindert, dass Suchmaschinen Ihre Websites crawlen. Der Nachteil eines solchen Systems besteht jedoch darin, dass alle Seiten, die zum Zeitpunkt des Hinzufügens der entsprechenden Zeilen zur robots.txt aus der Indexierung entfernt wurden, im Cache der Suchmaschine gespeichert und auch in den Suchergebnissen angezeigt werden.
Um die Seiten Ihrer Website vollständig aus der Indexierung zu entfernen und die Suche zu deaktivieren, müssen Sie zunächst die erforderlichen Seiten in robots.txt entfernen (damit Ihre Seiten-URL 404 sendet) oder deaktivieren. Dann folgen Sie dem Link http://webmaster.yandex.ru/delurl.xml, wobei Sie im entsprechenden Formular den Pfad zur Seite eingeben und Yandex Ihre Seite aus den Suchergebnissen und entsprechend aus dem Cache entfernt.
Beispielsweise, wenn Sie die gesamte Seite aus den Suchergebnissen entfernen möchten mylikes.html eingeben:
http://your.site/shops/mylikes.html
Nach dieser Seite mylikes.html, wird zur Löschwarteschlange hinzugefügt und verlässt in einigen Tagen den Yandex-Cache. Auf die gleiche Weise können Sie die gesamte Site aus dem Cache löschen. Geben Sie dazu Folgendes in das Formular ein:
http://your.site/
Um Seiten aus der Google-Suche zu entfernen, müssen Sie:
1. Melden Sie sich beim Google Webmaster-Dashboard an.
2. Wählen Sie in der Liste der von Ihnen hinzugefügten Websites diejenige aus, deren Seiten Sie aus der Suche entfernen möchten.
3. Links im Reiter „ Optimierung" wählen " URLs entfernen".
4. Klicken " Erstellen Sie eine neue Löschanforderung", und geben Sie dann im sich öffnenden Fenster den Pfad zur Seite unter Berücksichtigung der Groß- und Kleinschreibung ein.
Seien Sie aufmerksam! Geben Sie den Pfad in relativer Form an. Diese. Wenn Sie eine Seite löschen möchten http://your.site/shops/mylikes.html, geben Sie einfach das Formular ein /shops/mylikes.html!!!
Wenn Sie die gesamte Website aus den Suchergebnissen entfernen möchten, geben Sie Folgendes in das Formular ein / . Mit diesem einen Zeichen beantragen Sie die Entfernung der gesamten Website.
5. Erwarten Sie, dass Ihre Seiten in naher Zukunft aus der Suche verschwinden.