Heute hat das deutsche Support-Team von Google endlich auf eine von drei Mails von mir geantwortet. Mit korrekter Anrede und einem einführenden Text, aus dem sich schließen lässt, dass die Jungs meine Angelegenheit tatsächlich nachvollzogen haben. Das spricht für Google. In dem Schreiben heißt es unter anderem:
Wenn Sie eine für die Löschung Ihrer Website korrekte robots.txt platziert und die entsprechenden Daten über unser automatisches System zum Entfernen von URLs übermittelt haben, erfolgt eine vorübergehende 180 Tage währende Entfernung Ihrer Website aus unserem Index.
Eine Löschung wirke unabhängig davon, ob die robots.txt-Datei nach der Verarbeitung von Anforderungen entfernt oder verändert wurde. Der Prozess sei vollautomatisiert. Daher könne Google keine manuellen Änderungen für individuelle Sites vornehmen. Weitere Informationen zu Funktionen, die den Zugriff durch Suchroboter verhindern, seien in den Informationen für Webmaster zu finden.
Jetzt weiß ich zumindest, woran ich bin. 180 Tage Sperrung wegen eines Missgeschicks sind eine verdammt lange Zeit. Sie wäre ein geringeres Problem, wenn sichergestellt ist, dass es anschließend zu keinen neuen Problemen kommt. Noch ein Fehler könnte zu über einem Jahr (!) Auszeit führen, was ein enormes Risiko ist. Deshalb müssen Arbeiten an der Google-Konsole und der robots.txt peinlich genau bedacht sein.
Warum sich Webmaster damit auseinandersetzen müssen, können Sie unter anderem in meinem Editorial im MittelstandsBlog und in ausführlichen Beiträgen von Martin Goldmann lesen.