John Mueller von Google fragte die SEO-Community, warum das URL-Übermittlungstool fehlt. Eine Person sagte, dass kleine Websites benachteiligt sind, weil größere Websites häufiger gecrawlt werden. John Mueller gab Einblicke in das Crawlen von Websites durch Google.

Werden große Websites häufiger gecrawlt?

Es ist möglich, dass beliebte und häufiger verlinkte Websites häufiger gecrawlt werden. Links sind Teil des Crawling-Prozesses, da Googlebot von Link zu Link crawlt.

Es ist daher nicht unangemessen anzunehmen, dass beliebte Websites häufiger gecrawlt werden als weniger beliebte Websites.

Hier ist John Muellers ursprüngliche Frage::

„Ich habe Leute gesehen, die sich darauf gefreut haben, dass das URL-Übermittlungstool zurück ist. Ich habe keine neuen Nachrichten, aber ich würde gerne mehr darüber erfahren, warum Sie sie verpassen.

Lassen Sie mich wissen, für welche URLs Ihnen das Tool fehlt und wie Sie es im Allgemeinen verwendet haben. Vielen Dank!”

Ich habe Leute gesehen, die sich darauf freuten, dass das URL-Übermittlungstool zurück ist. Ich habe keine neuen Nachrichten, aber ich würde gerne mehr darüber erfahren, warum Sie sie verpassen.

Lassen Sie mich wissen, für welche URLs Ihnen das Tool fehlt und wie Sie es im Allgemeinen verwendet haben. Vielen Dank! https://t.co/okrv0YdETL

– ? John ? (@JohnMu) 9. November 2020

Und das Herausgeber antwortete::

“@ JohnMu,
Sie wissen, dass Crawler kleine Websites nicht so häufig besuchen wie große. Für Aktualisierungen auf Schlüsselseiten und eine schnellere Indizierung sind wir daher auf das URL-Übermittlungstool angewiesen. Wenn Sie den Zugriff auf das Tool entfernen, bevorzugen Sie große Websites und treffen kleine. “

John Mueller antwortete Dieses Crawlen ist unabhängig von der Größe einer Website.

„Das Crawlen ist unabhängig von der Größe der Website. Einige Websites haben eine Unmenge (nutzloser) URLs, und zum Glück kriechen wir nicht viel von ihnen weg. Wenn Sie ein Beispiel von Ihrer Website haben, auf dem Probleme auftreten, können Sie es dem Formular hinzufügen. “

Die Person, die die Frage gestellt hat, gab an, dass einige Veröffentlichungsplattformen ihre Sitemaps nicht automatisch aktualisieren.

John Mueller schlug vor, die Plattform so zu aktualisieren, dass die Sitemap automatisch aktualisiert wird. Dies ist die einfachere Lösung.

Muellers Antwort::

„Es gibt immer noch Websites, die keine Sitemaps verwenden? Scheint eine viel einfachere Lösung zu sein, als jede neue oder aktualisierte URL manuell zu senden …

… Klingt nach etwas, das in diesem Fall behoben werden muss :). Manuelle Übermittlungen sind niemals skalierbar. Stellen Sie sicher, dass sie automatisch funktionieren.

Das Erstellen einer Sitemap-Datei scheint automatisch eine minimale Basis für jede ernsthafte Website zu sein, imo. “

Große Site und beliebte Site

Ich denke, was beim obigen Austausch übersehen wurde, ist das, was der Verlag meinte, als er sagte, dass eine „große Site“ häufiger gecrawlt wurde. John Mueller beantwortete die Frage buchstäblich in Bezug auf die Anzahl der Seiten, die eine Site enthielt.

Es ist möglicherweise nicht unangemessen anzunehmen, dass das, was der Herausgeber gemeint hat, eine populärere Site war, einen Vorteil gegenüber einer kleineren Site hatte, die nicht so viele Links hatte.

Muellers Hinweis auf größere (und manchmal populärere) Websites mit nutzlosen URLs ist jedoch ein fairer Punkt. Dies bedeutet, dass kleinere Websites einfacher und effizienter zu crawlen sind. Wenn Sie Crawlerprotokolle anzeigen können, scheint Google kleinere und weniger beliebte Websites ziemlich häufig zu besuchen.

Wenn Tage oder Wochen vergehen, ohne dass Google einige Ihrer Seiten entdeckt, kann eine Sitemap helfen. Es könnte aber auch auf tiefere Probleme hinsichtlich der Qualität des Inhalts oder der Links hinweisen.



Quelle