Bir SEO uzmanının Googlebot’un her gün taraması gereken ideal sayfa yüzdesi olup olmadığını sorduğu bir Reddit mesaj dizisine yanıt olarak verildi. Bu sorunun arkasındaki düşünce, Googlebot’un daha düzenli tarama yapmasıyla içeriklerin taze kalacağı olabilir. Google’dan John Mueller’in ifadelerine göre, web siteleri için en uygun tarama limiti değerlendirmesi için belirli bir ölçüt bulunmuyor.
Site Taraması 1.Gün: Nereden Başlamalısınız?
Reddit’te sorulan soru
“Herkes tarama limitinden bahsederken, bunun için belirli bir kesim veya aralık bulamadım. İçeriklerin taze kalmasını sağlamak için Googlebot’un taradığı sayfa miktarı günlük en az ne oranda olmalıdır?
Bunun web sitesinde statik/değişken içeriğe bağlı olduğu için çok farklı olabileceğini anlıyorum. Sadece tarama limitini nasıl kıyaslayacağımı anlamaya çalışıyorum.”
Mueller’in ifadesinde dikkat çeken “Belli bir sayı yok.” oldu.
Yani, tarama limitinizi artırmak istiyorsanız, hedeflenecek ideal bir sayı olmadığını anlamak gerekiyor. Ancak bu, bir web sitesinin tarama limitini optimize etmenin hiçbir faydası olmadığı anlamına gelmez.
Tarama limiti nedir?
Basitçe söylemek gerekirse, tarama limiti; Googlebot’un tarayabildiği (site hızına göre) ve taramak istediği (kullanıcı talebine göre) URL sayısıdır. Daha yüksek bir tarama limiti, popüler içeriğin taze kalmasına ve eski içeriğin demode olmasını önlemeye yardımcı olabilir.
Tarama limitini etkileyen faktörler
Tarama limitini iyileştirmenin en iyi yollarından biri, web sitesindeki düşük katma değerli URL’lerin miktarını sınırlamaktır. Örneğin;
- Çok boyutlu gezinme ve oturum tanımlayıcıları
- Site içi kopya içerik
- Hafif hata sayfaları
- Saldırıya uğramış sayfalar
- Düşük kaliteli içerikler
- Spam içerikler
Bu tür sayfalar, öncelikli olarak taranması gereken daha önemli sayfaların taranmasını geciktirebilirler. Ayrıca, site sahiplerinin Search Console’daki tarama hataları raporunu izlemeleri ve sunucu hatalarını minimumda tutmaları da önerilir.