Teknik SEO
2025
robots.txt Nasıl Yazılır? 2025 SEO Rehberi (Örnekler + En İyi Uygulamalar)
robots.txt, arama motoru botlarının sitenizi nasıl tarayacağını belirler. Bu kapsamlı rehberde
sözdizimini, Disallow/Allow kurallarını, wildcard kullanımlarını ve
WordPress, WooCommerce, Shopify gibi sistemler için hazır şablonları bulacaksınız.
Hedef: tarama bütçesini verimli kullanıp gereksiz URL’leri boşa taratmadan sıralama sayfalarınızı güçlendirmek.
- Taramayı Odakla: Filtre, arama, parametre ve sonuç sayfalarını boşa taratmayın.
- Hassas Sayfaları Koru: Yönetim, sepet ve kullanıcı alanlarını botlardan uzak tutun.
- Index ≠ Crawl:
noindex
ileDisallow
farkını doğru uygulayın.
1) robots.txt Nedir, Ne İşe Yarar?
robots.txt, sitenizin kök dizininde (example.com/robots.txt
) bulunan, tarayıcılara
(Googlebot, Bingbot vb.) hangi yolları tarayabileceklerini veya tarayamayacaklarını söyleyen düz metin dosyasıdır.
Amaç, tarama bütçesini (crawl budget) asıl sayfalarınıza odaklamak ve özel alanları korumaktır.
meta robots (
noindex
) veya HTTP header kullanılır.1.1) robots.txt Neyi Yapamaz?
- Noindex yerine geçmez:
Disallow
edilen URL daha önce keşfedildiyse dizinden düşmeyebilir. - Gizlilik/ güvenlik aracı değildir: Gizli sayfaları disallow etmek, yolunu ifşa eder.
- Backlink etkisini sıfırlamaz: Engellenen bir sayfaya güçlü link gelse de indekslenme davranışı ayrı yönetilir.
2) Sözdizimi ve Kurallar
Dosya, bir veya daha fazla User-agent
bloğundan oluşur. Her blokta ilgili bot için
Disallow
/Allow
kuralları yer alır.
2.1) User-agent, Disallow, Allow, Jokerler ve Diğerleri
# Tüm botlar için genel kurallar
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
# Jokerler:
# * : Herhangi bir karakter dizisini temsil eder
# $ : Satır sonunu temsil eder (örn. .pdf$ -> pdf ile bitenler)
# Örnek:
Disallow: /search* # parametreli arama sayfalarını engelle
Disallow: /*?*sort=* # sıralama parametrelerini engelle
Allow: /kategori/ # kategori ağacını taramaya aç
# Crawl-delay (Google dikkate almaz, Bing alır)
# Crawl-delay: 5
Crawl-delay
yönergesini desteklemez. Hız yönetimi içinSearch Console > Tarama ayarlarını kullanın veya sunucu hız optimizasyonu yapın.
3) Hazır Örnek robots.txt Dosyaları
3.1) WordPress / WooCommerce
WP’nin oluşturduğu /feed/
, /?s=
arama, /wp-admin/
gibi yolları düzenleyin.
WooCommerce’te filtre parametreleri ve sepet/checkout engellenmelidir.
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /?s=*
Disallow: /search/
Disallow: /cart/
Disallow: /my-account/
Disallow: /checkout/
Disallow: /*add-to-cart=*
Disallow: /*?*orderby=*
Disallow: /*?*filter_*
Allow: /wp-content/uploads/
Sitemap: https://www.ornek.com/sitemap_index.xml
3.2) Shopify
Shopify artık özelleştirilebilir robots.txt destekler. Koleksiyon filtreleri ve arama sonuçlarını yönetin.
User-agent: *
Disallow: /search
Disallow: /*?*utm_*
Disallow: /*?*variant=*
Disallow: /*?*sort_by=*
Allow: /collections/
Allow: /products/
Sitemap: https://www.ornek.com/sitemap.xml
3.3) Headless (Next.js / Nuxt)
Build sırasında /public/robots.txt
üretin. Parametreli sayfaları ve arama uçlarını düşünün.
User-agent: *
Disallow: /api/
Disallow: /search/
Disallow: /*?*session=*
Allow: /blog/
Allow: /kategori/
Sitemap: https://www.ornek.com/sitemap.xml
4) Yapılmaması Gerekenler
Do
- Kritik şablonları (kategori, ürün, blog) açık bırakın.
- Parametreli/filtreli URL’leri gereksiz taramadan çıkarın.
- Sitemap satırı ekleyin, protokol & alan adını doğru yazın.
Don’t
- Tüm siteyi
Disallow: /
ile kapatmayın (canlıda büyük hata!). Disallow
ile gizlilik sağlamaya çalışmayın.noindex
etiketi koyduğunuz sayfayıDisallow
etmeyin (bot etiketi göremez).
5) XML Sitemap Entegrasyonu
robots.txt’ye mutlaka Sitemap:
satırı ekleyin. Birden fazla sitemap kullanıyorsanız hepsini yazabilirsiniz.
Sitemap: https://www.ornek.com/sitemap_index.xml
Sitemap: https://www.ornek.com/blog-sitemap.xml
6) Test, Yayın ve İzleme
- Staging’de deneyin: Canlıya almadan önce QA yapın.
- Search Console: URL Denetimi ile tekil URL’lerin taranabilirliğini kontrol edin.
- Log Analizi: Gerçekte hangi botlar hangi yolları tarıyor, loglardan teyit edin.
- Tarama Hataları: 4xx/5xx artışı varsa kuralları gözden geçirin.
7) Sık Sorulanlar
noindex
(meta/header) gerekir; ancak noindex etiketi için sayfa taranabilmelidir.