Z E Y M E D Y A

Loading...

Zeymedya; İstanbul merkezli reklam ajansı. SEO, Google Ads, Google Maps ve sosyal medya yönetimiyle ölçülebilir büyüme sağlarız.

Blog
Teknik Rehber
2025

robots.txt Nasıl Yazılır? 2025 Rehber (Doğru Kullanım + Örnekler)

robots.txt, arama motoru botlarının site bölümlerine erişimini yönetir.
Bu kapsamlı rehberde doğru söz dizimini, en iyi uygulamaları,
CMS’e özel örnekleri ve facet/parametre yönetimini
uygulamalı kodlarla anlatıyoruz. Hedef: crawl bütçesini verimli kullanmak,
önemli sayfaların taranmasını garanti etmek.

  • Doğru Söz Dizimi: User-agent, Disallow, Allow, Sitemap.
  • Crawl Bütçesi: Önemsiz parametre/kopya sayfaları yönetme.
  • Hataları Önleme: CSS/JS engelleme ve “noindex” çakışmaları.

1) robots.txt nedir, ne değildir?

Temeller


Önemli: robots.txt tarama iznini yönetir; tek başına indekslemeyi engellemez.
İndekslemeyi yönetmek için sayfa içinde <meta name="robots" content="noindex">
veya HTTP X-Robots-Tag kullanın.

Dosya, sitenizin kök dizininde example.com/robots.txt yolunda bulunur ve botlara
hangi yolların taranmaması gerektiğini bildirir. Kurallar, User-agent bazında yazılır.

2) Temel söz dizimi (Allow / Disallow / Sitemap)

Söz Dizimi

Örnek robots.txt (genel)
# Tüm botlar için genel kural
User-agent: *
Allow: /wp-content/uploads/
Disallow: /search
Disallow: /*?replytocom=
Disallow: /*?sessionid=

# Stil/JS engelleme! ÖNLEMEK için açık Allow
Allow: /wp-content/themes/
Allow: /wp-content/plugins/

# Site haritaları
Sitemap: https://www.ornek.com/sitemap_index.xml


Allow: Özellikle tema/eklenti CSS/JS dosyalarını engellemeyin. Görünüm & CWV etkilenir.

Crawl-delay: Google bu yönergeyi dikkate almaz; sunucu yoğunluğunu GSC’den yönetmek daha sağlıklıdır.

3) En iyi uygulamalar (Best Practices)

Best Practice

  • Kök dizinde tek bir robots.txt kullanın.
  • Önemsiz parametre/arama sayfalarını Disallow ile sınırlandırın.
  • Önemli kaynakları (CSS/JS/font) asla engellemeyin.
  • İndeks dışına atılacak sayfalarda Disallow yerine noindex kullanın.
  • Sitemap konumlarını mutlaka ekleyin ve güncel tutun.
  • Özel botlar (AdsBot, Googlebot-Image) için ayrı bloklar yazın.

4) CMS’e özel örnekler

Uygulama

WordPress / WooCommerce
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Allow: /wp-content/uploads/
Allow: /wp-content/themes/
Allow: /wp-content/plugins/
Disallow: /?s=
Disallow: /*?add-to-cart=
Sitemap: https://www.ornek.com/sitemap_index.xml

Shopify
User-agent: *
Disallow: /cart
Disallow: /checkout
Disallow: /search
Allow: /s/files/
Sitemap: https://www.ornek.com/sitemap.xml

Next.js (SSR/SSG)
User-agent: *
Disallow: /api/
Allow: /_next/static/
Allow: /_next/image
Sitemap: https://www.ornek.com/sitemap.xml

Laravel
User-agent: *
Disallow: /admin
Disallow: /login
Disallow: /register
Allow: /storage/
Sitemap: https://www.ornek.com/sitemap.xml

5) Parametre & Facet yönetimi

Facet/Param


Filtre/parametreli URL’lerde kopya içerik ve crawl bütçesi israfı yaşanabilir.
Mümkünse kanonik ve/veya noindex ile destekleyin; yalnızca gereksiz olanları Disallow edin.
Örnek desenler
User-agent: *
Disallow: /*?utm_source=
Disallow: /*?ref=
Disallow: /*?sort=
Disallow: /*?filter=
# Sona dolar ($) tam eşleşme için:
Disallow: /*?sessionid=$

6) CSS/JS/Medya dosyaları

CWV & Render


Google sayfayı insan gibi işler; CSS/JS engellenirse sayfa yanlış değerlendirilir.
Bu, Core Web Vitals ve içerik anlaşılırlığını olumsuz etkiler.
İzin örneği
User-agent: *
Allow: /assets/css/
Allow: /assets/js/
Allow: /uploads/

7) E-ticaret özel: cart/checkout ve noindex ilişkisi

E-Ticaret


İpucu: Sepet/checkout gibi sayfaları noindex ile dışarıda tutmak istiyorsanız
Disallow etmeyin; aksi halde bot noindex etiketini göremez.
Meta etiketi
<meta name="robots" content="noindex, follow">

HTTP başlığı (X-Robots-Tag)
X-Robots-Tag: noindex, follow

8) Bot/ülke bazlı kurallar

Gelişmiş

Farklı user-agent örnekleri
# Görsel botu (ör.: küçük çözünürlükleri dışarıda bırakmak)
User-agent: Googlebot-Image
Allow: /images/
Disallow: /images/temp/

# Reklam botları: AdsBot'ları engellemeyin (reklam kalitesi etkilenebilir)
User-agent: AdsBot-Google
Allow: /

9) Test & doğrulama adımları

Kontrol

  1. URL denetimi (GSC): Canlı testte “tarama izinli mi?” sinyalini kontrol edin.
  2. Güncelleme sonrası: robots.txt dosyasını anında yayına alın ve cache’i temizleyin.
  3. Sunucu logları: Googlebot isteklerini izleyerek engellenen yolları tespit edin.
  4. Site içi linkler: Engellenen yolların dahili linklerle taşmamasını sağlayın.

10) Yaygın hatalar & çözümler

Hatalar


Tüm siteyi Disallow etmek: Canlıda “User-agent: * / Disallow: /” asla bırakmayın.

noindex ile Disallow çakışması: noindex konacak sayfaları Disallow etmeyin.

CSS/JS engelleme: Render ve kalite sinyallerini bozar.

Parametre patlaması: Önemli parametreleri kanonik/noindex ile; gereksizleri Disallow ile yönetin.

SSS — robots.txt


Hayır. robots.txt taramayı kısıtlar. İndekslemeyi yönetmek için sayfa içinde noindex kullanın.


Google crawl-delay yönergesini dikkate almaz. Tarama hızını GSC’den ayarlamak daha güvenilirdir.


Zorunlu değildir ama önerilir. Botların harita konumunu hızlı bulmasına yardımcı olur.



Leave A Comment