Z E Y M E D Y A

Loading...

Zeymedya; İstanbul merkezli reklam ajansı. SEO, Google Ads, Google Maps ve sosyal medya yönetimiyle ölçülebilir büyüme sağlarız.

Blog
Rehber
2025

Robots.txt Nasıl Yazılır? 2025 Güncel Rehber (Disallow/Allow, Yabanıl Kartlar, Sitemap)

Bu kapsamlı rehberde robots.txt dosyasının ne işe yaradığını, doğru sözdizimini,
Disallow/Allow kullanımını, yabanıl kart (wildcard) örneklerini ve
Sitemap bildirimi gibi en iyi uygulamaları anlatıyoruz. Hedef: taranmasını istemediğiniz
kaynakları güvenle yönetmek
ve Google’ın tarama bütçesini verimli kullanmak.

  • Doğru Sözdizimi: User-agent, Disallow/Allow, Sitemap kullanım kalıpları.
  • Güvenli Engelleme: Gizli alanları arama sonuçlarına sızdırmadan kapatma.
  • Tarama Bütçesi: Önemsiz URL’leri ayıklayarak daha iyi tarama verimliliği.


1) Robots.txt Nedir? Ne Değildir?

Robots.txt, sitenizin kök dizininde (/robots.txt) yer alan ve arama motoru
botlarına hangi URL yollarını taramamaları gerektiğini bildiren bir protokoldür. Önemli noktalar:

  • Gönüllü uyum: Dürüst botlar kurallara uyar; kötü niyetli botları engellemez.
  • Indekslemeyi garanti etmez: Disallow edilen bir URL dış bağlantıyla yine de indekslenebilir (içerik çekilmese de).
  • Noindex yeri değil: noindex yönergesi robots.txt’de çalışmaz; bunun yeri sayfa meta etiketi veya HTTP başlığıdır.

2) Sözdizimi: User-agent, Disallow, Allow, Sitemap

User-agent

Kuralların hedeflendiği botu belirtir. * tüm botlar anlamına gelir.

Disallow

Verilen yolun taranmamasını ister. Boşsa “hiçbir yolu engelleme” demektir.

Allow

Disallow kapsamındaki bir alt yolu istisna olarak izinli kılar (özellikle Google’da).

Sitemap

XML sitemap URL’nizi bildirerek keşfi hızlandırır. Birden çok sitemap eklenebilir.

Örnek
/robots.txt
# Tüm botlar için genel kurallar
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

# Sitemap bildirimi
Sitemap: https://www.ornek.com/sitemap_index.xml

3) Örnek Dosyalar (E-ticaret, Blog, Staging)

E-ticaret
Filtre & arama sayfalarını ayıkla
User-agent: *
# Faceted/parametreli sayfalar
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?filter=
Disallow: /*&filter=
# Dahili arama
Disallow: /search/
# Sepet/hesap
Disallow: /cart/
Disallow: /checkout/
Disallow: /my-account/
Allow: /wp-admin/admin-ajax.php

Sitemap: https://www.ornek.com/sitemap_index.xml

Blog
Etiket arşivini taramadan çıkar
User-agent: *
Disallow: /tag/
Disallow: /?s=
Allow: /wp-admin/admin-ajax.php

Sitemap: https://www.ornek.com/sitemap_index.xml

Staging
Yanlışlıkla indekslemeyi engelle
User-agent: *
Disallow: /
# Staging ortamında ayrıca temel auth kullanın.
# Canlıya alırken robots.txt'yi güncellemeyi unutmayın.

4) Wildcard Kullanımı: * ve $ Operatörleri

Google, * (herhangi dizge) ve $ (satır sonu) operatörlerini destekler.

Kalıplar
Google’a özgü
# Tüm PDF’leri hariç tut
Disallow: /*.pdf$

# /tmp/ altındaki her şeyi hariç tut
Disallow: /tmp/*

# ?utm_= ile biten parametreli URL’leri hariç tut
Disallow: /*?*utm_

5) Yapmayın: Noindex & Güvenlik Yanılgıları


Doğru: Noindex için sayfaya <meta name="robots" content="noindex"> ekleyin (veya HTTP başlığı).

Yanlış: noindex’i robots.txt’ye yazmak. Çalışmaz.

Gizli içerikler için robots.txt yeterli değildir; kimlik doğrulama veya erişim kontrolü kullanın.

6) Tarama Bütçesi ve Önceliklendirme

Tarama bütçesini boşa harcayan URL tiplerini (faceted filtreler, iç arama, sonsuz parametreler) ayıklayın.

  • Faceted/parametreli sayfaları engelle
  • Dahili arama sonuçlarını engelle
  • Admin, hesap, sepet akışlarını engelle
  • Önemli sayfaları engelleme (kategori/ürün/blog)

7) Test & Doğrulama: URL Denetimi, Log Analizi

URL Denetimi

Google Search Console’da URL durumunu kontrol edin: Engellendi: robots.txt uyarıları için düzeltme yapın.

Sunucu Logları

Botların gerçekten hangi yolları taradığını log’lardan inceleyin; engellenmesi gereken yeni pattern’leri keşfedin.

Değişiklikten sonra önbellek ve CDN yayılımını bekleyin; ardından URL denetimlerini tekrarlayın.

8) Hızlı Kontrol Listesi

01

Kök dizin: Robots.txt mutlaka kökte olmalı (https://alanadiniz.com/robots.txt).

02

Önce önemsizleri engelle: Arama, filtre, sepet, hesap yolları.

03

Allow istisnaları: Gerekirse Allow ile alt yolları izinli kıl.

04

Sitemap bildir: Tüm XML sitemap’leri ekle.

05

Noindex’i doğru yerde kullan: Meta robots veya HTTP başlığı.

9) SSS


Hayır. Robots.txt taramayı engeller fakat bir URL dış bağlantılarla yine indekslenebilir. Kesin çözüm: sayfada noindex meta etiketi veya erişim kısıtı.


Google crawl-delay yönergesini dikkate almaz. Tarama hızını Search Console’dan ayarlayabilirsiniz (uygunsa) veya sunucu ölçeklendirmesi yapın.


Hayır, yalnızca kök dizindeki dosya geçerlidir. Alt dizinlere koyulanlar botlar için standart değildir.


Leave A Comment