Rehber
2025
Google Search Console Nedir? Nasıl Kullanılır? 2025 Rehberi (Kurulum • Index • Raporlar)
Bu kapsamlı rehberde Google Search Console (GSC) kurulumundan index ve
site haritaları yönetimine, performans raporlarını okumaktan
Core Web Vitals ve manuel işlemlere kadar, SEO operasyonunuzu güvenle
yönetebilmeniz için ihtiyacınız olan her adımı pratik örneklerle anlatıyoruz.
- Hızlı kurulum: Domain Property doğrulama, Sitemap & robots.txt kontrolü.
- Net raporlama: Sorgu–sayfa–ülke–cihaz filtreleriyle fırsatları görme.
- Sağlam teknik temel: Index sorunları, CWV ve manuel işlemleri yönetme.
Google Search Console rehber kapak görseli
1) Google Search Console Nedir? Faydaları
Google Search Console, arama görünürlüğünüzü anlamak ve geliştirmek için Google’ın sunduğu ücretsiz bir araçtır.
Hangi sorgularda göründüğünüz, hangi sayfaların tıklama aldığı, index sorunları,
Core Web Vitals verileri ve bağlantılar gibi birçok kritik metriği raporlar.
- Görünürlük: Sorgu–sayfa–ülke–cihaz bazında gösterim/tıklama/TO/konum.
- Index: Dizin kapsamı (Coverage), URL inceleme, istekle indexleme.
- Deneyim: CWV, mobil kullanılabilirlik, HTTPS raporları.
- Güvenlik: Manuel işlemler, güvenlik sorunları bildirimleri.
2) Kurulum & Doğrulama (Domain Property)
Bir alan adının tüm protokollerini ve alt alanlarını kapsamak için Domain Property kullanın.
DNS’e TXT
kaydı ekleyerek doğrulayın. Alternatif olarak URL Prefix (HTML dosyası, meta etiketi, GA4, GTM) ile doğrulama yapılabilir.
- GSC → Property ekle → “Domain” seçin.
- Verilen
TXT
kaydını DNS’e ekleyin (ör. Cloudflare, cPanel). - DNS yayıldıktan sonra Doğrula butonuyla işlemi tamamlayın.
3) Sitemap & Robots.txt Yönetimi
Sitemap (site haritası), dizine girmesini istediğiniz URL’leri bildirir. Robots.txt ise tarama talimatlarını içerir.
Sitemap Önerileri
/sitemap.xml
tek kapı → alt haritalara bölün.- Ölü, noindex, 404 URL’leri sitemap’ten çıkarın.
- GSC → Site haritaları bölümünden gönderin.
Robots.txt İpuçları
- Önemli sayfaları
Disallow
etmeyin. - Site haritası yolunu ekleyin (Sitemap: …).
- Gereksiz parametre sayfalarını engellemeyi düşünün.
4) Indexleme & URL Denetimi
URL Denetimi aracı, tekil sayfaların index durumunu, kanonik seçimini ve son tarama tarihini gösterir.
“Indexlenmesi isteniyor” ile manuel tetikleme yapabilirsiniz.
- Canonical: Bir sayfaya birden çok URL’den erişiliyorsa rel=“canonical” ile asıl URL’yi belirtin.
- Noindex: Dev/düşük değerli sayfaları index dışı bırakın (meta robots).
- Soft 404: Çok zayıf içerik veya bozuk şablonlar soft 404 doğurabilir.
5) Performans Raporu: Sorgu–Sayfa Analizi
“Arama sonuçları” raporunda sorgular, sayfalar, ülkeler, cihazlar,
tarih ve arama görünümü (zengin sonuç vb.) filtresi ile fırsatları bulun.
Filtre | Ne Gösterir? | Ne Yapmalı? |
---|---|---|
Sorgular | İlk sayfaya yaklaşan kelimeler | İçerik genişlet, başlık/H2 optimize et |
Sayfalar | Düşük TO’lu sayfalar | Meta başlık/açıklama iyileştir, FAQ ekle |
Cihazlar | Mobil/masaüstü farkları | Mobil CWV ve UX önceliklendir |
Ülkeler | Coğrafi performans | Dil/yerelleştirme sayfaları aç |
6) Core Web Vitals & Sayfa Deneyimi
GSC, CrUX verilerine dayalı LCP, INP ve CLS durumunu sunar.
Yavaş şablonları tespit edip önceliklendirin.
- LCP: Critical CSS, görsel preload, next-gen format (WebP/AVIF).
- INP: Aşırı JS’yi azalt, defer/async, etkileşim handler’larını optimize et.
- CLS: Boyut belirtilmeyen görseller, FOUC, geç yüklenen reklam slotları.
7) Bağlantılar Raporu (Dahili/Dış)
Dahili linkleme, otoriteyi konu kümeleri arasında taşır. Dış bağlantılar (backlinkler) için, nitelik ve bağlam önceliklidir.
Dahili Linkleme
- Pillar → Cluster mimarisi
- İlgili yazılar modülü & breadcrumbs
- Kritik sayfalara derinlik 3’ten az
Dış Bağlantılar
- Editoryal, niş odaklı kaynaklar
- Markalı/yarı-markalı çapa metin
- Toksik profili düzenli tarayın
8) Manuel İşlemler & Güvenlik Sorunları
Spam bağlantılar, gizleme (cloaking), ince/otomatik içerik gibi ihlaller manuel işlem doğurabilir.
Güvenlikte malware, hacklenmiş içerik uyarıları yer alır. Düzeltme sonrası yeniden değerlendirme isteyin.
9) Yaygın Hatalar & Çözümler
- Yanlış kanonik: Aynı içeriğe farklı URL’ler → rel=“canonical” + 301.
- Parametre karmaşası: Filtre/arama sayfaları indexte → noindex + robots.txt.
- Bozuk sitemap: 404/noindex URL’ler → sitemap temizliği.
- JS’ye bağımlı kritik içerik: SSR/SSG veya iskelet içerik + lazy load stratejisi.
10) Uygulanabilir Kontrol Listesi
- Domain Property doğrulandı (DNS TXT)
- Sitemap gönderildi ve temiz
- Robots.txt kritik sayfaları engellemiyor
- URL Denetimi ile kilit sayfalar indexte
- Performans raporunda düşük TO sayfaları iyileştirildi
- CWV (LCP/INP/CLS) kırmızılar için eylem planı
- Dahili linkleme topic cluster’a göre kuruldu
- Manuel işlem/güvenlik uyarıları temiz
Sık Sorulan Sorular