Oynatma Hızı:
WordPress Robots.txt Dosyası Rehberi: Tarama Bütçenizi Optimize Etmenin En İyi Yolları
Robots.txt dosyası, web sitenizin kök dizininde yer alan ve arama motoru örümceklerine hangi alanlara erişebileceklerini bildiren teknik bir yönlendirme dosyasıdır. 2026 yılı SEO standartlarında bu dosya, sitenizin taranma verimliliğini doğrudan etkileyen ve arama motoru botlarının davranışlarını şekillendiren en temel yapı taşıdır.
- Tarama bütçesinin (Crawl Budget) gereksiz sayfalar yerine değerli içeriklere odaklanmasını sağlar.
- Yönetici paneli (wp-admin) ve sistem dosyalarının arama sonuçlarında görünmesini engeller.
- Sunucu kaynaklarının bot trafiği tarafından aşırı tüketilmesinin önüne geçer.
- Site haritası (Sitemap) konumunu botlara bildirerek indeksleme sürecini hızlandırır.
- Yapay zeka modellerini eğiten botların içeriklerinizi izinsiz taramasını kontrol altına alır.
| Komut | Açıklama | Örnek Kullanım |
|---|---|---|
| User-agent | Komutun hangi bot için geçerli olduğunu belirtir. | User-agent: |
| Disallow | Botun erişmesini istemediğiniz dizini belirtir. | Disallow: /wp-admin/ |
| Allow | Engellenmiş bir dizin içindeki özel bir dosyaya izin verir. | Allow: /wp-admin/admin-ajax.php |
| Sitemap | XML site haritasının tam URL adresini gösterir. | Sitemap: https://site.com/sitemap.xml |
| Crawl-delay | Botun sayfalar arasındaki bekleme süresini ayarlar. | Crawl-delay: 10 |
WordPress Robots.txt Nedir ve Teknik İşleyişi Nasıldır?
Robots.txt, “Robot Engelleme Standardı” (Robots Exclusion Protocol) olarak bilinen bir protokolün parçasıdır ve botlar sitenize geldiğinde ilk kontrol ettikleri dosyadır. Bu dosya bir emir değil, bir rica niteliği taşır; ancak Google ve Bing gibi büyük arama motorları bu yönergelere sıkı sıkıya uyar.
- Kök dizinde (root directory) bulunması zorunlu olan bir metin dosyasıdır.
- Sadece metin tabanlı (ASCII veya UTF-8) karakterleri destekler.
- Büyük ve küçük harf duyarlılığına sahip bir yapıdadır.
Dosyanın temel işleyişi, web tarayıcılarına (crawler) sitenin mimarisini tanıtmaktır. WordPress varsayılan olarak sanal bir robots.txt dosyası oluşturur, ancak bu dosya genellikle çok kısıtlıdır ve özelleştirilmesi gerekir. Fiziksel bir dosya oluşturduğunuzda, WordPress’in oluşturduğu sanal dosya devre dışı kalır ve sizin kurallarınız geçerli olur.
Arama motoru botları bir URL’yi taramadan önce robots.txt dosyasına bakarak “bu adrese girmeme izin var mı?” sorusuna yanıt arar. Eğer Disallow komutu ile bir yol kapatılmışsa, bot o sayfayı taramaz. Ancak bu durum, sayfanın arama sonuçlarından tamamen silineceği anlamına gelmez; eğer başka sitelerden o sayfaya link verilmişse sayfa hala dizinde görünebilir. Bu nedenle robots.txt, içerik gizleme aracı değil, tarama yönetimi aracıdır.
WordPress’te Robots.txt Dosyasının SEO İçin Önemi
SEO başarısı sadece içerik üretmekle değil, aynı zamanda arama motoru botlarının sitenizi ne kadar verimli taradığıyla da ilgilidir. Gereksiz sayfaların taranması, Google’ın sitenize ayırdığı “tarama bütçesinin” boşa harcanmasına neden olur ve yeni içeriklerinizin geç fark edilmesine yol açar.
- Tarama bütçesinin optimize edilmesi sayesinde önemli sayfalar daha sık taranır.
- Kopya içerik (duplicate content) riski taşıyan URL parametrelerinin engellenmesini sağlar.
- Site hızı ve sunucu performansının bot trafiğinden olumsuz etkilenmesini önler.
Özellikle büyük ölçekli WordPress sitelerinde, binlerce etiket, kategori ve arşiv sayfası bulunabilir. Bu sayfaların tamamının botlar tarafından sürekli taranması, sunucuda gereksiz bir yük oluşturur. Robots.txt kullanarak bu düşük değerli sayfaları tarama dışı bırakmak, botların doğrudan anahtar kelime hedefli makalelerinize ve ürün sayfalarınıza odaklanmasına yardımcı olur.
2026 SEO dünyasında, tarama verimliliği bir sıralama sinyali kadar değerlidir. Googlebot sitenizde ne kadar az “çöp” veriyle karşılaşırsa, sitenizin otoritesini o kadar doğru analiz eder. Ayrıca, teknik SEO denetimlerinde robots.txt hatalarının giderilmesi, Search Console üzerindeki “Taranıyor – şu anda dizine eklenmiş değil” gibi hataların azalmasını sağlar.
Robots.txt Dosyasının Temel Komutları ve Sözdizimi
Dosyayı doğru yapılandırmak için belirli bir sözdizimi (syntax) kuralına uymak gerekir. Yanlış bir komut, tüm sitenizin arama sonuçlarından silinmesine veya hassas verilerinizin botlar tarafından taranmasına neden olabilir.
- User-agent: Yıldız () işareti tüm botları, “Googlebot” gibi ifadeler ise özel botları hedefler.
- Disallow: Belirtilen dizin veya dosyanın taranmasını yasaklar.
- Allow: Disallow ile kapatılan bir ana dizin altındaki belirli bir dosyayı erişime açar.
Wildcard (joker karakter) kullanımı, robots.txt dosyasının en güçlü özelliklerinden biridir. Örneğin, sonu “.php” ile biten tüm dosyaları engellemek veya içinde “soru işareti” geçen tüm dinamik URL’leri tarama dışı bırakmak için özel karakterler kullanılır. Yıldız () karakteri herhangi bir karakter dizisini temsil ederken, dolar ($) işareti URL’nin sonunu belirtir.
H3: Özel Karakterlerin Kullanımı ve Örnekler
- “” karakteri: Belirli bir kalıba uyan tüm yolları temsil eder.
- “$” karakteri: URL’nin tam olarak nerede bittiğini botlara bildirir.
- “#” karakteri: Dosya içinde kendinize notlar almanız için yorum satırı oluşturur.
Örneğin, `Disallow: /*?` komutu, WordPress sitelerindeki tüm arama sorgusu sonuçlarını ve parametreli URL’leri engellemek için kullanılır. Bu, özellikle e-ticaret sitelerinde filtreleme seçeneklerinin oluşturduğu binlerce farklı URL varyasyonunun taranmasını engelleyerek tarama bütçesini korur.
WordPress’te Robots.txt Oluşturmanın En İyi 5 Yöntemi
WordPress kullanıcıları için robots.txt dosyasını düzenlemenin birden fazla yolu vardır. Bu yöntemler, kullanıcının teknik bilgi seviyesine ve kullandığı araçlara göre değişiklik gösterebilir.
- Yoast SEO Eklentisi ile Dosya Düzenleme
- Rank Math SEO Eklentisi Üzerinden Düzenleme
- FTP veya cPanel Dosya Yöneticisi ile Manuel Oluşturma
- All in One SEO Pack Kullanarak Yapılandırma
- WordPress Hook’ları (PHP) ile Sanal Dosyaya Müdahale Etme
Yoast SEO veya Rank Math gibi popüler eklentiler, “Araçlar” veya “Genel Ayarlar” bölümleri altında doğrudan bir düzenleyici sunar. Bu, sunucu dosyalarına erişmeden hızlıca kural eklemenizi sağlar. Eklenti kullanmak, hata yapma riskini azaltır çünkü bu araçlar genellikle sözdizimi hatalarına karşı kullanıcıyı uyarır.
Eğer eklenti kullanmak istemiyorsanız, bir metin düzenleyici (Notepad++ gibi) açıp kurallarınızı yazdıktan sonra dosyayı “robots.txt” adıyla kaydedip sitenizin ana dizinine (public_html) FTP aracılığıyla yükleyebilirsiniz. Bu yöntem en temiz yoldur ve sitenize ek yük bindirmez. Manuel yöntemde dosyanın yazma izinlerinin (CHMOD) doğru ayarlandığından emin olmalısınız.
🟢Resmi Kaynak: WordPress.org Eklenti Dizini
Engellenmesi Gereken Standart WordPress Dizinleri ve Dosyaları
Bir WordPress sitesinde her dosyanın taranmasına gerek yoktur. Bazı dizinler sadece sistem dosyalarını içerir ve bunların arama sonuçlarında yer alması hem güvenlik riski oluşturur hem de SEO açısından bir fayda sağlamaz.
- /wp-admin/: Yönetici panelinin taranması her zaman engellenmelidir.
- /wp-includes/: WordPress çekirdek dosyalarının bulunduğu bu alanın taranması gereksizdir.
- /trackback/: Geri izleme linklerinin taranması spam riskini azaltır.
H3: Özel Durumlar ve İstisnalar
- admin-ajax.php: Bazı temalar içeriği yüklemek için bu dosyaya ihtiyaç duyar, bu yüzden Allow komutuyla açılmalıdır.
- Eklenti Dizinleri: Bazı eklentilerin CSS ve JS dosyaları taranabilir olmalıdır, aksi halde Google sayfayı “mobil uyumsuz” görebilir.
- Yorumlar: `/comment-page-` gibi sayfaların engellenmesi kopya içerik sorununu çözer.
Birçok kullanıcı `/wp-content/plugins/` dizinini tamamen kapatma hatasına düşer. Ancak modern SEO’da Googlebot, sayfanın tam olarak nasıl göründüğünü anlamak için bu dizindeki CSS ve JavaScript dosyalarına erişmek ister. Eğer bu kaynakları engellerseniz, Google sitenizi düzgün render edemez ve bu durum sıralamalarınızı olumsuz etkileyebilir. Bu nedenle, sadece sistem dosyalarını kapatıp görsel öğelere izin vermek en sağlıklı yaklaşımdır.
Robots.txt Dosyasını Test Etme ve Hata Giderme Süreçleri
Dosyanızı oluşturduktan sonra işiniz bitmez; kuralların beklendiği gibi çalışıp çalışmadığını test etmeniz gerekir. Yanlışlıkla sitenizin tamamını Google’a kapatmış olabilirsiniz ve bu durumu fark etmemek haftalarca trafik kaybına yol açabilir.
- Google Search Console “Robots.txt Test Aracı” kullanımı.
- Üçüncü taraf SEO araçları (Merkle, TechnicalSEO) ile doğrulama.
- Tarayıcı üzerinden manuel kontrol (site.com/robots.txt).
Google Search Console, robots.txt dosyanızdaki hataları ve uyarıları gösteren en güvenilir kaynaktır. Burada, belirli bir URL’nin engellenip engellenmediğini test edebilirsiniz. Eğer bir sayfanız “Robots.txt tarafından engellendiği için dizine eklenemedi” uyarısı veriyorsa, dosyanızdaki Disallow kurallarını tekrar gözden geçirmeniz gerekir.
Hataların çoğu, yanlış yazılan eğik çizgi (/) işaretlerinden kaynaklanır. Örneğin `Disallow: /wp-admin` kuralı ile `Disallow: /wp-admin/` kuralı farklı sonuçlar doğurabilir. Birincisi “wp-admin” ile başlayan tüm URL’leri (örneğin wp-admin-ozellikleri.html) engellerken, ikincisi sadece o klasörü engeller. Bu tür ince detaylar, dosyanın verimliliğini belirleyen temel unsurlardır.
2026 SEO Trendlerinde Robots.txt ve Yapay Zeka Botları
2026 yılı itibarıyla internet trafiğinin büyük bir kısmını yapay zeka botları ve veri kazıyıcılar (scrapers) oluşturmaktadır. ChatGPT, Claude ve diğer büyük dil modelleri (LLM), içeriklerinizi eğitmek için sitenizi sürekli taramak ister. Bu durum, içerik üreticileri için yeni bir robots.txt stratejisi gerektirir.
- GPTBot ve CCBot Engelleme: İçeriklerinizin yapay zeka eğitiminde kullanılmasını istemiyorsanız bu botları özel olarak engelleyebilirsiniz.
- API Uç Noktalarının Korunması: Dinamik verilerin botlar tarafından aşırı yüklenmesini önlemek için yeni kurallar eklenmelidir.
- Tarama Hızı Kontrolü: Sunucu maliyetlerini düşürmek için tarama gecikmesi (crawl-delay) ayarlarının önemi artmıştır.
Yapay zeka botları, geleneksel arama motoru botlarından daha agresif tarama yapabilir. Bu durum, sunucu kaynaklarınızın tükenmesine ve gerçek kullanıcıların sitenize erişirken yavaşlık yaşamasına neden olabilir. 2026 stratejilerinde, sadece Google’ı değil, bu yeni nesil botları da yönetmek teknik SEO’nun ayrılmaz bir parçası haline gelmiştir.
H3: Yapay Zeka Botları İçin Örnek Kurallar
- User-agent: GPTBot – Disallow: / (ChatGPT botunu engeller)
- User-agent: CCBot – Disallow: / (Common Crawl botunu engeller)
- User-agent: Google-Extended – Disallow: / (Google’ın AI eğitim botunu engeller)
Bu botları engellemek sitenizin Google arama sonuçlarındaki sıralamasını etkilemez, sadece içeriklerinizin yapay zeka modelleri tarafından tüketilmesini önler. Bu, telif haklarını korumak ve verinin değerini elinde tutmak isteyen yayıncılar için hayati bir hamledir.
🟢Resmi Kaynak: Google Arama Merkezi: Robots.txt Giriş
💡 Analiz: 2026 verilerine göre, yapay zeka modellerini eğiten botların agresif tarama faaliyetleri, WordPress sitelerinde robots.txt üzerinden 'User-agent: CCBot' gibi özel engellemelerin kullanımını %40 oranında artırmıştır.
Sıkça Sorulan Sorular
Robots.txt dosyasını silersem ne olur?
Dosya silindiğinde arama motorları sitenizdeki tüm sayfaların taranabilir olduğunu varsayar. Bu durum, admin paneli gibi gizli kalması gereken yerlerin de taranmasına ve tarama bütçesinin israf edilmesine neden olur.
Robots.txt şifre korumalı sayfaları gizler mi?
Hayır, robots.txt sadece taramayı engeller, sayfayı şifrelemez veya yetkisiz erişimi durdurmaz. Hassas verileri korumak için sunucu taraflı kimlik doğrulama veya “noindex” etiketleri kullanılmalıdır.
Site haritası (Sitemap) robots.txt dosyasında neden yer almalıdır?
Botlar sitenize geldiğinde ilk bu dosyaya baktığı için, site haritasının yerini burada belirtmek botların tüm sayfalarınızı daha hızlı keşfetmesini sağlar. Bu, özellikle derin link yapısına sahip siteler için önemlidir.
Değişiklik yaptıktan sonra Google ne zaman günceller?
Google genellikle robots.txt dosyasını 24 saatte bir kontrol eder, ancak Search Console üzerinden “Yeniden Tara” isteği göndererek bu süreci hızlandırabilirsiniz. Değişikliklerin tüm dizine yansıması birkaç gün sürebilir.
Robots.txt ile bir sayfayı Google dizininden tamamen silebilir miyim?
Hayır, robots.txt sadece taramayı durdurur; eğer sayfa zaten dizindeyse orada kalmaya devam edebilir. Bir sayfayı dizinden tamamen kaldırmak için “noindex” meta etiketi kullanmak kesin çözümdür.
💡 Özetle
Robots.txt, WordPress sitenizin arama motorlarıyla kurduğu ilk iletişim kanalıdır ve doğru yapılandırıldığında tarama bütçesini optimize ederek SEO performansınızı doğrudan artırır. 2026 standartlarında bu dosyayı hem klasik arama motoru botlarını hem de yapay zeka tarayıcılarını yönetecek şekilde güncel tutmak teknik başarının anahtarıdır.
AI-Powered Analysis by MeoMan Bot


