
Teknik SEO Kontrol Listesi
Tarama ve Dizine Ekleme
Teknik denetim sırasında bakılması gereken ilk şey, sitenizin arama motorları tarafından nasıl indekslendiği ve tarandığıdır. Sonuçta, sitenizdeki sayfalar taranamıyorsa, dizine eklenmezler (birkaç istisna dışında). Sonuç olarak, dizinde temsil edilmeyen sayfalar sıralamaya katılmayacaktır.
Google Search Console’daki Sayfa Dizine Ekleme Raporu’nu inceleyin
Web sitenizin indekslenmesini analiz etmenin en doğru ve güvenilir yolu Google Search Console’da yer alan Sayfa İndeksleme Raporu’nu analiz etmektir.
Dizine eklenen sayfalar raporuna bakın ve hangi sayfaların dizine eklendiğini kontrol edin. Filtreleme veya sıralama seçenekleri olan sayfalar olup olmadığına, test sayfaları veya dizine eklemek istemediğiniz başka sayfalar olup olmadığına bakın.
Ayrıca, hariç tutulan sayfalara da bakın.
Hariç Tutulan Sayfalar raporundaki tüm durumlar bir sorun değildir. Dikkatinizi hariç tutulan tüm sayfalara değil, yalnızca Google’ın davranışının niyetlerinizle uyuşmadığı sayfalara odaklamalısınız.
Aşağıdaki tabloda, dikkat ve daha derin analiz gerektiren durumları görebilirsiniz:
Durum | Ne anlama geliyor | Ne yapmalısınız |
---|---|---|
Yönlendirme Hatası | Google, yönlendirme sorunları nedeniyle URL’yi izleyemedi. |
|
Sunucu Hatası | Sunucu 5xx hatası döndürdü. |
|
Keşfedildi – dizine eklenmedi | Google sayfayı biliyor ancak henüz taramadı. Tarama bütçesiyle ilgili sorunları gösterir. |
|
Tarandı – dizine eklenmedi | Google sayfayı ziyaret etti ancak dizine eklememeyi seçti. Genellikle düşük sayfa kalitesini gösterir. |
|
Kullanıcı tarafından seçilen kanonik olmadan çoğalt | Google, sayfanın kopya olduğunu kabul eder, ancak siz bir standart sayfa belirtmemişsinizdir. |
|
Yinelenen, Google kullanıcıdan farklı bir kanonik seçti | Google, belirttiğiniz standart sayfayı yok saydı. |
|
Yumuşak 404 | Sayfa “boş” veya “bulunamadı” gibi görünüyor, ancak 200 Tamam durumu döndürüyor. |
|
Diğer durumlar muhtemelen herhangi bir soruna işaret etmiyor. Bununla birlikte, sayfaların yanlışlıkla kaldırılmadığından, yönlendirilmediğinden, standartlaştırılmadığından veya dizine eklenmesinin engellenmediğinden emin olmak için bu raporlar da gözden geçirilmeye değerdir.
Durum Ne | anlama geliyor | Bilmeniz gerekenler |
---|---|---|
Uygun kanonik etikete sahip alternatif sayfa | Google, belirttiğiniz standart sayfayı doğru bir şekilde onayladı. |
|
URL robots.txt tarafından engellendi | Google sayfayı tarayamıyor. |
|
URL ‘noindex’ olarak işaretlendi | Sayfada noindex yönergesi bulunmaktadır. |
|
Bulunamadı (404) | Sayfa mevcut değil. |
|
Yetkisiz istek nedeniyle engellendi (401)/ Erişim yasak nedeniyle engellendi (403) | Sayfa yetkilendirme tarafından engellendi veya yasaklandı. |
|
Yönlendirmeli sayfa | Sayfa başka bir sayfaya yönlendirir. |
|
URL, diğer 4xx sorunu nedeniyle engellendi | 404 dışında bir 4xx hatası nedeniyle sayfaya erişilemiyor (ör. 403, 401, 410 vb.). |
|
Google Yardım Merkezi’nde, sorun örnekleri ve her bir durumun ayrıntılı bir açıklaması da dahil olmak üzere sayfa raporunun kapsamlı bir açıklamasını bulabilirsiniz.
Screaming Frog, dizine eklenen veya dizinden çıkarılan sayfaların analiz edilmesine de yardımcı olabilir. Bunu yapmak için, site taramasına başlamadan önce Google Search Console API’sini bağlamanız gerekir.
Bağlanmak için Yapılandırma -> API Erişimi -> Google Search Console’a gidin. Google ile oturum aç’ı tıklayın ve talimatları izleyin.

Source: Screaming Frog
Bağlandıktan sonra URL incelemesini etkinleştirin ve dizine eklenemeyen URL’ler için dizine ekleme denetimini yoksayma seçeneğini de etkinleştirebilirsiniz.

Source: Screaming Frog
Ardından, her bir sayfanın durumunu Search Console’a (Google’ın gördüğü şekilde) göre ve tarama işlemi sırasında belirlenen gerçek durumuna göre görebilir ve karşılaştırabilirsiniz.

Source: Screaming Frog
Her site için günde yalnızca 2000 URL’nin mevcut olduğunu lütfen unutmayın, bu nedenle bu yöntem küçük siteler için daha uygundur.
sitemap.xml’nizde ne olduğunu kontrol edin
Sitemap.xml, arama motoru tarayıcılarına bir sitedeki sayfaların listesinin yanı sıra (isteğe bağlı olarak) son değiştirilme tarihleri, güncelleme sıklığı ve önerilen tarama önceliği hakkında bilgi sağlayan bir XML dosyasıdır.
Genellikle sitenin köküne yerleştirilir, örneğin: https://example.com/sitemap.xml. Sitemap.xml, arama motorlarının yeni veya güncellenmiş sayfaları daha hızlı bulmasına yardımcı olur. Ek olarak, bu dosyaya bir sayfanın dahil edilmesi, zayıf da olsa bir sayfanın kanonik sürümünü belirlemek için sinyallerden biridir .

Source: e-commerce sport store
sitemap.xml dosyası özellikle şunlar için kullanışlıdır:
- az sayıda dış bağlantı içeren yeni siteler;
- birçok sayfaya sahip büyük siteler;
- çok fazla medya içeriğine sahip siteler;
- sık sık güncellenen haber siteleri.
Sitemap.xml, dizine eklemek istediğiniz tüm sayfaları içermelidir.
Sitemap.xml’da yer alan sayfaları analiz etmek için aynı Screaming Frog’u veya diğer tarayıcıları kullanabilirsiniz. Screaming Frog’da, sitemap.xml Liste Modunda ayrı olarak taranabilir veya normal bir site taramasına dahil edilebilir. Bunu yapmak için, Yapılandırma -> Örümcek -> Tarama’da, XML site haritası taramasını etkinleştirin ve taramak istediğiniz site haritalarının mutlak URL’lerini ekleyin.
Bir Site Haritası oluşturmak için çeşitli çevrimiçi hizmetlerin kullanılması önerilmez, çünkü bunlar yalnızca otomatik olarak güncellenmeyecek statik bir site haritası oluşturabilir. En uygun seçenek, sitenin üzerinde çalıştığı CMS için eklentiler kullanarak sitemap.xml oluşturmak veya site haritasını belirtilen koşullara göre oluşturan ve sitede değişiklik yapıldığında otomatik olarak güncelleyen özel bir komut dosyası yazmaktır.
sitemap.xml oluştururken, dosyanızın sitemap.xml protokolüne uygun olduğundan emin olun. Bunun için https://www.xml-sitemaps.com/validate-xml-sitemap.html gibi çeşitli çevrimiçi doğrulayıcıları kullanabilirsiniz.
Protokolde listelenen tüm etiketlerin dahil edilmesi gerekli midir? Her zaman değil. Örneğin, Google yalnızca <loc> ve <lastmod> etiketlerini dikkate alır. <lastmod> etiketindeki tarihin doğru olduğundan emin olun. Manipüle edilmeye çalışılırsa, Google bu etiketi yoksayabilir.
robots.txt’da hata olmadığından emin olun
robots.txt dosyası, bir arama botunun bir siteyi taramadan önce baktığı ilk yerdir. Sitenin hangi bölümlerinin taranabileceğini veya taranamayacağını ve bunun sonucunda hangi sayfaların arama motorları tarafından dizine ekleneceğini belirler. Her zaman https://example.com/robots.txt yerinde bulunmalıdır.
Bu dosya, sitenin taranmasını (dizine eklenmesini değil!) yönetmek için kullanılan bir araçtır. Bazı sayfalar, robots.txt’da engellenmiş olsalar bile, yine de dizine eklenebilir (genellikle bunlara dahili veya harici bağlantılar varsa). Bu tür sayfalar (robots.txt’da engellenmesine rağmen dizine eklenmiştir) Google Search Console’da “robots.txt tarafından engellenmiş olsa da dizine eklenmiştir” raporunda görülebilir.

Source: Search Console
Teknik bir SEO denetiminin bir parçası olarak robots.txt dosyasıyla ilgili kontrol ettiğinizden emin olmanız gerekenler şunlardır:
- Dosyanın kullanılabilirliği
Dosya https://example.com/robots.txt erişilebilir olmalı ve 200 Tamam yanıt durumu vermelidir. Yokluğu, indirme hataları veya yönlendirmeleri (301, 302, 403, 404), arama motorlarının sitenin tarama kurallarını doğru bir şekilde anlamasını engelleyebilir.
- Sözdizimi ve doğruluk
Dosya yapısının standartlara uygun olup olmadığını kontrol edin. Temel bir şablon örneği:
- Kullanıcı aracısı: *
- İzin verme: /admin/
- İzin ver: /public/
- Site Haritası: https://example.com/sitemap.xml

Source: nike.com
- Disallow ve Allow yönergelerine izin ver
Önemli sayfalara yanlışlıkla izin verilmediğini kontrol edin, örneğin:
- Ana Sayfa (/)
- Ürün Kartları (/product/)
- Blog veya makaleler (/blog/, /articles/)
Yaygın bir hata, yönetim klasörlerini engellerken görüntüleri, stilleri ve komut dosyalarını engellemektir. Böyle bir durumda, yönetim klasörü engellenmiş olsa da, bazı dosya türlerinin taramaya açık olması gerektiği belirtilmelidir. Bu genellikle WordPress sitelerinde, tüm kullanıcı içeriğinin bulunduğu klasör olan Disallow: /wp-content engellendiğinde olur.
Bu durumda, tarama için yalnızca belirli bir formattaki dosyalar açılabilir:
- İzin ver: /wp-content/uploads/*.css
- İzin ver: /wp-content/uploads/*.js
- İzin ver: /wp-content/uploads/*.jpeg
robots.txt doğrulamak ve eklemek istediğiniz yönergeleri test etmek için bu aracı kullanabilirsiniz.
- Diğer yönergelerle uyumluluğu kontrol edin
Hatalar genellikle aşağıdakilerle çakıştığında ortaya robots.txt:
- meta etiketi <meta adı=”robotlar” content=”noindex”>
- Kurallı
Örneğin, bir sayfa robots.txt’da açıksa ancak noindex aracılığıyla engellenmişse taranır, ancak dizine girmez. Bu kabul edilebilir, ancak kasıtlı olarak yapılması önemlidir.
Ayrıca, yaygın bir sorun, kaynak kodunda botlar için başka talimatların olması ve robots.txt’da sayfanın aynı anda engellenmesidir. Arama motoru robotları, robots.txt’da engellenen sayfaları taramaz. Kodda belirtilen etiketleri, örneğin kanonikleştirmeyi görmezler. Yani, böyle bir kanonik basitçe hesaba katılmayacaktır.
Dahili bağlantınızı kontrol edin
Teknik denetimin temel görevlerinden biri, sitenin dahili bağlantısının doğru şekilde çalıştığından emin olmaktır. Bu, tüm dahili bağlantıların dizine eklenmeye açık olan, 200 OK durum kodu döndüren, yönlendirme içermeyen ve en önemlisi 4xx/5xx hataları olan sayfalara işaret etmeyen gerçek, mevcut sayfalara yönlendirmesi gerektiği anlamına gelir. İlk bakışta, bu küçük bir ayrıntı gibi görünebilir, ancak pratikte, yanlış dahili bağlantılar bile olumsuz etkileyebilir:
- Web sitelerinin arama motorları tarafından taranmasının verimliliği,
- İç SEO ağırlığının dağılımı (PageRank),
- Kullanıcı deneyimi.
Analizin ilk adımı, tüm dahili bağlantılarda hata olup olmadığını kontrol etmektir. 404, 410 veya diğer hatalara (403, 500 gibi) sahip sayfalara yönlendiren kırık bağlantıları belirlemek özellikle önemlidir.
Aşağıda, dahili bağlantılarda meydana gelebilecek ana hata türlerini, anlamlarını ve bunları düzeltmek için önerilen eylemleri içeren bir tablo bulunmaktadır.
Hata Türü | Ne anlama gelir? | Ne yapmalı |
---|---|---|
404 | Sayfa bulunamadı | Bağlantıyı kaldırın veya çalışan bir bağlantıyla değiştirin |
403 | Erişim yasak | Erişim ayarlarını kontrol edin |
301/302 | Yönlendirme | Nihai URL’nin bağlantısını güncelleyin |
5xx | Sunucu hatası | Sunucuyu veya CMS’yi kontrol edin |
Sayfa hiyerarşisinin derinliğini analiz etmek, yani ana içeriğin ana sayfadan hangi düzeyde ve kaç tıklama uzakta olduğunu belirlemek de önemlidir. Önemli sayfaların üçüncü seviyeden daha derin olmaması tercih edilir – bu, hem arama motorları hem de kullanıcılar için erişilebilirliklerini artırır.
Analizin temel unsurlarından biri, “yetim bırakılmış” sayfaları, yani kendilerine işaret eden dahili bağlantıları olmayan sayfaları belirlemektir. Bu sayfalar site haritasında yer alsa bile, dahili bağlantıların olmaması onları daha az erişilebilir hale getirir.
Ek olarak, bağlantı metinlerini – bağlantı içeren kelimeler ve ifadeleri analiz etmek önemlidir. Bağlantı metinleri, arama motorlarının bağlantının bağlamını anlamasına yardımcı olduğu için alakalı ve anlamlı olmalıdırlar.
Tarama istatistiklerini analiz edin
Tarama İstatistikleri analizi, Googlebot’un bir siteyle nasıl etkileşime girdiğini anlamanın bir yoludur: hangi sayfaların tarandığı, ne sıklıkta tarandığı ve bunun SEO’yu nasıl etkilediği. Bu veriler Google Search Console’da → Ayarlar → Tarama İstatistikleri’nde mevcuttur. Aşağıdaki tabloda, bu raporda öğrenebileceğiniz en yaygın sorunları görebilirsiniz:
Sorun: Raporda | nelere dikkat edilmelidir: | Olası nedenler |
---|---|---|
Taramada keskin azalma | Günde daha az tarama | Erişilebilirlik sorunları, robots.txt’da yanlış ayarlar, bloklar, 5xx hataları |
Birçok 4xx ve 5xx hatası | URL’lerdeki hatalar | Silinen sayfalar, bozuk bağlantılar, sunucu sorunları |
Tepki süresi arttı | >1 saniye — bir uyarı işareti | Barındırma sorunları, sunucu aşırı yüklenmesi |
Birçok 3xx yönlendirmesi | Doğrudan URL’ler yerine yönlendirmeler | Yanlış yönlendirmeler, yönlendirme zincirleri, yönlendirmeli çok sayıda dahili bağlantı |
CSS/JS taranmadı | İstatistiklerde eksikler | robots.txt tarafından engellendi |
Ek olarak, sunucu günlükleri analiz edilebilir. Yalnızca Google Search Console’dan toplanan veriler yerine arama botlarından (yalnızca Googlebot değil, aynı zamanda Bingbot, YandexBot ve diğerleri) gelen gerçek istekleri görmenize olanak tanırlar.
Bu, önemli miktarda zaman gerektiren gelişmiş, “ham” bir tanı yöntemidir. Verileri görselleştirmek için GoAccess veya Screaming Frog Log File Analyzer gibi açık kaynaklı araçları kullanabilirsiniz.
Yapılandırılmış verileri uygulayın
Yapılandırılmış veriler, bir web sayfasında arama motorlarının sayfanın içeriğini daha doğru ve derinlemesine anlamasına yardımcı olan özel bir biçimlendirme biçimidir. Google ve diğer arama motorları için sayfada tam olarak ne olduğu hakkında bir “ipucu” görevi görür – bir makale, ürün, tarif, inceleme, video vb. Resmi bir sıralama sinyali olmasa da, arama motorlarının sayfayı nasıl anladığını iyileştirerek sıralamaları dolaylı olarak etkiler.
Web sitelerindeki yapılandırılmış veriler için kullanılan ana standart veya protokol Schema.org’dir. OpenGraph gibi başka protokoller de vardır, ancak sosyal ağlar için kullanılır.
Schema.org, Google, Microsoft, Yahoo ve Yandex tarafından web üzerinde yapılandırılmış veriler için birleşik bir standart geliştirmek ve sürdürmek için oluşturulmuş ortak bir projedir.
Schema.org, en yaygın olarak kullanılanları aşağıdaki tabloda listelenen yüzlerce varlık türü içerir:
Kategori | Varlık (@type) | Amaç |
---|---|---|
İçerik ve Sayfalar | Makale | Bir makale veya haber içeriği |
Blog Gönderimi | Bir blog yazısı | |
Gazete Makalesi | Google Haberler için bir haber makalesi | |
Sıkça Sorulan SorularÖğr. | Sıkça Sorulan Sorular (SSS) sayfası | |
Nasıl Yapılır | Adım adım kılavuz | |
İnternet Sayfası | Bir web sayfası hakkında genel bilgiler | |
Ürünler ve Teklifler | Ürün | Ürün açıklaması |
Teklif | Fiyat teklifi | |
Toplu Teklif | Farklı satıcılardan bir ürün için fiyat aralığı | |
İncelemeler ve Derecelendirmeler | Eleştiri | Bir ürün veya hizmetin gözden geçirilmesi |
Derecelendirme | Sayısal bir derecelendirme (genellikle bir İnceleme içinde) | |
Toplam Derecelendirme | Birden fazla yoruma dayalı ortalama puan: | |
Organizasyonlar ve İnsanlar | Organizasyon | Bir şirketin veya markanın açıklaması |
Yerel İşletme | İletişim bilgileri ve programı olan yerel bir işletme | |
Kişi | Bir kişi (örneğin, makale yazarı, konuşmacı vb.) | |
Olay | Olay | Çevrimiçi veya çevrimdışı bir etkinlik |
Navigasyon ve Yapı | Ekmek KırıntıListesi | Ekmek kırıntıları gezintisi |
SiteNavigationÖğesi | Ana menü öğeleri | |
Multimedya | Video Nesnesi | Meta veri içeren video (video snippet’leri için) |
Görüntü Nesnesi | Açıklamalı resim | |
Eğitim ve İstihdam | Kurs | Çevrimiçi bir kurs veya eğitim programı |
İş İlanı | İş ilanı (Google for Jobs için) |
Yapılandırılmış verilerin JSON-LD biçiminde uygulanması önerilir. Bu blok, HTML belgesinin <başına> veya <gövdesine> yerleştirilir, ancak kullanıcıya gösterilmez – arama botları tarafından okunur. Google, Bing ve Yahoo gibi tüm büyük arama motorları bu biçimi destekler. JSON-LD kodunun bir örneği aşağıda gösterilmiştir:
<script type=”application/ld+json”>
{
“@context”: “https://schema.org”,
“@type”: “Makale”,
“headline”: “JSON-LD nedir?”,
“yazar”: {
“@type”: “Kişi”,
“isim”: “John Smith”
},
“datePublished”: “2025-12-01”
}
</script>
Yapılandırılmış verileri uygularken, Schema.org protokolünü izleyin ve uygulanan mikro veri türlerinin doğruluğunu kontrol etmek için doğrulayıcıyı kullanın. Schema.org protokolünden alınan bazı yapılandırılmış veri türleri, Google arama sonuçlarında zengin snippet’lerin görüntülenmesine de yardımcı olabilir.
Google’ın zengin snippet’ler için yapılandırılmış veri gereksinimlerinin Schema.org standardından biraz farklı olduğunu unutmayın. Genellikle, Schema.org protokolünün gerektirdiğinden daha fazla alanın belirtilmesi gerekir. Bu nedenle, bir Zengin Snippet elde etmek istiyorsanız, Google’ın yapılandırılmış veriler için yönergelerini izleyin. Zengin snippet doğrulayıcıyı kullanarak mikro veri uygulamasının doğruluğunu kontrol edebilirsiniz.
Ayrıca birçok mikro veri oluşturucu vardır, ancak bunlar yalnızca sayfadaki içerik değişiklikleriyle güncellenmeyecek statik kod oluşturabilirler. Mikro verilerdeki bilgilerin, sayfada kullanıcılar tarafından görülebilen bilgilerle eşleşmesini sağlamak, Google’ın yapılandırılmış veri gereksinimlerinin bir parçasıdır. Yapılandırılmış verilerle ilgili politika ihlal edilirse, sayfa tüm zengin snippet’leri kaybedebilir ve bazı durumlarda manuel cezalarla karşı karşıya kalabilir. Bu nedenle, mikro verilerinizin otomatik olarak oluşturulduğundan ve otomatik olarak güncellendiğinden emin olun.
İçerik
Teknik bir SEO denetiminin bir parçası olarak, temel içerik özelliklerini değerlendirmek önemlidir: başlıkların ve meta etiketlerin yapısından resimler ve potansiyel yinelenen sayfalar için alt özelliklerin varlığına kadar. Bu unsurlar hem indekslemeyi hem de arama motorlarının siteyi nasıl algıladığını doğrudan etkiler.
Web sitenizi tam kopyalar için test edin
Tam kopyalar, aynı içeriğe sitedeki farklı URL’ler aracılığıyla erişilebildiğinde ortaya çıkar. Kopyalar sitenizin sıralamasına tamamen zarar verebilir.
En yaygın tam kopya türleri şunlardır:
- Hem HTTP hem de HTTPS üzerinden erişilebilirlik
- WWW ile ve WWW olmadan erişilebilirlik
- Sonunda eğik çizgi olsun veya olmasın erişilebilirlik
- URL’lerin büyük ve küçük harf olarak erişilebilirliği
- Sayfaya .html, .htm, .php, .aspx gibi dosya uzantılarıyla ve bunlar olmadan erişilebilir
- UTM etiketleri gibi sayfa içeriğini değiştirmeyen parametreler
- Farklı URL’ler altında aynı içerik. Örneğin, bir ürün iki farklı URL üzerinden erişilebilen iki kategoride listelenir. Veya URL’deki kategori ile ve kategori olmadan erişilebilen ürün sayfası.
- Sitenin test sürümleri (geliştirme için kullanılan DEV etki alanı).
URL varyasyonlarıyla ilgili sayfa kopyalarını bulmak için URL’leri manuel olarak test edin ve bu URL varyantları için sunucu yanıt kodunu kontrol edin. Sunucu yanıt kodlarını kontrol etmek için https://httpstatus.io/ gibi herhangi bir aracı kullanabilirsiniz. URL varyasyonlarını girin ve erişilebilirliklerini kontrol edin.

Source: httpstatus.io/ website + test of a client’s website
HTTP/HTTPS, www/without-www, eğik çizgili/eğik çizgisiz, büyük/küçük harf varyasyonları ve .html, .htm, .php, .aspx gibi uzantılara sahip ve bunlar olmayan sayfaların erişilebilirliği ile ilgili sorunları düzeltmek için, tercih edilen sürüme bir 301 yönlendirmesi ayarlamak gerekir.
URL’nin bazı kısımlarını ekleyerek veya çıkararak aynı içeriğin kullanılabilirliği nedeniyle kopyalar bulunduğunda (örneğin, bir ürün iki kategoride mevcuttur), URL yapısını ve site yapısını yeniden gözden geçirmek en iyisidir. UTM ve diğer parametreler için kanonikleştirme de bir çözüm olabilir. Ancak, Google’ın kanonik etiketi bir öneri olarak ele aldığını ve hangi URL’nin seçileceğine ilişkin nihai kararın Google’a ait olduğunu unutmamak önemlidir.
Sitenin test edilmiş bir sürümü Google dizininde bulunursa, dizine eklenmesi engellenmeli ve Google Search Console aracılığıyla kaldırılması için bir istek gönderilmelidir.
Kısmi sayfa yinelemelerini çözümleme
Kısmi sayfa yinelemeleri, sitedeki iki veya daha fazla sayfa çok benzer, ancak tamamen aynı olmayan içeriğe sahip olduğunda ortaya çıkar. En yaygın kısmi kopya türleri şunlardır:
- Sayfaları sıralama
- Sayfaları filtreleme
- Sayfalandırma sayfaları
- Benzer ürünler içeren sayfalar (ör. ürünler yalnızca renklerine göre farklılık gösterir)
- Sitenin aynı dilde, ancak farklı bölgeler için birden fazla sürümü (ör. ABD, İngiltere ve Avustralya için üç İngilizce site).
Elbette, her site benzersizdir ve teknik bir denetim sırasında, belirli çözümler gerektiren diğer yinelenen içerik durumlarını belirleyebilirsiniz. Ancak, yukarıdaki örnekler en yaygın olanlarıdır.
Kısmi kopyalar genellikle site tarama işlemi sırasında çeşitli tarayıcılar tarafından bulunur. Tekrar eden parametrelere sahip olacaklar ve ana kategori sayfalarıyla aynı başlığa ve H1’e sahip olabilirler.
Kısmi yinelemeleri ortadan kaldırmak için, bu sayfalar sitenin işlevselliği için gerekli olduğundan bir yönlendirme ayarlayamazsınız. Aşağıda, kısmi kopyalarla başa çıkma yöntemlerini tartışacağız.
Sayfaları Sıralama ve Filtreleme
Bu sayfaların robots.txt dosyasında taranması engellenebilir, ancak özellikle bağlantılar bu sayfalara yönlendiriyorsa bu Google tarafından göz ardı edilebilir. Bu, tarama bütçesinin korunmasına yardımcı olacaktır.
Ayrıca, bu sayfaların dizine eklenmesini engelleyecek ancak Google’a taranmamaları gerektiğini söylemeyecek olan <meta name=”robots” content=”noindex, nofollow” /> yönergesi aracılığıyla da engelleyebilirsiniz.
Bu durumda en iyi yaklaşım, kullanıcı sıralama veya filtreler uyguladığında, ek URL’ler ve sayfaları filtrelemek veya sıralamak için bağlantılar oluşturmadan sayfadaki içeriği güncellemek için JavaScript kullanmaktır.
Farklı URL’lerde bulunan ürün çeşitleri
İdeal olarak, tüm ürün varyantları, kullanıcının JavaScript kullanarak URL’yi değiştirmeden istediği rengi veya boyutu seçebileceği tek bir sayfada birleştirilmelidir. Bununla birlikte, her varyant için ayrı bir sayfa kullanılıyorsa, ana ürün sayfasına kanonik bir bağlantı belirtilmelidir. Ancak, daha önce de belirtildiği gibi, Google, kullanıcı tarafından belirlenen kanonik ayarı yok sayabilir.
Sayfalandırma Sayfaları
Sayfalandırma sayfalarının dizine eklenmesi engellenmemelidir. Google’ın kategorinin ilk sayfasını ana sayfa olarak kabul etmesini sağlamak için:
- sitemap.xml dosyasına yalnızca ilk sayfayı ekleyin.
- Tüm sayfalandırma sayfalarında ana kategori sayfasına bir bağlantı ekleyin.
- Sayfalandırma sayfalarının başlığına ve H1’ine sayfa numaraları ekleyin. Örneğin, “Beyaz Gömlekler – Sayfa 2”.
Sayfalar tek bir dilde ancak farklı bölgeler için kullanılabilir
Bu durumda, Hreflang özniteliklerinin kullanılması gerekir. Arama motorlarına, dil tercihlerine ve konumlarına göre kullanıcılara bir web sayfasının hangi dilini ve bölgesel sürümünü göstermeleri gerektiğini söylemek için kullanılırlar.
Hreflang özniteliklerini uygulamanın birkaç yolu vardır:
- HTTP üstbilgilerinde
- <head> bölümündeki etiketler aracılığıyla
- sitemap.xml’daki etiketler aracılığıyla
Uygulamanın en kolay yöntemi, <head> bölümündeki etiketlerdir.
<head> bölümündeki etiketler aracılığıyla uygulanan hreflang özelliklerinin karşılaması gereken kurallar vardır:
-
- Öznitelik şu biçimde olmalıdır: <link rel=”alternate” hreflang=”lang_code_country_code” href=”url-of-page” />
- Dil ve ülke kodları geçerli olmalıdır. Her dil mutasyonu için geçerli kodu seçmek için lütfen bu sayfaya bakın.
- Her dil sürümü, hreflang özelliklerinde kendisini ve diğer tüm dil sürümlerini listelemelidir. Bu, her sayfanın aynı sayıda hreflang özelliğine sahip olması gerektiği anlamına gelir
- Hreflang özniteliklerindeki bağlantılar mutlak ve dizine eklenebilir olmalıdır.
Bir kod örneği:
<link rel=”alternate” href=”https://example.com/en-us/page” hreflang=”en-us” />
<link rel=”alternate” href=”https://example.com/en-gb/page” hreflang=”en-gb” />
<link rel=”alternate” href=”https://example.com/en-us/page” hreflang=”x-default” />
Kopyalar için başlıkları, h1, h2’leri ve açıklamaları kontrol edin
Başlıklar, açıklamalar ve H1-H6 başlıkları sayfa içi SEO ile ilgili olsa da, teknik bir denetim içindeki analizleri, kopyaları tespit etmek için yararlı olabilir.
Onları analiz etmek için bu etiketleri toplayan herhangi bir tarayıcıyı kullanabilirsiniz.
Yinelenen başlıklar, H1-H6 etiketleri ve açıklamalar bulunduğunda, sayfa verilerini analiz edin ve yinelemenin nedenini belirleyin. Bunun nedeni, sitenin hem HTTP hem de HTTPS aracılığıyla kullanılabilirliği, ana kategori etiketlerinin filtre sayfalarında çoğaltılması veya bu etiketlerin yanlış doldurulduğu bir insan hatası olabilir.
Görüntüler için alt nitelikleri optimize edin
Alt öznitelikleri, <img> etiketinin içinde şu şekilde kullanılan bir HTML özelliğidir: <img src=”image.jpg” alt=” Resmin açıklaması”>. Temel amacı, görüntü içeriğinin metin açıklamasını sağlamaktır. Bu metin, görüntü yüklenmezse gösterilir ve görme engelli kullanıcılara yardımcı olmak için ekran okuyucular tarafından yüksek sesle okunur. Uygun, açıklayıcı alt metin, resimlerinizin görsel aramada sıralamasına yardımcı olabilir ve sayfanın genel alaka düzeyini artırabilir.
Çok fazla görsel içeriğe sahip bir web siteniz varsa, alt özelliklerin optimizasyonu, metin içeriğine dayanan klasik web sitelerinden daha önemli bir adımdır.
Screaming Frog, Ahrefs, SemRush vb. gibi birçok tarayıcı, alt öznitelikleri analiz eder ve orada eksik veya boş alt özniteliklerle ilgili verileri alabilirsiniz.
Resmi Google dokümanlarında açıklayıcı alt özelliklerin oluşturulması hakkında daha fazla bilgi edinebilirsiniz.
Web sitesi hızı, mobil ve kullanıcı dostu olma
HTTPs protokolünü kullanın
Güvenli HTTPS protokolünün kullanılması, kullanıcı ve sunucu arasındaki veri iletiminin güvenliğini sağlamak için çok önemlidir. Yalnızca kullanıcı güvenini artırmakla kalmaz, aynı zamanda SEO üzerinde de olumlu bir etkiye sahiptir. HTTPS’yi kontrol etmek için tarayıcının adres çubuğuna bakmanız yeterlidir – bir asma kilit simgesi görünmelidir.
Ayrıntılı bir analiz için, SSL sertifikasının durumu hakkında tam bir rapor sağlayacak ve olası sorunları belirleyecek olan SSL Labs hizmetini kullanabilirsiniz.
HTTPS sayfalarında karışık içerik (HTTP kaynakları) olmadığından emin olmak da önemlidir. Bu analiz için, hem HTTP hem de HTTPS içeren URL’leri gösterecek olan Google Search Console’daki HTTPS raporunu kullanabilirsiniz.

Source: Search Console
Temel Web Hayati Değerlerini İyileştirin
Core Web Vitals, bir web sitesindeki kullanıcı deneyiminin kalitesini değerlendirmek için Google tarafından önerilen bir dizi metriktir. Bu metrikler, sayfadaki içeriğin yüklenme hızına, etkileşimine ve görsel kararlılığına odaklanır. Bunlar üç temel gösterge içerir:
Metrik | Açıklama | Optimal Değer |
---|---|---|
En Büyük İçerikli Boya (LCP) | Sayfadaki en büyük görünür öğenin (ör. resim veya metin) yüklenme süresini ölçer. | 2,5 saniyeden az |
İlk Giriş Gecikmesi (FID) | Sayfanın ilk kullanıcı etkileşimine (ör. bir düğmeyi veya bağlantıyı tıklama) yanıt vermesi için geçen süreyi ölçer. | 100 milisaniyeden az |
Kümülatif Düzen Kayması (CLS) | Sayfanın görsel kararlılığını, yani sayfa yüklemesi sırasında öğelerin ne kadar hareket ettiğini değerlendirir. | 0,1’den az |
Gerçek kullanıcılardan toplanan veriler, Search Console Raporu “Önemli web verileri”nde (toplu veriler) veya PageSpeed Insights’ta (bireysel testler için) görüntülenebilir. Core Web Vitals üzerinde çalışırken, CWV metrikleri üzerinde büyük etkisi olan sorunları tanımlamanız gerektiğini unutmayın. Örneğin, LCP’yi optimize ederken, 4 unsurdan (TTFB, Yükleme Gecikmesi, Yükleme Süresi veya Oluşturma gecikmesi) hangisinin yüksek LCP puanına en fazla katkıda bulunduğunu tanımlamanız gerekir.
Aşağıdaki örnekte, TTFB veya Yükleme Süresi optimizasyonuna odaklanmamız gerekmediği görülmektedir. Bunun yerine, tüm enerjimizi Load Delay’i iyileştirmeye ve ardından Render Delay’e harcayabiliriz.

Source: pagespeed.web.dev
Web sitenizin mobil uyumlu olduğundan emin olun
Mobil uyumluluk, Google’ın mobil öncelikli indeksleme yaklaşımına geçtiği 2018’den bu yana çok önemli bir faktör haline geldi. Bu, Google’ın artık sıralama ve dizine ekleme için masaüstü sürümü yerine öncelikle bir web sitesinin mobil sürümünü kullandığı anlamına gelir.
Google Search Console’da, URL inceleme aracında “Canlı URL’yi Test Et” seçeneğine tıklayarak sayfalarınızı test edebilir ve Googlebot-Mobile’ın bunu nasıl gördüğünü görebilirsiniz.
Görüntüleri sıkıştır
Kaliteden ödün vermeden sıkıştırmayı amaçlayan görüntü optimizasyonu, özellikle sayfalarda çok fazla grafik içerik varsa, web sitesinin yüklenmesini hızlandırmaya yardımcı olur.
Görüntüleri sıkıştırmak için TinyPNG veya Squoosh gibi çevrimiçi araçlar kullanılabilir. Dosya boyutunu önemli ölçüde azaltabilecekleri için WebP gibi modern görüntü formatlarının kullanılıp kullanılmadığını da kontrol etmeye değer.
Uluslararası web siteleri için CDN kullanın
Web siteniz coğrafi olarak uzak bölgelere çok çeşitli hizmet veriyorsa bir CDN kullanmak mantıklıdır.
Bir CDN (İçerik Dağıtım Ağı), sitenin içeriğini kullanıcılara daha yakın bulunan sunucular arasında dağıtarak yükleme sırasındaki gecikmeyi azaltır. Cloudflare veya Akamai gibi CDN sağlayıcısına yapılan başvuruların görünebileceği tarayıcının geliştirici araçlarında (Ağ sekmesi) HTTP istek başlıklarını inceleyerek CDN kullanımını kontrol edebilirsiniz. CDN’yi test etmek için çevrimiçi araçlar da vardır. CDN yapılandırması genellikle barındırma paneli veya CMS aracılığıyla yapılır.
Önbelleğe almayı kullanma
Önbelleğe alma, tarayıcıların ve proxy sunucularının kaynakların kopyalarını depolamasına, sunucu yükünü azaltmasına ve sonraki ziyaretlerde yüklemeyi hızlandırmasına olanak tanır. Önbelleğe alma doğruluğunu tarayıcının geliştirici araçlarında kontrol edebilirsiniz — Ağ bölümünde Cache-Control, Expires ve ETag başlıklarına bakın. Google PageSpeed Insights, önbelleğe alma için öneriler de sağlar. Statik kaynakların (resimler, komut dosyaları, stiller) uygun önbelleğe alma ayarlarına sahip olması ve sunucunun ilgili kuralların yapılandırılmış olması önemlidir (örneğin, .htaccess veya nginx yapılandırmasında). Önbelleğe almayı kontrol etmek için GiftOfSpeed gibi çevrimiçi hizmetleri kullanabilirsiniz.
Son
Bir web sitesinin teknik denetimi tek seferlik bir prosedür değil, performansını ve görünürlüğünü etkileyebilecek teknik faktörlere düzenli olarak dikkat edilmesini gerektiren devam eden bir süreçtir. Her web sitesi benzersiz olduğundan, kontrollerin belirli odağı ve sıklığı değişecektir. Teknik bir SEO denetimi için bu kontrol listesi, önemli bir şeyi unutmadığınızdan emin olmanıza yardımcı olacaktır.