Amit tudni szeretnél a Google indexeléséről a keresőoptimalizálás szemszögéből

Minden webhely megjelenése a Google rendszerében attól függ, hogy legalább a lényeges aloldalai indexelve vannak-e? Ha a webhely oldalai indexelve vannak, akkor már megvetettük az ágyát a sikeres keresőoptimalizálásnak is, így már szinte csak rajtunk múlik, hogy a látogatók rátalálnak-e weboldalunkra, vagy sem.

Eddig is teljesen természetes volt, hogy több ezer aloldallal rendelkező webhelyet – például webáruházat – nem indexelt teljes mértékben a Google. Ám az utóbbi bő egy évben ez az indexelési anomália kiterjedt olyan webhelyekre is, amelyek esetleg egyszerű szolgáltatói oldalak, minimális szerkezeti mélységgel, amelyek nem teszik indokolttá, hogy ne indexelné azt a Google.

A weboldalak indexelése összetett és bonyolult folyamat, különböző tényezők járulnak hozzá, sok ezek közül ugyanaz, amelynek befolyása van az organikus rangsorra is, mint például a tartalom minősége és a bejövő linkek minősége. Ezt nevezhetjük az átlag weboldal tulajdonos számára a két legfontosabb tényezőnek mindkét szempontból, itt leginkább a keresőoptimalizálás játszik nélkülözhetetlen szerepet.

Ugyanakkor vannak technikai jellegű tényezők is, amelyek befolyásolhatják az indexelési folyamatot, és úgy tűnik az utóbbi időben ezek vannak túlsúlyban. Mítosz, hogy csak és kizárólag a SEO-technikai faktor az, ami akadálya lehet az indexelésnek, hisz, ha konzisztens jelet küldünk a Google-nak, hogy indexelhető az oldal, elkészítjük a megfelelő sitemap-ot, és folyamatosan frissül tartalommal a weboldal, akkor részünkről elvileg mindent megtettünk.

A legtöbb webhely legyen az kisebb vagy nagyobb, nagyon sok olyan tartalommal rendelkezik, amelyet indexelni kellene... de mégse indexeli a Google. Igaz ugyan, hogy az olyan dolgok, mint a JavaScript egy kicsit megbonyolítja az indexelési folyamatot, de semmiképp sem gátolja.
 

Lehetséges okok, amiért nem indexeli a Google a webhely aloldalait

A Search Console a nem indexelt tartalmainkra két címkét használ:

1. Feltérképezve, jelenleg nincs indexelve
2. Felfedezve, jelenleg nincs indexelve
3. Duplikált tartalom

A probléma elemzését és feltárását itt kell elkezdeni. Ezért vegyük sorra ezeket:

1. Feltérképezve, jelenleg nincs indexelve

AGoogle felkeresett egy adott oldalt, de nem indexelte, ez általában tartalomminőségi problémára vezethető vissza. A UX algoritmus bevezetése óta a Google még precízebben jár el, ha tartalomminőségi kérdésről van szó, emellett pedig az e-kereskedelem fellendülésével a Google igen magasra tette a lécet a tartalom minőségének szempontjából.

Ezért ezt a Search Console-beli problémát csak egyedülállóan értékes tartalommal lehet orvosolni.

Egyedi tartalmat úgy hozhatunk létre ezeken a kritikus aloldalakon, ha egyedi címeket és leírásokat használunk, a duplikációkat pedig úgy lehet elkerülni, ha megfelelően használjuk a kanonikus címkéket.

A robots.txt fájl vagy a noindex címke használatával egyszerűen blokkolhatjuk a Google felé azokat a gyenge minőségű aloldalakat, amelyeket nem szeretnénk, ha feltérképezne.

2. Felfedezve, jelenleg nincs indexelve

Ez a legösszetettebb probléma egy adott webáruházon belül, akár több ezer URL-re is vonatkozhat.

Olyan probléma állhat mögötte, mint:

  • feltérképezési költségkeret – ha túl sok URL vár a feltérképezési sorban, ezért akár jóval több időbe telhet mire feltérképezi és indexeli azokat.
  • minőségi probléma – a Google dönthet úgy, hogy bizonyos aloldalakat gyenge minőségűnek ítél, és ezeket nem indexeli.
Ennek a problémának a megoldása szakértelmet kíván. Meg kell határoznunk, hogy vannak-e ebbe a kategóriába tartozó oldalak mintái. Könnyen meglehet, hogy a probléma egy adott termékkategóriához kapcsolódik, és belső link hiányában kapta a „felfedezve, jelenleg nincs indexelve” címkét, viszont az is lehet, hogy túl sok termékoldali URL áll sorban indexelésre várva.

Optimalizálja a feltérképezési költségkeretet. Folyamatosan szkennelje és kezelje az alacsony minőségű URL-eket, hogy ezek észlelésére a Google minél kevesebb időt fordítson. A problémához tartozik még a belső keresőoldalak, valamint a szűrő oldalak URL-jei, ha ezeket hagyjuk, hogy szabadon feltérképezhesse a Google, akkor előállhat a fenti probléma.

Képzeljük el, hogy egy webáruház esetében a belső keresőoldalak és szűrőoldalak akár a milliós számot is elérhetik. Amennyiben ezeket a Googlebot szabadon feltérképezheti, előfordulhat, hogy nem marad elég erőforrása az értékes URL-ek indexeléséhez.

3. Duplikált tartalom

Duplikált tartalom leginkább akkor jöhet létre, amikor több webhely ugyanazt a termékleírást használja. Ezt kiválthatjuk értékes tartalommal, vagy a termékekről írt GYIK-al is akár, vagy bármilyen kreatív tartalmi ötlettel, ami a termékekhez kötődik.
 

Hogyan ellenőrizhetjük webhelyünk index lefedettségét?

A Google Search Console Lefedettség (Index Coverage report) menüje alatt.

A Kizárt oldalak között mindig a mintát kell keresni, hogy a Google milyen típusú oldalakat nem indexelt, webáruházak esetében leginkább a termékoldalakat nem fogja maradéktalanul indexelni. Aggódni akkor kell, ha a mintában azt látjuk, hogy magas minőségű oldalak is kikerültek az indexből, de ennek egyértelmű jele a látogatottság és a vásárlások nagymértékű bezuhanása is.
 

Hogyan lehet növelni az indexelés esélyét?

Bár minden weboldal egyedi és egyedi indexelési problémái lehetnek, érdemes néhány dologra különösen figyelni, amivel növelni lehet az esélyét az indexelésnek.

  • Kerüljük a „lágy 404-es” címkét – ezek azok az aloldalak, amelyek hamis 404-es szignált adnak, ide tartozik a „nem található”, „nem elérhető” használata.
  • Használjunk belső linkelést – a belső link erős jelzés a Google-nak, hogy egy adott aloldal a webhely fontos része, és megérdemli, hogy indexelje. Kerüljük az árva oldalakat a webhely felépítésében, és fontos, hogy minden indexelhető aloldal kerüljön be a site map-ba is.
  • Irányított feltérképezési stratégia – irányítsuk a Googlebot mozgását a weboldalon, ne engedjük, hogy mindent feltérképezzen. A szervernapló elemzése teljes képet nyújt arról, hogy a Googlebot mit térképez fel, és ehhez képest milyen optimalizálási folyamatot valósíthatunk meg.
  • Távolítsuk el az ismétlődő tartalmakat – használjuk a noindex címkét vagy a robots.txt fájlt, hogy a duplikált tartalmat kizárjuk az indexből.
  • Törekedjünk a stabil SEO jelek küldésére – keresőoptimalizálás szempontjából is nagyon fontos és a weboldal organikus rangsorolására is kihat, hogy milyen technikai-SEO beállításokat valósítunk meg.
Tény, hogy a web óriásira növekedett az elmúlt években, milliószámra jelennek meg az új weboldalak nap mint nap. Az indexelési problémák láttán, akár keresőoptimalizálás szemszögből, akár konverzió és e-kereskedelem szempontból is feltehető a kérdés, vajon megbirkózik-e a Google mindezzel?

Azt kijelenthetjük, hogy a Google erős szelekcióba kezdett, így – bár törekednünk kell arra, hogy technikailag a weboldalunk megfeleljen az indexelési elvárásoknak – legyen akármilyen tökéletesre hangolt weboldalunk, soha nem fogja minden aloldalát maradéktalanul indexelni, akkor sem, ha az csak egy kisebb webhely.
  • Az új GA4: A Google Analytics forradalmi frissítése
    Vírus Média Keresőmarketing Ügynökség
    2023.02.16.

    Az új GA4: A Google Analytics forradalmi frissítése

    Július 1-től megszűnik a bő tíz éve ismert Universal Analytics. A frissítés nem választható. Vajon több pluszt kapunk a keresőóriástól, vagy egy szükséges nyűg lesz az online marketingesek nyakán a frissítés? Nézzük meg hova jutott a webanalitika közel 20 év alatt!

  • A jövő az ajtóban várakozik: az MI és a marketing
    Vírus Média Keresőmarketing Ügynökség
    2023.02.14.

    A jövő az ajtóban várakozik: az MI és a marketing

    A mesterséges intelligencia története az 1950-es évekre nyúlik vissza, amikor Alan Turing megalkotta az "intelligencia" fogalmának matematikai definícióját. Ezt követően a számítógépes tudományban dolgozók és kutatók elkezdték kifejleszteni az első mesterséges intelligencia programokat.