Eddig titkolt részletek szivároghattak ki a Google keresőről
A vélhetően a Google-től kiszivárgott dokumentumok részletesebb betekintést engednek a kereső működési elveibe, és felfedik a rangsoroláshoz használt egyes elemeket, amikről eddig nyilvánosan nem szívesen beszélt a vállalat - állítják a SEO-szakemberek, akiknek a birtokába kerültek a belsős útmutatók.
Sosem volt részleteiben teljesen átlátható, hogy a Google kereső algoritmusa milyen tényezők alapján rangsorolja az indexelt weboldalakat a találati eredmények listáján, mert bár mindenki sejteni véli, milyen tartalommal lehet láthatóbb helyre kerülni, a vállalat nem fedi fel a piacvezető szolgáltatása "receptjét". A napokban több ezer oldalnyi belsős dokumentum szivároghatott ki a keresőóriástól, amelyek betekintést nyújtanak a Kereső működésének technikai hátterébe, bár a Google maga eddig nem erősítette meg a valódiságukat.
Az anyagot a keresőóriás saját automatizált botja publikálhatta március 13-án egy nyilvánosan elérhető adattárban a GitHubon, ami csak rövid ideig volt elérhető, de ez idő alatt külsős SEO-szakértők is felfigyeltek rá. Hitelességét állítólag a Google több exdolgozója is megerősítette.
Többek közt Rand Fishkin SEO-szakértő és Michael King, az iPullRank vezérigazgatója is elemezték a dokumentumokban leírtakat. Úgy tűnik, hogy a nem szándékosan publikált 2500 oldalnyi dokumentum tömör és technikai jellegű, bár nem tartalmaz kódokat. Az információk a Google Content API Warehouse-ból származnak (mely belső verziója a nyilvános Document AI Warehouse áttekintésnek).
Érdemes azonban figyelembe venni, hogy egy “dokumentum-raktárról” van szó, tehát úgy tűnik, nem belső Google Search információk kerültek ki rangsorolásról és egyebekről, pusztán belső Google-infókról van szó - írja a Webshark. Kérdéses tehát, hogy a kiszivárgott adatoknak tényleg van-e közük a Google keresőhöz, vagy ahogy a neve is utal rá, csak egy külső API egy dokumentumtároló felépítéséhez.
CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.
A dokumentum átláthatóbb részleteket szolgáltat arról, hogy a cég milyen adatokat gyűjt a weboldalakról, miként kezeli a kisebb weboldalakat, és hová nyúl olyan érzékenyebb témák esetén, mint a választások vagy a koronavírus. Utóbbi esetben kiderült, hogy a forrásokat listázza is, így "feketelisták" és megbízhatónak talált forrásokból összeállított fehérlisták alapján is dolgozik. Az útmutató több mint 14 000 elérhető vagy az API-val társított attribútumot részletez, de kevés információ található benne arról, hogy ezeket a jeleket tényleg felhasználja-e a motor, így azt is nehéz egyértelműsíteni, hogy a Google hogyan súlyozza az egyes attribútumokat a rangsorolás során.
Fishkin és King szerint a lényeg, hogy a dokumentumokban olvasható egyes információk ellentmondásosak a Google képviselői által tett korábbi nyilvános nyilatkozatok tartalmával. A cég többször kijelentette, hogy nem használja a süti előzményeket, a Chrome-on keresztül gyűjtött adatokat az oldalak rangsorolásakor, ezzel szemben a dokumentum tartalmaz a Chrome-mal kapcsolatos mérési attribútumokat. Most már egyértelmű, hogy a Google figyelembe veszi a felhasználói aktivitási adatokat.
A vállalat korábban tagadta, hogy a felhasználói kattintásokat számba venné a rangsorolás során. Az amerikai Egyesült Államokkal folytatott trösztellenes tárgyalás során sikerült végül elismerni, hogy a kattintási mutatókat rangsorolási tényezőnek tekinti az internetes keresésben. A dokumentum is tesz arra utalást, hogy a Google kidolgozott egy rendszert a kattintásokra vonatkozóan, különböző szempontok alapján, például goodClicks, badClicks, lastLongestClicks, megtekintések, stb.
A cég korábban fenntartotta azt is, hogy nem különíti el sandboxokba az egyes weboldalakat életkor, vagy bizalmi jelek hiánya alapján, holott erre utaló attribútumot is említ a dokumentum. Az elemzők kihámozták továbbá, hogy a Google leértékelhet oldalakat olyan tényezők alapján, hogy például a link nem passzol a céloldalhoz, a találati oldali jelzések felhasználói elégedetlenséget mutatnak, a termékértékelések, a hely, a pontos egyezésű domain és a pornó jelenléte.
A Google gyakorlatilag minden weboldal minden verzióját tárolja, ugyanakkor csak a legutolsó húsz változtatást használja fel az elemzéskor. Emellett értékeli, hogy mennyire passzol egy oldal címe a keresőkifejezéshez, figyelembe veszi az URL-ek és tartalmak dátumait a rangsorolásnál.
Mire érdemes mostantól jobban figyelni?
A megállapítások arra engednek következtetni, hogy a weboldalaknak “sikeres” kattintásokat kell gyűjteni minél több keresőkifejezésre, valamint a linkek sokszínűségére kell törekedni a jó helyezés érdekében - írja a WebShark. Tehát a minőségi forgalom növelésére kell törekedni, és ennek a forgalomnak jó felhasználó élményt kell nyújtani, ami azt jelzi a Google-nak, hogy az oldal megérdemli a rangsorolást.
A Google korábbi állításaival szemben tehát tényezők a kattintási adatok és a felhasználói aktivitás, fontosak a jó címek és aktivitásra késztető meta leírások, melyek az átkattintási arányt növelhetik.
Új szempontként jön be a márkanév fontossága, mivel a dokumentum szerint a Google márkával kapcsolatos jelzéseket is használ a rangsorolásnál olyan mérőszámokkal, mint a márkaemlítések, keresések a márkanévre, illetve a márka tekintélye. A Webshark szerint a SEO-ban tehát "ezentúl hangsúlyozni kell a márkaépítés, a márkaismertség, a tekintély és hitelesség fontosságát, ami nem csak az online-ra érvényes, hanem offline is."
Ezek mindössze az első megállapítások az elképesztő hosszúságú dokumentumból, amit a következő hetek során a szakmabeliek vélhetően ízeire fognak szedni a további tanulságok levonására. Amit fontos még kiemelni, hogy a súlyozásról nem esik szó, tehát a megemlített attribútumnak nem mindegyike járul hozzá ugyanolyan mértékben a rangsoroláshoz.