Tehnična dostopnost za AI crawlerje je predpogoj, ne dodatek. Najboljša vsebina, najboljša avtoriteta in najmočnejši backlinki ne pomagajo, če GPTBot, PerplexityBot in Google-Extended ne morejo prebrati vaše strani. V slovenskem prostoru je kar 40 do 60 odstotkov spletnih strani v 2026 še vedno blokira AI crawlerje — pogosto nehote, prek WordPress varnostnih vtičnikov ali Cloudflare nastavitev.
Spodaj je kompleten tehnični vodnik za GEO optimizacijo: kateri AI crawlerji obstajajo, kako preveriti, ali jih vaša stran blokira, in 8 tehničnih elementov, ki sestavljajo trdno tehnično podlago za AI vidnost. Vsak razdelek vključuje konkretno kodo, ki jo lahko takoj kopirate. Vodnik je usklajen s Koray Framework metodologijo.
Zakaj je tehnična dostopnost za AI crawlerje kritična?
| Tehnična dostopnost je predpogoj za GEO optimizacijo. Brez dovoljenja v robots.txt AI crawlerji ne morejo prebrati vaše strani, kar pomeni, da vaša vsebina ni v ChatGPT, Perplexity, Claude ali Google AI Overviews citatih. Po industrijskih analizah 40 do 60 % slovenskih spletnih strani v 2026 še vedno blokira AI crawlerje. |
AI iskalniki delujejo v dveh fazah. Najprej crawl: AI sistem pošlje crawler na splet, da prebere strani. Nato retrieval: ko uporabnik postavi vprašanje, AI sistem išče med že prebraziranimi stranmi. Če v fazi crawl-a vaša stran ni dostopna, vas v fazi retrieval-a preprosto ni, ne glede na to, kako kakovostna je vaša vsebina.
Tipičen scenarij blokade: WordPress stran s plugin-om Wordfence ali iThemes Security, ki avtomatsko blokira »neznane bote«. AI crawlerji so klasificirani kot »neznani«, ker varnostni vtičniki niso posodobljeni za nove user-agent stringe (GPTBot, PerplexityBot, ClaudeBot). Posledica: stran je popolnoma odprta za človeške obiskovalce in Googlebot, ampak AI crawlerji dobijo 403 ali 429 odgovor.
Cloudflare predstavlja drugo veliko skupino blokad. »Bot Fight Mode« in »Super Bot Fight Mode« sta nastavljena, da blokirata »vse bote, razen Googlebot in Bingbot«. AI crawlerji v privzetih nastavitvah niso na whitelisti, zato dobijo CAPTCHA challenge ali 403 odgovor. Rešitev je eksplicitna whitelist nastavitev v Cloudflare WAF (Web Application Firewall).
Kateri AI crawlerji obstajajo in kako jih prepoznati?
| V 2026 obstaja šest glavnih AI crawlerjev, ki jih moramo prepoznati za GEO: GPTBot in OAI-SearchBot (OpenAI), PerplexityBot (Perplexity), ClaudeBot (Anthropic), Google-Extended (Google AI), in ChatGPT-User (sproži se ob direktnem URL pridobivanju v ChatGPT pogovoru). Vsak ima svojo funkcijo in svojo user-agent oznako. |
Spodaj je primerjalna tabela vseh ključnih AI crawlerjev za GEO optimizacijo. Vsak crawler ima specifičen user-agent string, specifično funkcijo in specifično razmerje do robots.txt direktiv. Razumevanje teh razlik je ključno za pravilno konfiguracijo.
| Crawler | Podjetje | Funkcija | User-agent prepoznava |
|---|---|---|---|
| GPTBot | OpenAI | Treniranje GPT modelov (zgodovinsko indeksiranje) | Vsebuje »GPTBot« |
| OAI-SearchBot | OpenAI | Iskanje v živo prek SearchGPT | Vsebuje »OAI-SearchBot« |
| ChatGPT-User | OpenAI | Pridobivanje URL-ja v ChatGPT pogovoru | Vsebuje »ChatGPT-User« |
| PerplexityBot | Perplexity | Sistematično indeksiranje za Perplexity | Vsebuje »PerplexityBot« |
| Perplexity-User | Perplexity | URL pridobivanje v Pro pogovoru | Vsebuje »Perplexity-User« |
| ClaudeBot | Anthropic | Treniranje in retrieval za Claude | Vsebuje »ClaudeBot« |
| Google-Extended | Treniranje Gemini in vključitev v AI Overviews | Opt-in flag, posebna direktiva | |
| Googlebot | Klasično iskanje + signal za AI Overviews | Vsebuje »Googlebot« |
Pomembna razlika med Googlebot in Google-Extended: Googlebot je za klasično iskanje (uvrstitev v SERP-u). Google-Extended je posebni opt-in flag za uporabo vsebine v Gemini in AI Overviews. Stran lahko dovoli Googlebot (želite klasično SEO uvrstitev), hkrati pa blokira Google-Extended (ne želite, da Google vašo vsebino uporablja za AI). V 2026 je takšna ločena konfiguracija redka — večina podjetij dovoli oba.
| OpenAI ima TRI crawlerje, vsakega za drugačno funkcijo. Konfigurirajte vse tri.Perplexity ima DVA crawlerja (PerplexityBot za sistematično indeksiranje, Perplexity-User za URL pridobivanje).Google-Extended JE ločen od Googlebot — dovoljenje za Googlebot ne pomeni dovoljenja za AI Overviews.User-agent stringi se občasno spremenijo — preverite na uradnih dokumentacijah pred konfiguracijo (platform.openai.com/docs/bots, perplexity.ai/policies). |
Kako preveriti, ali vaša stran blokira AI crawlerje?
| Blokade AI crawlerjev preverite v treh korakih: 1) preglejte robots.txt na vaspodjetje.si/robots.txt, 2) preverite Cloudflare WAF in Bot Fight Mode nastavitve, 3) preglejte server access loge za 403/429 odgovore na user-agente AI crawlerjev. Diagnostika običajno traja 30 do 60 minut, popravki pa od 5 minut do nekaj ur. |
Diagnostika je ključen prvi korak. Brez nje optimizacija ni mogoča, ker ne veste, kateri AI crawlerji so v resnici blokirani. Spodaj je 3-koračni postopek, ki ga uporabljamo v AIE Media GEO auditih.
Korak 1: Preglejte robots.txt
Odprite vaspodjetje.si/robots.txt v brskalniku (zamenjajte z vašo domeno). Iščite eksplicitne »Disallow« ali »User-agent« direktive za AI crawlerje. Najpogostejši problemi: privzeta WordPress nastavitev brez direktiv (kar v praksi pomeni dovoljen dostop, vendar brez eksplicitnega Allow signala), eksplicitna blokada ChatGPT-User-ja iz starih privacy razprav v 2023, ali zelo restriktivna konfiguracija prek varnostnih vtičnikov.
Korak 2: Preverite Cloudflare WAF in Bot Fight Mode
Če uporabljate Cloudflare, vstopite v dashboard, pojdite na Security → Bots. Preverite »Bot Fight Mode« — če je vključen, blokira večino »neznanih« botov, vključno z AI crawlerji. Prav tako preverite WAF Rules za eksplicitne blokade po user-agent. Rešitev: v Cloudflare WAF dodajte eksplicitno »Allow« pravilo za AI crawlerje (User-Agent contains »GPTBot« → Action: Allow).
Korak 3: Preglejte server access loge
Server access logi (Apache, Nginx) razkrivajo, ali AI crawlerji dejansko obiskujejo vašo stran in s katerim status kodom. Filtrirajte loge po user-agent (»grep GPTBot access.log«) in preverite status kode. 200 OK pomeni uspešen dostop. 403 ali 429 pomeni blokada. 0 zapisov pomeni, da crawler sploh ni prišel — verjetno je blokada na DNS ali firewall ravni, pred dostopom do vašega serverja.
| robots.txt tester: technicalseo.com/tools/robots-txt — preveri, ali specifični user-agent dostopa do specifičnega URL-ja.Cloudflare dashboard: dash.cloudflare.com → Security → Bots → Bot Fight Mode preverba.Server access logi: Apache (/var/log/apache2/access.log), Nginx (/var/log/nginx/access.log) — »grep« po user-agent.Online robots.txt tester: search.google.com/search-console/robots-testing-tool (Googlovo orodje, deluje za vse user-agente).Curl test: »curl -A ‘GPTBot’ https://vaspodjetje.si« — simulira request z GPTBot user-agentom in pokaže, ali je odgovor 200 ali 403. |
8 tehničnih elementov za GEO optimizacijo
| 8 tehničnih elementov za GEO optimizacijo: robots.txt konfiguracija, server-side rendering, schema markup, sitemap optimizacija, hitrost nalaganja, čista HTML5 struktura, dostopnost vsebin (brez login walls) in llms.txt z machine-readable metadata. Vsi elementi so med seboj odvisni — manjkajoč element zmanjšuje učinek drugih. |
1. Robots.txt konfiguracija za AI crawlerje
| Robots.txt mora vsebovati eksplicitne Allow direktive za vseh ključnih AI crawlerjev: GPTBot, OAI-SearchBot, ChatGPT-User, PerplexityBot, Perplexity-User, ClaudeBot in Google-Extended. Brez eksplicitnih direktiv WordPress in varnostni vtičniki pogosto privzeto blokirajo AI crawlerje kot »neznane bote«. |
Robots.txt je tekstovna datoteka na korenu domene (vaspodjetje.si/robots.txt), ki crawlerjem pove, katere strani lahko obiščejo. Za GEO je ključno, da eksplicitno dovolite vse pomembne AI crawlerje. Spodaj je priporočena minimalna konfiguracija:
| # robots.txt – GEO optimiziran za 2026# Postavite v koren domene: vaspodjetje.si/robots.txt User-agent: GPTBotAllow: / User-agent: OAI-SearchBotAllow: / User-agent: ChatGPT-UserAllow: / User-agent: PerplexityBotAllow: / User-agent: Perplexity-UserAllow: / User-agent: ClaudeBotAllow: / User-agent: Google-ExtendedAllow: / User-agent: GooglebotAllow: / # Privzeto: vsi ostali crawlerjiUser-agent: *Allow: /Disallow: /wp-admin/Disallow: /private/ Sitemap: https://vaspodjetje.si/sitemap_index.xml |
Praktičen napotek: po posodobitvi robots.txt-a počakajte 24-48 ur, nato v server logih preverite, ali AI crawlerji dejansko dostopajo (status 200). Ne pozabite, da WordPress vtičniki kot Rank Math ali Yoast lahko avtomatsko upravljajo robots.txt — preverite njihove nastavitve.
2. Server-side rendering (SSR) — ne skrivajte vsebine za JavaScript
| AI crawlerji večinoma ne izvajajo JavaScripta v polnem obsegu (čeprav Googlebot to dela). React, Vue ali Angular SPA-ji brez server-side renderinga dostavijo prazno HTML lupino, ki AI sistemu ne pove ničesar o vsebini. SSR ali static-site generation (Next.js, Nuxt, Gatsby) je predpogoj za AI vidnost JS-težkih strani. |
Razvojna dilema med Client-Side Rendering (CSR) in Server-Side Rendering (SSR) je ena najpomembnejših tehničnih odločitev za GEO. CSR pošlje praznega HTML-a, JavaScript pa nato v brskalniku sestavi vsebino. Človeški obiskovalec vidi popolno stran. AI crawler pa pogosto vidi prazno HTML lupino brez vsebine.
Test: poženite »curl -A ‘GPTBot’ https://vaspodjetje.si« in poglejte odgovor. Če vidite poln HTML z vsebino, ste OK. Če vidite prazno HTML lupino z »<div id=’root’></div>« in JS skripto, AI crawler ne vidi vaše vsebine. Rešitev: SSR (Next.js, Nuxt) ali static-site generation (Gatsby, 11ty) ali pre-rendering (Prerender.io).
Praktičen napotek: WordPress strani s standardnimi temami (Astra, Kadence, Hello) avtomatsko delujejo kot SSR. Posebnost so headless WordPress + React frontend — preverite, ali frontend uporablja Next.js ali ekvivalent. Če ne, AI crawlerji vsebine ne vidijo.
3. Schema markup (Article, FAQ, Organization, Person)
| Schema markup (JSON-LD) eksplicitno pove AI sistemom, kaj posamezna stran vsebuje — članek, FAQ, izdelek, organizacijo. AI sistem schema obravnava kot »ground truth« strukturirano informacijo. Glavni tipi za GEO: Article, FAQPage, Organization, Person, Product, BreadcrumbList, HowTo. |
Schema markup ni novost — Google ga uporablja od 2011. Pri GEO je ključen, ker AI sistem schema podatke obravnava manj podvržene halucinaciji kot prosti tekst. Stran z Article schema dobi naslov, avtorja, datum, povzetek v formalni obliki.
Minimalni Article schema primer:
| <script type=”application/ld+json”>{ “@context”: “https://schema.org”, “@type”: “Article”, “headline”: “Naslov vašega članka”, “datePublished”: “2026-04-29”, “dateModified”: “2026-04-29”, “author”: { “@type”: “Person”, “name”: “Adnan Islamović”, “url”: “https://vaspodjetje.si/avtor/adnan-islamovic/” }, “publisher”: { “@type”: “Organization”, “name”: “Vaše Podjetje”, “logo”: { “@type”: “ImageObject”, “url”: “https://vaspodjetje.si/logo.png” } }}</script> |
4. Sitemap optimizacija
| XML sitemap pomaga AI crawlerjem najti vse pomembne strani. Sitemap mora vsebovati samo strani, ki jih želite indeksirati, biti dostopen prek robots.txt direktive, posodobljen ob vsaki novi vsebini in pod 50.000 URL-jev na datoteko (večji sitemap-i razdelite v sitemap_index.xml). |
Sitemap.xml je strojno berljiv seznam vseh strani, ki jih želite indeksirati. Pri klasičnem SEO je standard, pri GEO pa še pomembnejši — AI crawlerji uporabljajo sitemap za sistematično odkrivanje vsebin, posebej pri velikih spletnih strani.
Pravila kakovostnega sitemap-a: vključite samo strani, ki jih želite indeksirati (brez admin, paywall, draft strani). Posodabljajte ob vsaki novi vsebini. Polje <lastmod> mora vsebovati zadnjo vsebinsko spremembo, ne samo zadnjega obiska. Polje <priority> je v 2026 manj pomembno — Google in AI sistemi ga večinoma ignorirajo. Sitemap mora biti dostopen prek robots.txt direktive »Sitemap:« na koncu datoteke.
Praktičen napotek: WordPress z Rank Math ali Yoast avtomatsko generira sitemap_index.xml (npr. vaspodjetje.si/sitemap_index.xml). Preverite, ali so vse pomembne strani vključene in ali se posodablja ob novih objavah. Posredujte sitemap v Google Search Console.
5. Hitrost nalaganja (AI crawlerji imajo timeouts)
| AI crawlerji imajo krajše timeoute kot Googlebot — običajno 5 do 10 sekund za pridobitev vsebine. Strani s počasnim odzivom (TTFB nad 2 sekundi, LCP nad 4 sekunde) AI crawlerji pogosto preskočijo brez vključitve v indeks. Hitrost je za GEO bolj kritična kot za klasično SEO. |
Pri klasičnem SEO je hitrost ranking faktor — počasna stran se uvršča nižje, vendar je vseeno indeksirana. Pri GEO je hitrost pogosto vse-ali-nič — če AI crawler v 5-10 sekundah ne dobi odgovora, gre dalje k drugim virom. Vaša počasna stran ni v retrieval indeksu.
Ciljne metrike za GEO: TTFB (Time To First Byte) pod 800 ms, LCP (Largest Contentful Paint) pod 2,5 s, FCP (First Contentful Paint) pod 1,8 s. To so Core Web Vitals metrike, ki so istočasno SEO ranking faktorji v Googlu. Tehnična optimizacija za hitrost koristi obema.
Praktičen napotek: merite hitrost s PageSpeed Insights (pagespeed.web.dev) ali GTmetrix. Najpogostejši krivci počasnosti v WordPress: neoptimizirane slike, preveč vtičnikov, slab gostovalnik. Slovenski izvor: Hosting Tomaž, Hetzner Helsinki — oba sta v Evropi z nizko latenco za slovenske AI obiskovalce.
6. Čista HTML struktura (semantični HTML5)
| AI crawlerji semantične HTML5 elemente (article, section, header, nav, main, aside, footer) uporabljajo kot strukturne signale. Globoko gnezdeni div-i brez semantike zmedejo AI sintezo. Pravilna uporaba H1-H6 hierarhije, alt teksti za slike in describing label-i so kritični za AI razumevanje vsebine. |
Semantični HTML5 (uveden 2014, široko sprejet do 2020) ponuja AI sistemom strukturo vsebine na strojno berljiv način. <article> pove AI »tu je samostojna vsebina«, <section> pove »tu je razdelek«, <nav> pove »tu so navigacijske povezave«. AI sistem na podlagi teh elementov ekstrahira vsebino veliko enostavneje kot iz globoko gnezdenega <div> drevesa.
Praktična pravila: en <h1> na stran (običajno glavni naslov). H2-H6 v hierarhijski strukturi (ne preskakujte ravni). <main> obkroža glavno vsebino strani. <article> za samostojne kose vsebine (blog post, news article). Vsaka slika z opisnim alt tekstom (»Adnan Islamović, direktor AIE Media«, ne »image1.jpg«). Forme z <label> elementi povezanimi z input-i.
Praktičen napotek: preglejte HTML strukturo z Chrome DevTools (F12 → Elements). Iščite globoko gnezdene div-e brez semantike (znak »div soup«). WordPress teme kot GeneratePress, Astra, Kadence privzeto uporabljajo dober semantični HTML5 — preverite, ali je tako tudi vaša tema.
7. Dostopnost vsebin (brez login walls in paywall-ov)
| Vsebina, zaklenjena za login wall ali paywall, AI crawlerjem ni dostopna. Če želite, da je določena vsebina v AI citatih, mora biti dostopna brez avtentikacije. Hibridni model (prvi del članka odprt, podrobnosti za prijavo) deluje delno — AI sistem citira, kar lahko prebere. |
Login walls in paywall-i so legitimna poslovna praksa, vendar imajo neposredne posledice za GEO. AI crawlerji nimajo prijavnih podatkov, zato vidijo samo javno dostopno vsebino. Če je celotna vrednost vašega članka za prijavnim oknom, AI sistem citira »vir za prijavo« brez vsebinskega podpiranja, kar je manj uporabno.
Hibridni pristop deluje za večino podjetij. Prva polovica članka (uvod, definicije, glavna pravila) je odprta — to je vir AI citata. Druga polovica (case studies, podrobni primeri, predloge) je za prijavljene uporabnike — to je vrednost za pretvorbo. AI cita javni del z napotkom »za podrobnosti obiščite stran«, kar pripelje motivirane uporabnike.
Praktičen napotek: preverite, kateri del vaše spletne strani je za login wall-om. Če gre za vsebine, ki jih želite v AI citatih (blog članki, vodniki), razmislite o hibridnem modelu. CMS sistemi kot WordPress (Members plugin) ali Membership Pro to enostavno omogočajo.
8. Llms.txt in machine-readable metadata
| Llms.txt je nov de-facto standard za usmerjanje AI crawlerjev — datoteka na korenu domene, ki opisuje strukturo strani in pomembne vire v markdown obliki. Standard so predlagale skupnost in več AI podjetij v 2024-2025. Pomaga AI sistemom razumeti, katere strani so najpomembnejše in v kakšni hierarhiji. |
Llms.txt je relativno nov standard, ki se je v 2024 in 2025 hitro uveljavil med tehnično napredneje GEO podjetji. Datoteka, postavljena na vaspodjetje.si/llms.txt, opisuje vašo spletno stran v markdown obliki — kdo ste, kaj ponujate, katere strani so najpomembnejše. AI sistemi standard postopoma sprejemajo kot dopolnilo robots.txt-u.
Primer minimalnega llms.txt-a:
| # Vaše Podjetje > Slovenska digitalna marketinška agencija, specializirana za SEO, GEO in PPC oglaševanje. ## Storitve – [SEO optimizacija](https://vaspodjetje.si/service/seo-optimizacija/): Klasično SEO za uvrstitve v Googlu- [GEO optimizacija](https://vaspodjetje.si/service/geo-optimizacija-za-ai-iskalnike/): Optimizacija za AI iskalnike- [Google Ads](https://vaspodjetje.si/service/google-ads-ppc-oglasevanje/): PPC oglaševanje- [Spletne strani](https://vaspodjetje.si/service/oblikovanje-spletnih-strani/): Oblikovanje in izdelava ## Glavni viri – [Blog](https://vaspodjetje.si/blog/): Vsi članki o digitalnem marketingu- [Kaj je GEO](https://vaspodjetje.si/blog/kaj-je-geo-optimizacija): Uvod v GEO |
Praktičen napotek: ustvarite llms.txt na korenu domene s tekstovnim urejevalnikom. Format je preprost markdown — naslov H1, kratka opis, nato seznami povezav razdeljeni po kategorijah. Posodabljajte ob vsaki večji vsebinski spremembi.
Kako preveriti, ali AI crawlerji uspešno berejo vašo stran?
| Uspešno branje AI crawlerjev preverite v server access logih in z robots.txt testerji. Iščite zapise s status kodo 200 OK za user-agente GPTBot, PerplexityBot in ClaudeBot. Mesečna frekvenca dostopov pomeni redno indeksiranje. Brez dostopov v 30 dneh je verjetna blokada na DNS ali firewall ravni. |
Po implementaciji 8 tehničnih elementov je ključno preveriti, ali AI crawlerji res uspešno berejo vašo stran. Brez te validacije ne veste, ali sprememba dejansko deluje. Spodaj so 4 praktične metode za preverbo:
Server access logi
Najbolj zanesljiva metoda. Server access logi (Apache, Nginx) zapisujejo vsak request s časom, IP-jem, user-agentom in status kodom. Filtrirajte po user-agent (GPTBot, PerplexityBot, ClaudeBot) in preverite frekvenco in status kode. Tipična zdrava frekvenca v 2026: 5-50 dostopov na teden za srednje veliko spletno stran. Status kode naj bodo 200 OK; 403/429 pomenita blokado.
Cloudflare Analytics (če uporabljate Cloudflare)
V Cloudflare dashboardu pojdite na Analytics → Traffic. Filtrirajte po user-agent in preverite število dostopov AI crawlerjev. Cloudflare prikaže tudi, ali so requesti blokirani prek WAF pravil ali Bot Fight Mode-a. Če vidite veliko »challenged« requestov za AI crawlerje, jih dodajte v whitelist.
Robots.txt tester
Spletna orodja kot technicalseo.com/tools/robots-txt omogočajo simulacijo, kako bi določen user-agent obravnaval vaš robots.txt. Vstavite URL ene od ciljnih strani in user-agent (GPTBot), orodje odgovori, ali bi crawler dostopil ali ne. Hitra metoda za preverbo robots.txt direktiv.
Google Search Console »URL Inspection«
Za Google specifično: v Google Search Console uporabite »URL Inspection« orodje. Preveri, ali Google lahko prebere stran in kako jo razume. Pri AI Overviews delu imejte v mislih, da Google-Extended ni eksplicitno preverljiv prek GSC, vendar splošna dostopnost za Googlebot je dober proxy.
Pogosta vprašanja o tehnični GEO optimizaciji
| Najpogostejša vprašanja zadevajo prioriteto med tehničnimi elementi, kompleksnost implementacije, vpliv WordPress vtičnikov, razlike med Cloudflare in drugimi CDN-ji ter čas do prvih rezultatov. Praviloma so prvi 3 elementi (robots.txt, schema, sitemap) implementirani v 1 do 3 dneh in prinesejo večino učinka. |
Kateri tehnični element je najpomembnejši?
Robots.txt konfiguracija je predpogoj — brez nje vsi ostali elementi ne pomagajo. Drugi najpomembnejši: schema markup (Article, FAQPage, Organization). Tretji: hitrost nalaganja (Core Web Vitals). Skupaj te tri zagotovijo 80 % tehničnega GEO učinka. Preostali 5 elementov dograjuje sistematični pristop in koristi manjkajo.
Ali moram implementirati llms.txt?
V 2026 llms.txt še ni univerzalno sprejet standard, vendar ga vse več AI sistemov upošteva. Implementacija je preprosta (markdown datoteka na korenu domene) in nima negativnih učinkov. Priporočilo: implementirajte llms.txt kot “low-cost, future-ready” element. Če standard postane mainstream, ste pripravljeni; če ne, nimate izgube.
Ali WordPress vtičniki kot Wordfence blokirajo AI crawlerje?
Da, mnogi WordPress varnostni vtičniki privzeto blokirajo “neznane bote” — kategorija, kjer pristajajo AI crawlerji. Wordfence, iThemes Security, Sucuri Security in All in One WP Security imajo pogosto privzete nastavitve, ki blokirajo AI crawlerje. Rešitev: v vtičnikovih nastavitvah dodajte AI crawlerje na whitelist (User-agent contains GPTBot, PerplexityBot, ClaudeBot).
Kako Cloudflare Bot Fight Mode vpliva na AI crawlerje?
Cloudflare Bot Fight Mode in Super Bot Fight Mode v privzetih nastavitvah blokirata vse “sumljive” bote, vključno z AI crawlerji. Rešitev: v Cloudflare dashboardu (Security → Bots) izklopite Bot Fight Mode ali dodajte WAF Skip pravilo za AI crawlerje (User-Agent contains “GPTBot” → Action: Skip Managed Rules).
Kako hitro po tehnični optimizaciji vidim rezultate?
Tehnične spremembe (robots.txt, schema) prinesejo prve rezultate v 2 do 4 tednih, ko AI crawlerji ponovno indeksirajo strani z urejenim dostopom. Hitrost in HTML struktura imata postopen učinek skozi 1 do 3 mesece. Llms.txt je nov standard — jasen efekt v 2026 je še težko meriti, vendar implementacija ni dragocena.
Ali se lahko tehnične optimizacije za GEO in SEO prekrivajo?
Da, večinoma. Schema markup, hitrost, sitemap, semantični HTML5 koristijo enako Googlu in AI iskalnikom. Edina specifična GEO komponenta je robots.txt za AI crawlerje in llms.txt. To je dobra novica: ena tehnična investicija prinese rezultate v obeh kanalih.
Tehnična GEO optimizacija je prvi korak vsakega GEO projekta — brez nje so vsebinske in avtoritetne strategije neuporabne. AIE Media nudi celovit GEO tehnični audit: pregled robots.txt, schema markup, hitrosti, dostopnosti AI crawlerjev in implementacija vseh 8 tehničnih elementov. Rezultat: izhodišče za GEO vidnost v 2 do 4 tednih.
Leave a comment