Come farsi trovare nelle query su ChatGPT e Gemini (AI Engine Optimization)
lo stato della SEO nel 2026 non è “un aggiornamento”, è un cambio di sistema
Per capire perché oggi la SEO “sembra” più instabile, bisogna partire da una verità scomoda: non stiamo assistendo a un semplice rimescolamento di ranking, ma a una trasformazione dell’esperienza di ricerca. La SERP classica (dieci link blu, click, sessione, conversione) non è sparita, ma non è più l’unico “luogo” dove si decide la visibilità. La ricerca è diventata multi-superficie (Google, YouTube, Maps, Discover, forum, marketplace, social) e, soprattutto, multi-strato: tra l’utente e il web si sta inserendo un livello di sintesi e assistenza che risponde, riassume, confronta, suggerisce. In altre parole: non competi più solo per “salire su Google”, competi per essere scelto come fonte dentro risposte generate e percorsi guidati.
Google lo dice apertamente: con AI Overviews e AI Mode gli utenti fanno più ricerche, pongono domande più complesse e “a catena” (follow-up), e i risultati includono link in modi diversi, con più fonti sulla pagina per favorire l’esplorazione. Ma dal punto di vista di chi pubblica contenuti, questa promessa convive con una tensione reale: se la risposta si chiude “nel layer AI”, il click può diminuire, anche quando la visibilità resta alta.
Qui entra in gioco il fenomeno che negli ultimi anni ha smesso di essere un dettaglio statistico ed è diventato una condizione strutturale: le ricerche senza click. La ricerca di SparkToro (su dati 2024) stima che una quota maggioritaria di query non generi alcun click verso l’open web, sia negli USA sia in Europa. È un dato che non va letto come “morte del traffico”, ma come spostamento del valore: molte decisioni si formano prima della visita (impression, snippet, citazioni, confronto tra opzioni, percezione del brand).
E quando l’AI entra nell’esperienza di ricerca, la posta sale: non è più solo “meno click”, è anche più rischio reputazionale. Gli incidenti noti del 2024 (risposte assurde tipo colla sulla pizza o consigli di “mangiare pietre”) hanno reso pubblica la fragilità del modello. Nel 2026 il tema è tornato in primo piano in ambiti sensibili: per esempio, in UK una grande organizzazione come Mind ha avviato un’inchiesta sull’impatto dell’AI sulla salute mentale dopo reportage su risposte fuorvianti in ambito medico. Morale: se il tuo brand, i tuoi servizi o i tuoi contenuti possono essere sintetizzati male, oggi la SEO non è solo acquisizione: è anche controllo della narrativa.
Infine c’è il fronte economico-politico. In Europa, la discussione sul rapporto tra AI in Search e contenuti dei publisher è diventata così calda da generare complaint formali: a febbraio 2026 l’European Publishers Council ha presentato un reclamo antitrust contro Google su AI Overviews/AI Mode. Questo non è gossip di settore: è il segnale che la SEO sta entrando in una fase in cui attribuzione, accesso ai contenuti e sostenibilità del web influenzeranno regole e piattaforme.
In questo contesto, dire “la SEO è morta” è una scorciatoia narrativa. È più accurato dire: la SEO si è trasformata in “presenza e reperibilità” dentro un ecosistema di risposte, card, sintesi e percorsi assistiti. E il lavoro oggi è progettare contenuti e siti in modo che siano:
- trovabili (crawl/index),
- selezionabili (retrieval),
- citabili (estrazione e sintesi),
- attribuibili (link e tracking),
- e soprattutto affidabili (trust e controllo della versione “ufficiale”).
1) Da “ranking” a “presenza dentro la risposta”
La vecchia SEO era, in gran parte, un gioco di posizionamenti: la query → la pagina → il click → la sessione. Oggi quel flusso spesso si spezza o cambia forma:
- l’utente ottiene una risposta sintetica e fa un follow-up senza cliccare;
- l’utente vede un confronto già pronto;
- l’utente arriva sul sito solo quando è più vicino alla decisione (e quindi il traffico cala, ma l’intento medio cresce);
- l’utente ti “incontra” come fonte dentro un answer engine e poi ti cerca per nome (brand search).
Questo spiega perché molti team vedono crescere la sensazione di “lavoro invisibile”: fai contenuti migliori, ma non sempre vedi lo stesso ritorno in sessioni organiche.
Qui vale una bussola che Google ha ribadito più volte: non esiste una “AI-SEO separata” dalle fondamenta. Danny Sullivan e John Mueller hanno insistito sul concetto: “SEO per l’AI” resta SEO, e ciò che funziona nel lungo periodo è costruire contenuti utili e distintivi, non inseguire micro-ottimizzazioni opportunistiche.
Quindi non è “nuova disciplina”, ma nuova definizione di visibilità: non solo ranking, ma probabilità di essere recuperati e usati come fonte.
2) Training vs retrieval: la distinzione che cambia la strategia
Quando dici “voglio essere trovato da ChatGPT / Gemini / Claude”, stai mischiando due meccanismi diversi:
A) Raccolta per dataset / training / miglioramento dei modelli
Qui entrano in gioco crawler che visitano il web su larga scala. Per esempio Anthropic spiega che ClaudeBot raccoglie contenuti che “potrebbero contribuire al training”, e che bloccarlo segnala che i materiali futuri vadano esclusi dai dataset di training.
B) Recupero di informazioni su richiesta (search / browsing / retrieval)
Qui entrano in gioco bot che servono a fornire risultati aggiornati o a rispondere con fonti. OpenAI distingue i suoi crawler e documenta OAI-SearchBot (indicizzazione per esperienze di ricerca) e GPTBot (raccolta per migliorare i modelli), lasciando ai webmaster la scelta via robots.txt.
Questa distinzione non è accademica: ti obbliga a decidere cosa vuoi permettere.
- Se vuoi essere citato e comparire nelle risposte, devi facilitare il retrieval e rendere i contenuti “usabili”.
- Se vuoi limitare l’uso per training, devi impostare policy coerenti (robots, aree private, paywall, ecc.).
3) I crawler “chiave” e cosa implicano davvero
OpenAI (ChatGPT)
OpenAI pubblica una panoramica dei suoi crawler e dei tag robots.txt (inclusi OAI-SearchBot e GPTBot).
In più, OpenAI spiega che, quando un publisher permette l’accesso a OAI-SearchBot, può tracciare il traffico di referral perché ChatGPT include utm_source=chatgpt.com nei link.
Implicazione pratica: se blocchi “tutto” per paura, potresti sparire proprio dove oggi si forma una parte crescente della domanda informativa.
Google (AI Overviews / AI Mode)
Google sta integrando sempre più l’AI dentro Search e ha pubblicato linee guida su come far performare i contenuti nelle esperienze AI, insistendo su utilità, unicità e soddisfazione dell’utente.
Implicazione pratica: ciò che fai per qualità editoriale, chiarezza, struttura e credibilità si riflette sia nella ricerca classica sia nelle AI features (anche se i CTR possono comportarsi diversamente).
Perplexity
Perplexity dichiara che PerplexityBot è progettato per “surface & link” nei risultati e non per il training di foundation models; fornisce anche indicazioni su robots.txt e IP range.
C’è però un contesto importante: Cloudflare ha accusato Perplexity di pratiche di “stealth crawling” per aggirare direttive di no-crawl, con un confronto pubblico molto acceso.
Implicazione pratica: la governance dei bot non è “set and forget”. Va monitorata: user agent, IP, frequenza, e regole WAF/CDN.
Anthropic (Claude)
Anthropic spiega i propri agenti: ClaudeBot (raccolta web potenzialmente utile al training), Claude-User (accessi avviati dagli utenti), e riferimenti alla componente di ricerca (Claude-SearchBot).
Implicazione pratica: puoi separare le scelte: permettere accessi user-triggered e bloccare la raccolta massiva (o viceversa), in base al tuo modello di business.
4) Il cuore di GEO/AEO: diventare “citatili” (senza scrivere per i bot)
La formula utile, senza fuffa, è questa:
Non ottimizzi solo per essere trovato. Ottimizzi per essere usato come fonte affidabile dentro una risposta.
Per aumentare la probabilità di essere selezionato e citato, i contenuti devono essere:
- chiari (definizioni esplicite),
- strutturati (H2/H3 sensati, elenchi, sezioni),
- specifici (criteri, esempi, limiti),
- verificabili (date, contesto geografico, condizioni),
- aggiornati (freshness dichiarata),
- coerenti come entità (chi sei, cosa fai, dove operi, in che ambito).
4.1 Answer-first (la regola più semplice e più ignorata)
Molti testi “SEO vecchio stile” rimandano la risposta per trattenere l’utente. Con le AI features è spesso un autogol.
Struttura che tende a funzionare meglio:
- Risposta breve in apertura (2–5 righe)
- Approfondimento per sotto-domande (H2/H3)
- Blocchi riusabili: checklist, step, pro/contro, esempi
- FAQ reali (non inventate), basate su domande che ricevi davvero o su query logiche del funnel
4.2 La “citatilità” nasce da 4 ingredienti
- Specificità: “dipende” va seguito da variabili e criteri (“dipende da A, B, C; scegli così”).
- Verificabilità: “Aggiornato a febbraio 2026”, “valido per Italia”, “per WooCommerce”, “per PMI B2B”.
- Fonti: link a documentazione, linee guida, report. La citazione premia ciò che appare ancorato.
- Parsabilità: gerarchie chiare, periodi non confusi, niente muri di testo senza titoli.
5) Misurare senza indovinare: log, WAF/CDN e segnali concreti
Se vuoi capire come i bot si muovono davvero, devi guardare dove passano davvero: i log.
Cosa osservare:
- user agent e pattern (chi ti crawla),
- IP/ASN (coerenza con range dichiarati),
- URL visitati (quali contenuti interessano),
- response code (200/301/404/403/5xx),
- frequenza e ritorno (freshness percepita).
5.1 Tracciare i referral da ChatGPT
Se vieni linkato in ChatGPT Search, OpenAI dichiara che i link includono utm_source=chatgpt.com, quindi puoi misurare in modo pulito pagine e query che “rendono” come fonti.
5.2 Perché una pagina viene scansionata più di un’altra
Di solito non è casuale. Le cause più comuni:
- aggiornamenti recenti (freshness),
- internal linking forte,
- sitemap con lastmod sensato,
- performance e accessibilità (meno frizioni),
- contenuto utile in formato “estrattivo” (FAQ, step, definizioni),
- cluster tematico (pagine hub che chiariscono un argomento intero).
6) Tecnica: rendere il sito “AI-friendly” senza magia
6.1 Robots.txt: scelte consapevoli
OpenAI e altri attori documentano esplicitamente come gestire i loro bot via robots.txt.
Regola pratica:
- blocca aree private (admin, account, carrelli, parametri inutili),
- permetti i contenuti che vuoi far citare (guide, glossari, pagine servizio),
- non bloccare tutto “per paura”, se il tuo obiettivo è visibilità e attribuzione.
6.2 Canonical, duplicati, parametri: pulizia o perdi “chiarezza”
Gli ecosistemi di retrieval soffrono siti “sporchi”:
- molte varianti di URL per lo stesso contenuto,
- canonical incoerenti,
- paginazioni e filtri indicizzati senza controllo,
- duplicati quasi identici.
Se vuoi citazioni, devi ridurre l’ambiguità: una pagina = un concetto = un URL forte.
6.3 Performance e rendering
Se il contenuto principale arriva tardi o è nascosto dietro JS pesante/lazy-load aggressivo, stai rendendo più difficile l’estrazione. Non tutti i sistemi renderizzano come un browser completo (e anche quando lo fanno, spendono budget).
6.4 Structured data: utile solo se vero
Schema aiuta quando rappresenta fedelmente ciò che è visibile.
Tipi spesso utili (se coerenti):
- Article/BlogPosting (autore e date),
- FAQPage (solo FAQ reali on-page),
- HowTo (solo step reali),
- Product/Offer (e-commerce),
- Organization/LocalBusiness (chiarezza entità).
Errore tipico: FAQ schema “fantasma” o rating gonfiati. A lungo andare è un boomerang: perdi fiducia algoritmica e crei aspettative false.
7) Content engineering: scrivere pagine che l’AI usa davvero
7.1 Formati che performano bene in logica “answer engine”
- Glossari e definizioni (“cos’è X”, “X vs Y”)
- Guide how-to con step chiari
- FAQ approfondite (non 5 domandine)
- Comparazioni e criteri di scelta
- Checklist ed errori comuni
- Pagine “come funziona” (spedizioni, resi, tempi, policy) per e-commerce/servizi
7.2 Densità informativa > lunghezza
Non vince chi scrive 2.000 parole. Vince chi scrive 2.000 parole con alto rapporto tra frasi utili e frasi decorative.
Esempio (stesso tema, due stili):
- Vago: “La sicurezza è importante, cambia password, usa strumenti adeguati.”
- Citabile: “Usa password uniche per ogni account, abilita 2FA, preferisci passkey dove disponibili, controlla sessioni attive e accessi recenti; su WordPress limita i tentativi di login, aggiorna plugin/tema e usa WAF/CDN per mitigare brute force e bot.”
7.3 Brand safety contro risposte errate: crea una “fonte ufficiale”
Con l’AI in mezzo, la tua priorità non è solo farti trovare: è farti rappresentare correttamente.
Pagine che aiutano a prevenire fraintendimenti:
- About e “Chi siamo” solidi
- Fact sheet (dati ufficiali, servizi, aree coperte)
- Contatti ufficiali e canali verificati
- “Ultimo aggiornamento” su prezzi, policy, disponibilità
- Glossario interno (termini, definizioni, confini)
8) Reverse engineering “pulito”: capire perché alcuni vengono citati
Audit pratico:
- scegli 10 query reali del tuo settore (info + comparazione + transazionale)
- chiedile a più sistemi (Search/AI)
- annota:
-
- chi viene citato,
- tipo di pagina (guida, definizione, news, listone),
- segnali di fiducia (autore, data, fonti),
- struttura (answer-first? checklist?),
- forza del brand vs specializzazione verticale.
Poi replica la logica di valore, non il testo.
9) KPI nel 2026: cosa misurare quando il click cala
Oltre a ranking e traffico, misura:
- referral da AI assistant (quando tracciabile; per ChatGPT: UTM)
- citazioni/menzioni (manuale o tool)
- share of answers su un set di query target
- query-to-lead (form, chiamate, chat, preventivi)
- brand search lift (aumento ricerche di marca dopo esposizione)
E soprattutto: aggiorna le aspettative interne. In molte nicchie il valore si sposta da “visite” a “decisione influenzata”.
10) Blueprint operativo: cosa fare in 30 giorni
Settimana 1 — Fondamenta tecniche e governance bot
- rivedi robots.txt con obiettivi chiari (visibilità vs protezione)
- pulisci canonical, duplicati, redirect chain, 404 importanti
- controlla sitemap (URL utili + lastmod sensato)
- migliora performance e accessibilità del contenuto principale
Settimana 2 — 5 pagine “citabili” ad alto impatto
Crea/riscrivi 5 pagine chiave con:
- answer-first,
- H2/H3 per follow-up,
- checklist e esempi,
- FAQ vere,
- fonti autorevoli,
- data di aggiornamento,
- schema coerente.
Settimana 3 — Cluster tematico + internal linking
- costruisci hub per macro-temi (“Guida completa a…”)
- collega in modo logico
- usa pagine forti per spingere pagine nuove con link contestuali
Settimana 4 — Misura e iterazione
- analizza log: bot, errori, URL più visitati
- monitora referral da ChatGPT (UTM)
- ripeti su altre 5 pagine, partendo da quelle molto crawlate ma poco citate (di solito manca: risposta diretta, prove, struttura).
AI Engine Optimization non sostituisce la SEO, la completa
La sintesi più onesta è questa:
Google dice: le fondamenta restano, e le AI experiences sono un’evoluzione della ricerca.
I dati mostrano: il comportamento “zero-click” è rilevante e cambia il significato di visibilità.
Il mercato conferma: una parte crescente del valore passa dalla capacità di essere recuperati, sintetizzati e citati correttamente.
Quindi la strategia migliore oggi è ibrida:
SEO classica + content engineering per citazioni + misurazione dei referral AI + governance dei crawler + pagine “ufficiali” per proteggere brand e accuratezza.





