Ilario Gobbi | AI Tool, SEO & Storytelling

Tool AI per la SEO ed esempi di storytelling fantastici

L’Analisi dei Dati nella SEO: Strategie di Ottimizzazione

Live Veronica Contini

La live si apre con la presentazione di Veronica Contini, un’esperta SEO strategist con una solida esperienza nella crescita digitale delle aziende. Attualmente ricopre il ruolo di Head of Growth presso Digital 360, una posizione che le permette di coordinare diverse attività strategiche per migliorare la visibilità online dei clienti. Veronica ha spiegato che, per potenziare le sue capacità SEO, ha deciso di intraprendere un master in analisi dei dati, consapevole di quanto questo ambito sia diventato fondamentale per prendere decisioni strategiche informate. La sua esperienza e formazione multidisciplinare la collocano in un punto di incontro tra marketing e analisi.

Leggi tutto: L’Analisi dei Dati nella SEO: Strategie di Ottimizzazione

Il ruolo del SEO come project manager

Un tema chiave della discussione è stato il ruolo del SEO come una figura che non si limita più all’ottimizzazione per i motori di ricerca, ma assume le vesti di un project manager. Veronica concorda con Ilario su questa visione, sottolineando che un SEO deve avere la capacità di coordinare diversi aspetti del marketing digitale, dal branding alla gestione del sito web. Tuttavia, precisa che è altrettanto importante riconoscere i propri limiti e collaborare con altri professionisti specializzati. Un buon SEO deve essere in grado di delegare compiti specifici a esperti di altri settori (come sviluppatori web o esperti di contenuti) per garantire una strategia integrata e di successo.

SEO e analisi dei dati: un legame imprescindibile

Veronica ha evidenziato che l’analisi dei dati è diventata una componente essenziale per qualsiasi strategia SEO efficace. La SEO si basa fondamentalmente sull’interpretazione di dati provenienti da fonti diverse, come Google Search Console o Google Analytics. Questi strumenti forniscono una visione quantitativa delle prestazioni di un sito, come il numero di visite, il tempo medio di permanenza o il tasso di conversione. Con l’avvento dell’intelligenza artificiale, è possibile integrare queste analisi quantitative con approfondimenti qualitativi più dettagliati, ad esempio analizzando il comportamento degli utenti o segmenti specifici di pubblico. Un aspetto su cui Veronica ha insistito è l’importanza di combinare i dati di mercato con quelli provenienti dalle interazioni dirette con i clienti, tramite sondaggi o interviste, per comprendere meglio le esigenze e le preferenze del target.

Creazione di dashboard condivise per una collaborazione efficace

Per Veronica, la comunicazione e la collaborazione tra i diversi dipartimenti aziendali sono cruciali per implementare una strategia SEO basata sui dati. Questo è particolarmente vero in aziende di grandi dimensioni, dove diverse funzioni devono lavorare insieme per raggiungere obiettivi comuni. In questo contesto, le dashboard condivise sono strumenti essenziali per facilitare il monitoraggio delle prestazioni. Veronica ha parlato di come in aziende più strutturate si usino piattaforme avanzate come Amazon Quicksight o Salesforce, mentre per le PMI strumenti come Google Data Studio siano perfetti per visualizzare le metriche SEO più rilevanti. Tali dashboard permettono a tutti i dipartimenti di visualizzare le metriche aziendali chiave, facilitando decisioni basate su dati concreti, come le conversioni o l’acquisizione di nuovi clienti.

Il metodo degli OKR per definire obiettivi chiari e misurabili

Durante la live, Veronica ha introdotto il concetto di OKR (Objective Key Results), un metodo strategico che aiuta le aziende a definire obiettivi chiari e le relative metriche per misurarne il progresso. Questo approccio si applica perfettamente alla SEO, dove spesso l’obiettivo iniziale è aumentare le visite al sito o migliorare il posizionamento nei motori di ricerca. Tuttavia, Veronica sottolinea che l’attenzione non dovrebbe fermarsi alle vanity metrics (le metriche di vanità), ma piuttosto spostarsi su KPI più significativi per il business, come le conversioni, la crescita del fatturato o l’acquisizione di nuovi clienti. Gli OKR consentono di allineare la SEO con gli obiettivi aziendali globali, garantendo che ogni attività SEO porti a risultati concreti.

Strumenti essenziali per l’analisi SEO

Veronica ha poi condiviso un elenco degli strumenti che considera indispensabili per un SEO strategist. Tra questi, ha citato Google Search Console e Google Analytics, che forniscono una panoramica generale delle prestazioni del sito, e Screaming Frog, uno strumento fondamentale per l’analisi tecnica. Tuttavia, per prendere decisioni più informate e guidare la crescita aziendale, Veronica sottolinea l’importanza di integrare anche i dati provenienti da CRM aziendali, che contengono informazioni preziose sui clienti e sulle vendite. Un elemento interessante è stato il riferimento all’uso del pixel di Meta, che Veronica utilizza per monitorare l’accuratezza dei dati di conversione forniti da Google Analytics.

Vanity metrics: rischi e inganni

Un argomento cruciale emerso nella discussione riguarda il pericolo delle vanity metrics, ovvero metriche che possono sembrare indicative del successo ma che in realtà non portano a un reale valore per il business. Veronica ha fatto l’esempio del CTR sulle SERP e della posizione media nelle ricerche di Google. Queste metriche, se non contestualizzate, possono facilmente indurre in errore. Ad esempio, la posizione media è un dato che può variare in modo significativo in base alla localizzazione dell’utente o alla tipologia di ricerca effettuata. Anche il bounce rate è una metrica ambigua: un tasso di rimbalzo alto può indicare problemi con i contenuti del sito, ma può anche essere interpretato positivamente se l’utente ha trovato subito l’informazione che cercava.

Dati e azioni umane: comprendere il comportamento dell’utente

Uno dei punti più rilevanti della live è stato l’approfondimento sull’interpretazione dei dati come azioni umane. Veronica ha insistito sul fatto che dietro ogni metrica c’è un comportamento umano che va compreso a fondo. Ad esempio, il tempo medio trascorso su una pagina potrebbe significare interesse o, al contrario, confusione se gli utenti non trovano immediatamente ciò che cercano. Questo tipo di analisi comportamentale è essenziale per ottimizzare l’esperienza dell’utente e, di conseguenza, migliorare le performance SEO.

Personalizzazione delle ricerche e differenze regionali

Veronica ha parlato della personalizzazione dei risultati di ricerca, spiegando come metriche standard come la posizione media possano essere influenzate dalla personalizzazione degli algoritmi di Google. Ad esempio, nelle ricerche locali (come “miglior ristorante giapponese di Milano”), la posizione geografica dell’utente gioca un ruolo fondamentale nel determinare i risultati visualizzati. Questo rende difficile standardizzare le metriche di posizionamento e richiede un’analisi più profonda per comprendere il vero impatto della SEO locale.

Verifica dei dati e gestione delle metriche

Veronica ha iniziato illustrando come si occupa di filtrare i dati utilizzando Looker Studio, uno strumento che le consente di gestire i report collegandoli direttamente a Google Analytics. Questo approccio, secondo lei, è vantaggioso perché i dati si aggiornano in tempo reale, evitando la necessità di interventi manuali, come accadrebbe utilizzando Excel o Google Sheets, che richiederebbero la creazione di connettori per mantenere i dati aggiornati automaticamente. Questo passaggio è cruciale, specie in ambito aziendale, dove può essere necessario un supporto più avanzato da parte di un data analyst specializzato, come ad esempio per la gestione di data lakes. Veronica ha voluto sottolineare come il lavoro dei SEO, spesso percepito come completo, in realtà prevede una collaborazione con altre figure tecniche per garantire una corretta interpretazione dei dati.

Ha poi spiegato che, pur non essendo lei un’esperta di API, è comunque in grado di notare quando alcuni dati mancano nei report, come nel caso delle metriche di Google Discover, che talvolta possono essere omesse. In questo caso, Veronica ha raccontato come riesca a identificare tali mancanze nei report e a richiedere l’integrazione delle API mancanti ai data analyst o agli sviluppatori.

Analisi dei dati per l’individuazione delle parole chiave efficaci

La discussione si è poi spostata sull’analisi delle parole chiave per portare traffico organico. Veronica ha sottolineato che questa analisi avviene in due momenti distinti: all’inizio della strategia e durante il monitoraggio continuo. Nella fase iniziale, strumenti come il planner delle parole chiave di Google Ads (anche se non del tutto gratuito, dato che richiede il collegamento di una carta di credito) oppure servizi come UberSuggest sono utili per individuare le parole chiave più adatte, spesso attraverso prove gratuite che molti software SEO offrono.

Tuttavia, Veronica ha evidenziato come sia ormai superata la vecchia pratica di focalizzarsi unicamente sulle parole chiave secche. Oggi è fondamentale comprendere l’intento di ricerca dietro ogni query. Ha portato l’esempio di una ricerca su CRM software, dove se la SERP restituisce principalmente pagine di vendita, creare un articolo informativo risulterebbe inefficace. Allo stesso modo, una ricerca come “scarpe Nike” è troppo generica per produrre un articolo di blog, mentre un contenuto su “come abbinare le scarpe Nike” potrebbe avere più senso.

Ha poi menzionato la differenza tra le keyword ad alto volume di ricerca e le long tail keyword: le prime attirano molta concorrenza, ma non sempre generano conversioni immediate. Anche se si riesce a posizionarsi per keyword molto generiche come “LinkedIn”, ciò può risultare una vittoria solo a livello di vanity metric, senza reali benefici in termini di traffico mirato. Questo perché chi cerca solo il nome del brand, come nel caso di “LinkedIn”, spesso desidera semplicemente accedere al sito e non leggere una guida su come creare un profilo.

Problemi con le metriche e il concetto di “Vanity Metrics”

Un altro punto chiave è stato il problema delle metriche fuorvianti. Veronica ha evidenziato come i tool SEO spesso sovrastimino le stime del traffico, basandosi su un CTR ipotetico che non corrisponde sempre alla realtà. Ha condiviso esempi di siti che appaiono in posizioni elevate per keyword generiche, ma che, a causa dell’intento di ricerca errato, non portano al traffico previsto. In questi casi, il cliente potrebbe avere aspettative irrealistiche e tocca al SEO gestirle e chiarire come funziona realmente il traffico organico.

L’importanza dell’architettura del sito e del linking interno

Veronica ha poi parlato dell’importanza dell’architettura del sito e di come l’analisi dei dati aiuti a costruirla. Grazie ai tool di analisi semantica e ai large language models, si può identificare la pertinenza di un sito per determinati argomenti. Questi strumenti non si limitano a mostrare le keyword più popolari, ma evidenziano i cluster semantici più rilevanti, aiutando a comprendere meglio come i vari temi siano interconnessi.

La SEO moderna non si basa più sulla vecchia logica dei “silos”, dove ogni categoria era chiusa in se stessa. Al contrario, è fondamentale creare collegamenti orizzontali tra le varie sezioni del sito, in modo da migliorare la user experience e, al contempo, rafforzare la struttura semantica del sito agli occhi di Google.

Il ruolo dei link interni

Veronica ha anche ribadito che i link interni rimangono essenziali per distribuire il page rank all’interno del sito. Tuttavia, ha sottolineato che è importante non esagerare con i link per non diluire il page rank stesso. I collegamenti interni devono essere strategici e salienti, e non solo quantitativi. Anche se il linking interno ha una sua importanza, i link esterni rimangono i più preziosi per migliorare il posizionamento.

Uso di tool avanzati e AI nella SEO

L’uso di strumenti avanzati come Semrush e ChatGPT è stato un altro tema toccato da Veronica, che ha spiegato come questi tool permettano di creare analisi avanzate, combinando diverse metriche come il click-through rate, le page views, le conversioni e altro. Grazie a questi strumenti, è possibile creare modelli che assegnano pesi diversi alle varie metriche e calcolare quali pagine performano meglio o peggio. L’ottimizzazione non si ferma solo alle metriche tradizionali, ma si espande verso una visione più globale e complessa della SEO.

L’intervento si espande ulteriormente su un concetto già accennato precedentemente: l’affidabilità degli strumenti di analisi e l’importanza di considerare i loro limiti. Inizia sottolineando che, sebbene Google Search Console sia uno strumento cruciale per monitorare i clic sulle pagine di ricerca, anche questo può a volte essere soggetto a bug. Tuttavia, essendo un servizio di Google, ci si deve affidare a questi dati perché riflettono le decisioni di Google stesso.

Il discorso passa quindi ad Analytics, dove emerge l’importanza di comprendere come sono configurati i cookie. L’utente deve distinguere tra cookie tecnici e cookie di marketing e riflettere su quanti visitatori accettano il tracciamento. Se, per esempio, il banner per i cookie non è visibile o sparisce con lo scroll, i dati raccolti potrebbero risultare poco attendibili. Ciò potrebbe portare a conclusioni errate che influenzano negativamente l’intera strategia di business. Il relatore mette in guardia contro la possibilità di lavorare su dati fuorvianti, sottolineando l’importanza di una corretta configurazione e raccolta dei dati.

Successivamente, si parla della difficoltà di trovare uno strumento che riesca a gestire perfettamente sia lo storage che la visualizzazione dei dati. Per esempio, QuickSight viene lodato per la capacità di storage, ma criticato per le visualizzazioni. A questo punto entra in gioco il ruolo del data analyst, che può essere in grado di presentare i dati in modo fuorviante, come spesso si vede nelle campagne elettorali.

Proseguendo, viene trattata l’idea di suddividere l’Analytics su vari domini per avere una maggiore precisione nei dati, specialmente per chi non può permettersi strumenti a pagamento come Analytics 360. La segmentazione permette di mantenere una maggiore accuratezza nel campionamento e nelle metriche rilevate.

Un’ulteriore discussione si sviluppa sull’importanza delle visualizzazioni dei dati. Looker Studio, ex Data Studio, viene considerato il preferito del relatore per la sua capacità di integrarsi nativamente con vari strumenti di Google come Analytics, Search Console, Google Sheets, YouTube e Google Ads. Viene evidenziata la flessibilità di questo strumento per creare visualizzazioni complesse, pur mantenendo una relativa semplicità d’uso. Nonostante la presenza di numerosi bug, una volta che l’utente si abitua a scollegare e ricollegare le fonti quando necessario, Looker Studio offre una vasta gamma di possibilità, tra cui mappe geografiche che mostrano l’origine delle visite.

Il relatore si sofferma sull’importanza delle visualizzazioni per comunicare i dati in modo chiaro. Afferma che Looker Studio consente di modificare le dashboard in base alle esigenze di chi consulta i report, aggiungendo visualizzazioni e confronti nel tempo, rendendo così i dati più fruibili e comprensibili. Le visualizzazioni possono essere considerate come una forma di “dare vita” ai numeri, rendendoli più tangibili agli occhi dell’osservatore.

La live quindi procede con una domanda sulle metriche utilizzate per analizzare il comportamento degli utenti e migliorare il rendimento delle pagine. Il relatore distingue tra le metriche SEO e quelle UX. Per quanto riguarda la SEO, si focalizza su metriche come il bounce rate e il tempo trascorso sulla pagina, analizzando quanto queste indicano la pertinenza del posizionamento rispetto alla query di ricerca. Un’elevata frequenza di rimbalzo, per esempio, potrebbe indicare che la pagina non risponde efficacemente alla domanda dell’utente.

Vengono inoltre esplorati i casi in cui una buona performance SEO si scontra con una scarsa esperienza utente (UX), per esempio quando il contenuto carica lentamente o le call-to-action non sono pertinenti al contesto della pagina. In questi casi, il relatore suggerisce una sinergia tra SEO e UX per migliorare sia il posizionamento che l’esperienza dell’utente.

La conversazione si sposta sulla gestione dei contenuti obsoleti. Il relatore, lavorando in un gruppo editoriale, ha il compito di monitorare articoli tecnici che possono perdere rilevanza nel tempo. Quando i contenuti iniziano a perdere posizioni su Google, è il segnale che nuovi contenuti vengono preferiti e potrebbe essere necessario un aggiornamento. Inoltre, se un articolo continua a generare molto traffico, è importante mantenere la sua pertinenza, aggiornando le informazioni tecniche per evitare di presentare contenuti obsoleti. L’uso di strumenti come Gemini, che suggerisce aggiornamenti ai contenuti, viene considerato utile, così come il monitoraggio dei link rotti per identificare tecnologie superate.

Infine, la relatrice introduce il tema delle performance, in particolare la paura generata dall’introduzione delle metriche Core Web Vitals, come il Cumulative Layout Shift (CLS). Nonostante l’enfasi iniziale su queste metriche, il relatore sostiene che il loro impatto sul posizionamento dei siti non è così rilevante come si temeva, se non in casi estremi. Tuttavia, la velocità di caricamento del contenuto principale (Largest Contentful Paint) viene vista come una metrica utile sia per la SEO che per l’UX.

Doppio del traffico: pubblicazione e discover

Veronica ha fatto notare che raddoppiare il traffico scrivendo il doppio può sembrare un concetto banale, ma in realtà accade spesso. Tuttavia, pur potendo ridurre le pubblicazioni per attutire l’impatto di un calo di posizionamento nella Search, non si può fare lo stesso su Discover. Su Discover, infatti, la frequenza di pubblicazione è cruciale, poiché gli articoli hanno una vita breve, simile a quella di un tweet. Se si pubblica solo una volta a settimana, si ottiene una minore esposizione rispetto a chi pubblica più volte.

Analisi degli update di google

Veronica consiglia di osservare la coincidenza tra eventuali cali di traffico e i rilasci di update di Google, consultando la guida ufficiale di Search Console. Se un sito perde traffico subito dopo un update, potrebbe essere a causa del contenuto obsoleto o di scarsa qualità, oppure per via di pratiche legate ai link (come l’acquisto di link in passato). Ad esempio, gli aggiornamenti come Penguin possono penalizzare siti con link non naturali o tecniche SEO scorrette.

Importanza della manutenzione tecnica

Un altro fattore da tenere sotto controllo è la parte tecnica del sito, soprattutto se c’è poca comunicazione tra il team SEO e quello di sviluppo. Problemi tecnici, come link rotti o CMS vulnerabili, possono causare problemi di indicizzazione o compromettere la sicurezza del sito. Veronica consiglia un check-up periodico del sito per individuare malware o altre problematiche che potrebbero sfuggire all’occhio dell’utente, ma che impattano Google e i bot.

Competitor e cambiamenti nella serp

Un altro fattore spesso trascurato è l’impatto della concorrenza. Nuovi competitor con investimenti forti possono conquistare rapidamente posizioni chiave, soprattutto se arrivano con una quantità notevole di contenuti di qualità in italiano. Inoltre, le SERP di Google cambiano costantemente: ad esempio, l’introduzione delle anteprime con copertine di album musicali o locandine di film ha drasticamente ridotto i click verso i siti specializzati, nonostante questi ultimi mantengano buoni posizionamenti.

L’impatto dei rich snippet

Un altro cambiamento significativo menzionato riguarda l’introduzione dei rich snippet e del risultato zero. Veronica cita esempi come il sito di Focus che, pur essendo in prima posizione per molte query, ha visto diminuire drasticamente i click perché Google fornisce direttamente le risposte a domande comuni (es. “quanto è veloce un ghepardo”) nelle sue anteprime.

Consigli per chi vuole approcciarsi all’analisi dei dati

Per chi vuole iniziare a fare analisi dei dati in ambito SEO, Veronica consiglia di partire dalle proprie competenze attuali, cercando corsi orientati al web marketing. È preferibile un approccio incrementale, sviluppando nuove competenze partendo da ciò che già si conosce, piuttosto che tentare un cambio radicale. Ad esempio, chi proviene da un percorso umanistico potrebbe trovare utile avvicinarsi all’analisi dei dati senza dover affrontare immediatamente la statistica avanzata, rendendo il processo più gratificante.

La seo è morta?

Veronica conclude scherzosamente affermando che “la SEO è morta”, un’affermazione provocatoria che invita a riflettere sull’evoluzione costante di questo settore.

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

My Agile Privacy

Questo sito utilizza cookie tecnici e di profilazione. 

Puoi accettare, rifiutare o personalizzare i cookie premendo i pulsanti desiderati. 

Chiudendo questa informativa continuerai senza accettare. 

Attenzione: alcune funzionalità di questa pagina potrebbero essere bloccate a seguito delle tue scelte privacy: