SEO Audit Avanzata con Screaming Frog: Guida alle Funzionalità Nascoste
SEO Interviste SEO, Link building e Link interni, Seo toolLa live inizia con Ilario Gobbi che accoglie Demetrio Orecchio, un consulente SEO e Analytics. Ilario esprime il suo entusiasmo per l’ospite e sottolinea l’importanza di discutere argomenti specialistici come l’uso avanzato di Screaming Frog, uno strumento essenziale nel campo della SEO. Demetrio ringrazia Ilario per l’invito e introduce il tema della live: l’analisi approfondita con Screaming Frog.
Introduzione a Screaming Frog
Demetrio spiega che Screaming Frog è uno strumento fondamentale per chi lavora nel SEO, particolarmente utile per l’analisi dei siti web. Il tool è in grado di esaminare numerosi URL e fornire dettagli su diversi aspetti delle pagine. Sebbene molte di queste analisi possano essere effettuate manualmente, Screaming Frog offre il vantaggio di velocizzare il processo, specialmente quando si lavora con siti di grandi dimensioni.
Configurazione e Utilizzo di Base
Demetrio descrive come configurare Screaming Frog per ottenere i migliori risultati. È fondamentale decidere cosa si desidera ottenere dalla scansione. Ad esempio, se si vuole analizzare i codici di risposta delle pagine, è importante selezionare le opzioni appropriate come “Crowl” e “Store” per includere i dati nelle schermate di analisi. La scelta di memorizzare i dati nella RAM può essere più veloce, ma comporta il rischio di perdere i dati in caso di problemi tecnici. Salvare i dati su hard disk è più sicuro per scansioni di grandi dimensioni.
Configurazione dei Profili
Demetrio consiglia di utilizzare i profili per semplificare la configurazione delle scansioni. Creare profili specifici per diverse analisi (ad es., immagini, link interni, href Lang) aiuta a risparmiare tempo e a focalizzarsi su aspetti rilevanti senza esaminare dati non necessari. Questo approccio permette di velocizzare il processo e ottenere risultati più pertinenti.
Analisi delle Scansioni e Report
Demetrio mostra un esempio di scansione effettuata su un sito web del collettivo “The Breaking Web”. Spiega come Screaming Frog suddivide le pagine in categorie come HTML, JavaScript, CSS, immagini, e altro. Il tool consente anche di esaminare i link esterni e i loro codici di risposta. Se un link esterno non risponde correttamente, può indicare problemi nel linking interno o esterno del sito.
Gestione degli Errori 404
Un aspetto importante dell’analisi con Screaming Frog è la gestione degli errori 404. Demetrio illustra come identificare le pagine che restituiscono errori 404 e come rintracciare i link interni che puntano a queste pagine. Per correggere gli errori, si possono creare redirect verso contenuti simili o segnare le pagine come 410 se non devono più essere disponibili. Questa pratica aiuta a migliorare l’esperienza dell’utente e a mantenere il sito pulito.
Confronto con Google Search Console
Demetrio discute l’importanza di utilizzare sia Screaming Frog che Google Search Console per un’analisi completa. Screaming Frog fornisce una visione attuale del sito, mentre Google Search Console offre un quadro storico. Utilizzare entrambi gli strumenti consente di ottenere un’analisi più accurata e di gestire meglio gli URL obsoleti o non più validi.
Gestione delle Risorse Obsolete
Per i siti molto grandi, è consigliabile controllare e gestire le pagine obsolete per evitare sprechi di crawl budget. Le risorse obsolete possono essere gestite tramite il file robots.txt o tramite redirect, a seconda del caso. Se le pagine obsolete sono ancora visitabili, è importante valutare se redirigere a contenuti affini o eliminarle completamente.
Analisi della Struttura del Sito
Demetrio mostra come Screaming Frog può essere utilizzato per analizzare la struttura del sito e la distribuzione delle pagine. Utilizzando la tab “Site Structure”, è possibile visualizzare quante pagine sono raggiungibili con un numero specifico di click dall’homepage. Questa analisi aiuta a ottimizzare la navigabilità del sito e a garantire che le pagine principali siano facilmente accessibili.
Analisi della Profondità di Scansione delle Pagine
Per esaminare l’accessibilità delle pagine all’interno del sito, è importante utilizzare la colonna “Crawl Depth” di Screaming Frog. Questa colonna indica il numero di clic necessari per raggiungere una pagina specifica. Ad esempio, se una pagina è raggiungibile dopo 10 clic, ciò significa che gli utenti devono compiere 10 passaggi per arrivarci. Questo è un chiaro indicatore di quanto sia difficile accedere a quella pagina, sia per gli utenti che per i motori di ricerca.
Se una pagina di rilevanza significativa è difficile da raggiungere, è consigliabile modificarne la posizione all’interno della struttura del sito. La strategia migliore è assicurarsi che queste pagine rilevanti siano collegate tramite il menu principale o un sottomenù di primo livello. Questo aiuta a rendere la pagina più visibile e accessibile, migliorando la sua probabilità di essere indicizzata e ben posizionata nei risultati di ricerca.
Analisi dei Link Interni
Il tab “Links” di Screaming Frog fornisce un’altra metrica utile: il numero di link unici che puntano a ciascuna pagina. Ordinando le pagine per il numero di link unici, è possibile identificare quelle che ricevono pochi collegamenti interni. Pagine con un numero basso di link interni potrebbero avere meno visibilità e autorità. Per le pagine importanti, assicurati che ricevano più collegamenti interni per migliorare la loro visibilità.
Un’altra tecnica utile è quella di esaminare i collegamenti di una singola pagina per determinare dove è linkata all’interno del sito. Questo può aiutare a identificare opportunità per aggiungere ulteriori collegamenti interni o ristrutturare i link esistenti per migliorare la visibilità e la struttura del sito.
Ottimizzazione del Testo di Ancoraggio
Il testo di ancoraggio, o anchor text, è fondamentale per l’accessibilità e l’ottimizzazione SEO. Testi di ancoraggio descrittivi aiutano gli utenti e i motori di ricerca a capire di cosa tratta il collegamento. È importante evitare testi generici come “clicca qui”, che non forniscono informazioni utili. Preferisci testi descrittivi che informano chiaramente il lettore su cosa aspettarsi dal link, come “approfondisci la storia di Peppino Impastato”.
Un buon testo di ancoraggio non solo migliora l’accessibilità per gli utenti non vedenti che utilizzano lettori di schermo, ma anche per i motori di ricerca che analizzano i link per comprendere meglio il contenuto delle pagine collegate.
Analisi degli N-grams
L’analisi degli n-grams consiste nel verificare la frequenza di determinate combinazioni di parole (bigrammi, trigrammi, ecc.) all’interno delle pagine. Utilizzando questa tecnica, puoi identificare le parole e le frasi che compaiono più spesso e ottimizzare il contenuto per riflettere queste frequenze. Ad esempio, se “Tom Walker” appare frequentemente in diverse pagine, puoi cercare di includere questa combinazione di parole in modo strategico per migliorare la pertinenza e la coerenza semantica.
Visualizzazione del Crowds Graph
Il “Crowd Graph” è uno strumento di Screaming Frog che permette di visualizzare la struttura del sito in modo grafico. Questa visualizzazione può mostrare chiaramente le aree del sito che sono poco collegate e le pagine che non sono ben integrate nel contesto generale del sito. La visualizzazione può essere effettuata in 2D o 3D, e può rivelare se ci sono delle “isole” di pagine poco collegate o difficili da raggiungere.
Monitoraggio dei Problemi Tecnici
Il tab “Issue” di Screaming Frog fornisce una panoramica delle problematiche tecniche rilevate durante la scansione. Questo tab classifica le problematiche per priorità (alta, media, bassa) e offre un’idea generale del numero e della gravità degli errori. Anche se questa classificazione deve essere interpretata con attenzione, può fornire un’idea di massima delle aree che necessitano di intervento.
Analisi delle Performance
Screaming Frog include anche un tab per analizzare le performance delle pagine, utilizzando il Page Speed Score e i dettagli di Lighthouse. Questi strumenti forniscono informazioni dettagliate sui problemi di velocità e performance del sito, come il layout shift, che può influire negativamente sull’esperienza dell’utente. L’analisi delle performance aiuta a identificare e risolvere problemi che possono rallentare il sito e influire negativamente sul posizionamento SEO.
Scansioni Ricorrenti
Le scansioni ricorrenti sono utili per monitorare continuamente le prestazioni e la struttura del sito. È possibile configurare Screaming Frog per eseguire scansioni giornaliere, settimanali o mensili, e registrare i risultati in un file Google Spreadsheet. Questo permette di tenere traccia delle modifiche nel tempo e di identificare rapidamente eventuali problemi, come un aumento repentino di errori 404 o modifiche non autorizzate nel sito.
Gestione del Carico del Server
Per siti web di grandi dimensioni, è cruciale gestire il carico del server durante le scansioni. Le scansioni estese possono mettere sotto stress il server, specialmente se il sito riceve molte visite contemporaneamente. Per evitare problemi, è consigliabile eseguire le scansioni durante le ore notturne o in periodi di bassa attività. Alternativamente, puoi suddividere il sito in sezioni più piccole e scansionare ciascuna di esse separatamente. Questo approccio riduce l’impatto sul server e consente una scansione più gestibile e precisa.
Analisi dei Log del Server
L’analisi dei log del server è una tecnica avanzata ma essenziale per ottenere una panoramica completa delle performance del sito e identificare problemi che potrebbero non emergere attraverso le scansioni di Screaming Frog. Utilizzando un Log File Analyzer, puoi esaminare i log del server per scoprire errori di risposta, richieste problematiche, e altre anomalie. Questo strumento può rivelare dettagli come errori 404 non segnalati, problemi di accesso a risorse importanti e altre problematiche tecniche che possono influenzare la navigabilità e la visibilità del sito.
Analisi combinata di Screaming Frog con altri tool
Per un’ottimizzazione efficace del sito, è fondamentale combinare l’uso di Screaming Frog con altre tecniche SEO e strumenti di analisi. Monitorare regolarmente la struttura del sito, i collegamenti interni, le performance e i log del server consente di mantenere il sito ottimizzato e di affrontare tempestivamente eventuali problemi. Assicurati di utilizzare tutte le funzionalità disponibili di Screaming Frog e di integrarle con altre pratiche SEO per ottenere risultati ottimali.
Il valore dell’analisi dei Log File
Nel corso della discussione, l’intervistato ha sottolineato come l’analisi dei Log File sia un vero e proprio “tesoro” di informazioni. Grazie a questi strumenti, è possibile scoprire dettagli nascosti del sito web, come errori di reindirizzamento o altre problematiche che potrebbero sfuggire a un’analisi superficiale. Un esempio pratico riportato è stato il caso di un sito che rispondeva con un reindirizzamento 301 solo quando la richiesta proveniva da Googlebot, mentre per gli utenti normali rispondeva correttamente con un codice 200. Questo tipo di problematica non sarebbe mai stata rilevata senza un’analisi approfondita dei Log File.
Simulazione di Googlebot
L’intervistato ha illustrato l’importanza di utilizzare Screaming Frog per simulare il comportamento di Googlebot, un’opzione che ha permesso di rilevare anomalie nella risposta del server. Modificando lo user agent di Screaming Frog per simulare Googlebot, è possibile scoprire comportamenti non immediatamente visibili, come reindirizzamenti inaspettati. Questo processo ha rivelato come il server fosse stato configurato in modo da trattare le richieste di Googlebot in modo differente, offrendo un reindirizzamento non necessario.
Le pagine orfane
Un altro punto chiave dell’intervista riguarda l’importanza di individuare le pagine orfane, ovvero quelle che non sono collegate internamente al sito ma che continuano a essere presenti e indicizzate. Queste pagine possono essere rilevate tramite l’integrazione tra Screaming Frog e Google Search Console, che permette di confrontare gli URL presenti nella sitemap con quelli effettivamente linkati nel sito. Questo tipo di analisi consente di recuperare traffico prezioso collegando nuovamente le pagine orfane.
Dati strutturati e validazione
Un altro aspetto cruciale discusso è stato l’utilizzo di Screaming Frog per l’analisi dei dati strutturati. L’intervistato ha consigliato di abilitare la validazione sia tramite il validatore di schema.org che tramite quello di Google, per avere una visione completa degli eventuali errori presenti. Questa pratica è fondamentale per garantire che i dati strutturati, che sono una parte essenziale del SEO, siano corretti e conformi agli standard.
Pagine duplicate e cannibalizzazione
Screaming Frog offre anche strumenti per rilevare pagine duplicate o contenuti che potrebbero cannibalizzarsi a vicenda nei risultati di ricerca. Tuttavia, è stato sottolineato come questo strumento non sia stato originariamente progettato per questo tipo di analisi, ma che può comunque essere utilizzato in combinazione con altre metodologie. L’intervistato ha condiviso alcuni suggerimenti pratici su come individuare duplicati analizzando i titoli delle pagine e utilizzando il “Custom Search” di Screaming Frog per trovare contenuti simili.
L’importanza della formazione e dell’uso pratico
L’intervistato ha concluso enfatizzando l’importanza della formazione continua nell’uso di Screaming Frog, considerato uno strumento fondamentale per ogni professionista SEO. Ha citato la sua esperienza con la propria Academy, dove organizza corsi verticali per insegnare l’uso avanzato del software. La chiave per padroneggiare Screaming Frog è, secondo l’intervistato, “sporcarsi le mani” e utilizzarlo in scenari reali, con l’aiuto di un esperto o attraverso un processo di apprendimento autonomo.
Strategie di SEO Audit avanzate con Screaming Frog
Durante la live organizzata da Ilario Gobbi, l’ospite Raffaele Visintin ha condiviso il suo background e le sue esperienze, mettendo in evidenza il percorso che lo ha portato a diventare un consulente SEO. Raffaele ha raccontato di aver iniziato la sua carriera come direttore d’albergo, per poi fare una svolta radicale e dedicarsi alla SEO, un campo che ha trovato appassionante fin dai primi sviluppi di internet. Ha sottolineato come questa passione lo abbia spinto a studiare il mercato e a specializzarsi in analisi e strategie di posizionamento sui motori di ricerca, con un focus crescente sulla SEO tecnica.
Leggi tutto: SEO Audit Avanzata con Screaming Frog: Guida alle Funzionalità NascosteUno dei punti principali trattati riguarda l’uso di Screaming Frog, che Raffaele ha definito lo strumento di lavoro principale e compagno quotidiano, utilizzato per effettuare analisi approfondite di siti web di clienti che vanno dalle medie imprese alle multinazionali. Ha descritto il suo rapporto diretto con Dan Sharp, fondatore di Screaming Frog, e con il team di sviluppo, grazie al quale partecipa al beta testing di nuove funzionalità e contribuisce con feedback costanti. Questo rapporto permette a Raffaele di ricevere assistenza tempestiva e di proporre miglioramenti, un aspetto che ha lodato in quanto raro nel panorama attuale, dove spesso il supporto post-vendita è limitato.
Raffaele ha creato una community dedicata a Screaming Frog, chiamata “Screaming Frog Club”, che offre risorse in italiano e altre lingue per aiutare i professionisti SEO nell’uso avanzato del tool. Il sito contiene circa 200 pagine di contenuti tradotti e personalizzati, oltre a una serie di video tutorial dettagliati disponibili su YouTube. Questi video guidano l’utente passo passo nell’esecuzione di SEO audit completi, andando oltre la semplice analisi di meta tag e title, spesso considerata insufficiente per una valutazione realmente efficace.
Un altro tema discusso è stato il SEO audit avanzato. Raffaele ha spiegato come affronti ogni progetto di analisi con lo stesso approccio metodico, indipendentemente dalla complessità del sito. Tuttavia, per siti più complessi, approfondisce l’analisi attraverso strumenti specifici, come l’esame dei file di log. Questa pratica, secondo Raffaele, viene spesso trascurata, ma rappresenta una fonte preziosa di informazioni su come il motore di ricerca interagisce con il sito. Analizzare i file di log permette di capire il comportamento degli spider e il sentiment del motore di ricerca rispetto al progetto, evidenziando possibili problemi di scansione e individuando le aree su cui intervenire per migliorare l’accessibilità e il posizionamento.
Raffaele ha sottolineato l’importanza di basare le analisi SEO sui dati concreti, piuttosto che sull’intuizione o sul sentimento dell’analista. Grazie alla sua formazione economica, ha sviluppato un metodo di lavoro che si concentra sull’integrazione di dati provenienti da varie fonti, come API di GA4 e Google Search Console, all’interno di Screaming Frog. Questo approccio consente di avere una visione olistica del comportamento degli utenti e delle performance del sito, fornendo allo stakeholder informazioni chiare e azionabili.
Un aspetto particolarmente rilevante dell’analisi dei log è l’identificazione di problemi architetturali del sito. Raffaele ha spiegato come esamini la frequenza di scansione per capire quanto spesso gli spider visitano il sito e quali pagine vengono esplorate più frequentemente. Questo tipo di analisi permette di individuare potenziali colli di bottiglia nell’architettura del sito, pagine orfane o contenuti non scansionati correttamente. Inoltre, ha menzionato come le migrazioni di siti o l’utilizzo di CMS preconfigurati possano portare a errori frequenti, come 404 e loop di redirect, che devono essere identificati e risolti per evitare problemi di indicizzazione.
Raffaele ha concluso questa sezione della live enfatizzando l’importanza di una visione strategica nell’analisi SEO. Non basta concentrarsi su singole KPI come l’assenza di H1 o H2; è fondamentale comprendere come il sito viene percepito dal motore di ricerca nel suo complesso e lavorare per ottimizzare la struttura, i collegamenti interni e l’accessibilità dei contenuti, garantendo che gli sforzi fatti a livello di copywriting e content marketing non siano vanificati da problemi tecnici.
1. Analisi dei file di log
Uno degli step iniziali è l’analisi dei file di log per capire come Googlebot interagisce con il sito. L’uso di Screaming Frog Log File Analyzer ti permette di:
- Valutare quante volte il bot visita il sito e con quale frequenza.
- Capire quali errori o eventi vengono generati dal bot.
- Verificare quali pagine vengono effettivamente visitate rispetto a quelle che desideri siano indicizzate (confronto con la sitemap).
- Individuare le discrepanze tra le pagine visitate e quelle presenti nella sitemap per identificare possibili aree di miglioramento.
Questa fase fornisce una base solida per comprendere il comportamento di Googlebot e per ottimizzare il crawl budget, soprattutto nei siti di grandi dimensioni o con molte risorse non pertinenti.
2. Integrazione con Google Analytics 4 e Google Search Console
Integrare Screaming Frog con le API di Google Analytics 4 e Google Search Console ti consente di:
- Identificare le pagine orfane, ossia quelle che non ricevono né clic né impression, segnalando potenziali problemi di linking interno o di architettura del sito.
- Verificare la visibilità e le performance delle pagine, aiutandoti a decidere se ottimizzarle o accorparle con altre pagine per evitare contenuti duplicati o cannibalizzazione.
Questa integrazione ti aiuta a ottenere una visione olistica delle performance del sito e a identificare aree di intervento.
3. Utilizzo avanzato di Screaming Frog
Tra le funzionalità avanzate che preferisce di Screaming Frog ci ha indicato:
- Link Score: una metrica che ti aiuta a valutare il peso dei link interni. Ti permette di analizzare se le pagine con scarsa visibilità sono effettivamente linkate correttamente o se richiedono una diversa organizzazione per migliorare la loro rilevanza.
- Browser interno per scraping senza codice: un’aggiunta che semplifica l’estrazione di elementi specifici da un sito senza necessità di scrivere CSS o regex, riducendo notevolmente il tempo di lavoro.
- API e custom JavaScript: l’implementazione delle API consente di automatizzare attività come la generazione di meta title, meta description e alt text, riducendo errori manuali e accelerando il processo di ottimizzazione.
4. Analisi dell’architettura del sito
L’architettura del sito è fondamentale per l’indicizzazione e la visibilità. Alcuni aspetti cruciali che consideri:
- Distanza dalla homepage: le pagine che richiedono troppi click per essere raggiunte hanno meno probabilità di essere indicizzate e considerate rilevanti. Cerchi di mantenere le pagine importanti più vicine alla homepage.
- Analisi del comportamento del crawler: utilizzi i file di log per verificare se tutte le pagine vengono visitate dal crawler. Se il crawler non arriva a certe pagine, queste hanno meno possibilità di essere indicizzate e posizionate.
- Allineamento con lo stakeholder: sottolinei l’importanza di una comunicazione chiara con il cliente o lo stakeholder per capire gli obiettivi strategici e non basarti solo su considerazioni SEO tecniche. Questo ti aiuta a evitare errori comuni e a progettare un’architettura che soddisfi sia le esigenze di Google sia quelle del business.
5. differenze nell’analisi di e-commerce e siti istituzionali
Quando ti approcci a diverse tipologie di siti, come e-commerce e siti istituzionali:
- Per un e-commerce, presti particolare attenzione alla gestione delle pagine prodotto, agli eventuali prodotti correlati e all’organizzazione delle categorie. Consideri anche i trend dei prodotti nel tempo per decidere quali risorse potare o promuovere.
- Per un sito istituzionale o un blog, l’enfasi è sulla qualità e sulla pertinenza dei contenuti, evitando la cannibalizzazione e ottimizzando la struttura del linking interno per migliorare il posizionamento e la user experience.
Utilizzi profili custom di Screaming Frog, con configurazioni predefinite per ogni tipologia di sito, per velocizzare il processo di analisi.
6. Gestione delle risorse e strategia di pruning
Un aspetto interessante del suo approccio è l’attenzione al pruning delle risorse, ovvero la rimozione di pagine che non apportano valore:
- Valuti le performance delle pagine in termini di visite, impression, clic e bounce rate.
- Se una pagina non ha ricevuto traffico o ha performance scarse per un periodo prolungato, consideri di eliminarla o accorparla con altre risorse simili.
- Comunichi chiaramente al cliente l’importanza di queste decisioni, dimostrando con dati alla mano il beneficio in termini di ottimizzazione del crawl budget e miglioramento del ranking complessivo.
Best practice di SEO Audit con Screaming Frog
Il suo metodo è basato su una combinazione di strumenti avanzati, analisi dati e una forte componente di comunicazione con il cliente. Questo gli permette di avere una visione chiara delle necessità e degli obiettivi del progetto, adattando le strategie di conseguenza e ottimizzando sia il tempo che le risorse impiegate.
La domanda successiva di Ilario riguarda come migliorare la velocità e la profondità di scansione da parte dei crawler per evitare che si perdano nel sito. Ecco alcuni suggerimenti che possono aiutarti, utilizzando sia Screaming Frog sia altre best practice SEO:
Ottimizzare il file robots.txt
Assicurati di avere un file robots.txt
ben configurato, bloccando risorse inutili per il crawling (come pagine di login, cartelle di risorse statiche o altre aree del sito che non sono rilevanti per la scansione). Puoi utilizzare Screaming Frog per analizzare il file robots.txt
e verificare cosa viene effettivamente bloccato.
Ridurre il numero di redirect
Un numero elevato di redirect può rallentare la scansione. Puoi utilizzare Screaming Frog per individuare le catene di redirect e correggerle, cercando di limitare i redirect a uno al massimo.
Utilizzare una sitemap xml aggiornata
La sitemap XML deve includere tutte le pagine importanti del sito e va aggiornata regolarmente. Screaming Frog ti consente di generare una sitemap XML e di verificare che tutte le URL siano indicizzabili. Puoi inoltre confrontare la sitemap con i dati di log (se li importi in Screaming Frog) per vedere quali URL sono effettivamente scansionate e quali vengono ignorate.
Strutturare bene i collegamenti interni
Una buona struttura di link interni aiuta i crawler a navigare nel sito in maniera efficiente. Screaming Frog ti permette di analizzare la struttura del sito, identificare pagine orfane o isolate e migliorare la link equity. Puoi usare la funzione “Crawl Analysis” per verificare la profondità di clic e identificare pagine troppo lontane dalla home (maggiore di 3 clic di distanza).
Monitorare la frequenza di scansione con i log file
Importa i file di log in Screaming Frog per capire con che frequenza i crawler scansionano le diverse parti del sito. Se ci sono pagine importanti che non vengono visitate spesso, potrebbe essere utile migliorare i collegamenti interni o aggiungerle alla sitemap XML.
Utilizzare l’header http correttamente
Assicurati che le pagine restituiscano sempre i corretti codici di stato HTTP (200, 301, 404, ecc.). Errori come il 500 possono rallentare il crawling. Screaming Frog ti permette di individuare facilmente questi errori e correggerli.
Ridurre il peso delle pagine e il rendering javascript
Se il sito utilizza molto JavaScript, verifica che il rendering sia ottimizzato e che le risorse non blocchino il crawler. Puoi usare la modalità di scansione JavaScript di Screaming Frog per vedere come il crawler interpreta il sito e se ci sono differenze con il rendering normale. Se possibile, cerca di fornire una versione HTML semplificata per i crawler.
Ottimizzare il crawl budget
Identifica e riduci le pagine che consumano il crawl budget inutilmente, come pagine di filtro o di ricerca interna. Usa Screaming Frog per individuare URL con parametri o duplicati che potrebbero essere esclusi dal crawling tramite robots.txt o tag noindex
.
Utilizzare la funzione “compare crawls” di Screaming Frog
Questa funzione è particolarmente utile per confrontare due scansioni del sito, ad esempio prima e dopo una modifica. Ti permette di verificare se le ottimizzazioni effettuate hanno migliorato la copertura e la profondità di scansione.
Impostare correttamente il server e il tempo di risposta
Un tempo di risposta elevato può rallentare significativamente il crawling. Screaming Frog ti permette di monitorare il tempo di risposta del server e individuare le pagine più lente. Valuta di ottimizzare il server o di utilizzare una CDN per migliorare la velocità.
Priorità delle pagine nella sitemap xml
Assegna correttamente le priorità nella sitemap XML per indicare ai crawler quali pagine sono più importanti e devono essere scansionate più frequentemente. Anche se Google non segue sempre queste priorità, è comunque una buona pratica per influenzare il comportamento del crawler.
Controllare le risorse bloccate
Utilizza la funzionalità “Blocked Resource” di Screaming Frog per identificare eventuali risorse bloccate da robots.txt che potrebbero impedire una corretta visualizzazione e scansione delle pagine.
Questi suggerimenti, combinati con l’analisi approfondita tramite Screaming Frog e una buona gestione del sito, possono aiutare a migliorare la scansione e l’indicizzazione.
Emerge chiaramente l’importanza di utilizzare Screaming Frog non solo come strumento di analisi tecnica, ma anche come punto di riferimento per una strategia SEO completa. Alcuni dei concetti chiave menzionati riguardano:
- Pulizia e razionalizzazione del sito: È fondamentale non affezionarsi ai contenuti esistenti. Se non performano, devono essere eliminati o rielaborati. Il fatto che una pagina non venga considerata da Google, cioè non venga indicizzata o non riceva visite, indica che qualcosa non funziona e richiede un intervento. Le performance del sito devono essere sempre al massimo, soprattutto per quanto riguarda i Web Vitals.
- Ottimizzazione delle performance: L’utente suggerisce di monitorare attentamente i Web Vitals tramite Search Console e di utilizzare Screaming Frog in combinazione con l’API di Lighthouse per ottenere dati dettagliati sulle performance del sito. Un consiglio interessante è quello di assicurarsi che il thread principale di caricamento non abbia ostacoli, posticipando il caricamento di JavaScript non essenziali.
- Gestione dei cookie e duplicazione dei contenuti: Un problema comune durante l’analisi con Screaming Frog è che molte pagine risultano duplicate a causa del cookie banner. Per evitare questo, l’utente consiglia di utilizzare l’autenticazione con il browser integrato di Screaming Frog per accettare i cookie e procedere alla scansione senza errori.
- Analisi della link building e della struttura interna: Screaming Frog può essere utilizzato per analizzare i link interni e ottenere dati sullo score di link e sul comportamento dei competitor. Tuttavia, per quanto riguarda la link building esterna, l’utente preferisce un approccio più manuale e utilizza strumenti come Ahrefs o Semrush per un’analisi più dettagliata.
- Gestione di progetti internazionali: È cruciale comprendere se lo stakeholder intende posizionarsi a livello nazionale o internazionale. Nel caso di internazionalizzazione, è importante considerare l’uso di TLD specifici per ogni paese e un’analisi del mercato target. Se il progetto è solo nazionale, si dovrebbe invece puntare sulla link building locale per costruire autorevolezza e ottenere un ingresso facilitato nei risultati di ricerca.
- Suggerimenti per l’approccio e la formazione: L’utente consiglia di approcciarsi a Screaming Frog studiando approfonditamente e facendo pratica su progetti personali, per acquisire dimestichezza con le funzionalità dello strumento. Ha anche citato Screaming Frog Club come una risorsa utile per tutorial passo-passo. Inoltre, ha menzionato un corso avanzato a Napoli, previsto per febbraio 2025, che offrirà una formazione approfondita su Screaming Frog con il supporto di esperti nel settore, come Roberto Variale e Ivan Cutolo.