Ben ritrovati su questi lidi!
Non è un mistero che i risultati delle serp sian spesso ammorbati da contenuti di discutibile valore e di ancor meno autorità, ma forse le cose potrebbero cambiare stando a quanto leggiamo in un recente annuncio di Google.
In quest’ultimo, Big G riconosce l’esigenza di assicurare criteri più efficienti per garantire la qualità dei risultati di ricerca, per ostacolare i mezzucci truffaldini volti a portare nelle prime posizioni roba di scarso valore, e stima che circa uno 0,25% delle query sia inquinata da contenuti inappropriati od offensivi.
Come rimediare per garantire standard alti dei risultati di ricerca e per ostacolare i siti che spargono incitamenti all’odio e informazioni fallate?
Cos’è il nuovo update di Google Project Owl
Project Owl è il nuovo progetto di Google che si spera contribuirà a spedire nell’oblio i contenuti monnezza che ammorbano il web (incitazioni all’odio, notizie false, contenuti di infima qualità) e al contempo rivolto a premiare quelli riconducibili ad autori verificati e sicuri. Non si conosce la ragione dietro la scelta del nome ma probabilmente è legato all’idea di saggezza che il pennuto veicola.
Da quanto si sa il nuovo aggiornamento di algoritmo dovrebbe premiare i portali più affermati e verificati e a lasciare indietro quelli più in dubbio, oltre ad agire per contrastare i contenuti “problematici” e quelli ragionevolmente falsi. Non è ancora molto chiaro quali dovrebbero essere i criteri per stabilire se un contenuto è autorevole o meno, probabilmente partirà da una valutazione di molteplici fattori e sarà rivolto principalmente a quei siti che sembrano attendibili ma non lo sono (come i portali di falsa informazione).
Per assicurarsi che gli utenti possano dire la loro – e semplificare il lavoro all’algoritmo e ai team di valutazione – sono stati introdotti nuovi strumenti per segnalare cosa non va; il tutto appartiene al progetto a lungo termine di Google per assicurare ai propri visitatori contenuti sempre di maggiore qualità attraverso una loro partecipazione diretta, aiutandoli a segnalare contenuti inappropriati o indegni
Ci sono triliardi di ricerche su Google ogni anno di cui 15% di quelle che vediamo ogni giorno sono nuove, perciò il lavoro per assicurare risultati coerenti a queste domande non collaudate è sempre consistente (certo, abbiamo visto come funziona RankBrain e sappiamo di come i meccanismi di machine learning sono stati impiegati proprio per prevedere il ragionevole gradimento degli utenti).
Google Project Owl: Quali sono le novità
Il nuovo update di Google, come in codice “Project Owl” sembra orientato a fornire ai naviganti del web nuovi strumenti per segnalare cosa non va; in particolare si propone:
- di fare guerra alle notizie bufala, ai messaggi d’odio, alle informazioni false o offensive in determinati campi
- di miglioramenti nei risultati di ricerca
- fornire nuovi modi più intuitivi per giudicare i risultati di ricerca
Questa introduzione ha lo scopo di tagliare le gambe a :
- notizie inventate
- miti, teorie cospirazioniste e balle varie
- informazioni offensive
- messaggi che alimentano l’odio
In questo video Danny Sullivan di SearchEngineLand racconta quello che si sa sul nuovo update di algoritmo:
Google Autocomplete e Featured Snippet: come sottoporre feedback
Google, come ha lei stessa annunciato, aveva la necessità di combattere alacremente i contenuti ingiuriosi del web, e c’è anche il problema delle nuove query che, anche se numericamente ridotte, erano molto importanti per Big G per assicurarne il valore dei contenuti.
Come spingere le persone a semplificare il lavoro del team di Big G segnalando con facilità i contenuti che non vanno bene?
Il Progetto Gufo sta vedendo il lancio:
- di un nuovo form (Report Inappropriate Predictions) per segnalare feedback su risultati di ricerca non graditi e sul perché andrebbero rimossi
- un nuovo form di feedback sui Featured Snippet simile a quello di cui sopra
- maggiore enfasi sui contenuti di qualità attribuibili ad autori autorevoli (scusate il gioco di parole)
La funzione di autocompletamento di Google Suggest e i Featured Snippet comprenderanno in basso a destra una linea con la dicitura ‘report inappropriate predictions’ che permetterà di concedere feedback per valutare la bontà dei contenuti restituiti e di segnalare se si tratta di materiali offensivi o violenti.
In Italia, per il momento vedo questa funzione solamente relativa ai risultati dei featured snippet.
Se scriviamo, ad esempio, “cos’è il transmedia storytelling”, frase che ho scelto ASSOLUTAMENTE A CASO, compare la voce feedback sotto il box in primo piano che permette di rispondere con:
- È utile
- Non mi piace
- Questo contenuto è violento, offensivo o razzista
- Questo contenuto è volgare o sessualmente esplicito
- Questo contenuto è dannoso, pericoloso o violento
- Questo contenuto è fuorviante o impreciso
e di inserire dei commenti opzionali per giustificare la tua opinione.
Da quanto si sa, i feedback dovrebbero essere utilizzati alla base di cambiamenti dell’algoritmo.
P.S. se stai cercando di utilizzare questo form per affossare il featured snippet, la sezione answer di Google dice che il feedback non influisce sul posizionamento delle pagine ^_^
Ora gli utenti potranno con un semplice click se un risultato appare dal contenuto d’odio o violento, pericoloso o dal contenuto sessuale giudicare se offre informazioni rilevanti o meno.
Più spazio ai contenuti autorevoli
Il nuovo aggiornamento di algoritmo avrà il compito di far emergere con maggiore facilità i contenuti riconducibili ad autori verificati e, se non a penalizzare, sicuramente a non premiare quelli non appartenenti a portali con gente “che ci mette la faccia”. Verranno inoltre inclusi anche team di valutatori umani per integrare la validità dei risultati forniti.
Ora, pare di capire, l’algoritmo porrà un occhio di riguardo sull’autorevolezza dei portali ma, come ipotizza SearchEngineLand, nel caso di query specifiche – es. dubbi sui computer molto specifici – portali di scarsa fama potrebbero dare risposte più attinenti di quelli generalisti famosi, quindi c’è anche da considerare un eventuali conflitto tra l’importanza dei siti che li rende autorevoli e l’esatta corrispondenza con la query digitata.
A quanto riporta Fortune.com i risultati si stanno già vedendo, o meglio non vedendo, visto che sono già stati epurati suggerimenti offensivi in occasione di ricerche come “perché i [gruppi etnici] fanno…=”, per non parlare dell’estromissione di svariati siti neonazisti che apparivano come risultato di “l’olocausto è davvero avvenuto?”.
Considerazioni su Google Project Owl
Sicuramente Google, dato il suo bacino di utenti smisurato, ha l’interesse e la necessità di combattere al meglio la feccia che inquina i risultati in rete e che può indignare o manipolare i giudizi delle persone: abbiamo visto come già da mesi Google e Facebook si siano attivati per contrastare le bufale esplose in occasione della campagna presidenziale americana, quindi probabilmente questo non sarà nemmeno l’ultimo degli interventi in questo senso.
Mi appare ancora nebuloso sul come dovrebbe essere valutata l’autorevolezza di un portale – se basandosi sulla qualità delle visite, dei backlink o delle menzioni in rete – e se questo “filtro” possa inficiare i risultati alle richieste molto specifiche che possono essere costituiti da siti poco autorevoli ma ugualmente utili: dovremo perciò monitorare l’evoluzione delle serp dei prossimi mesi per avere un’idea più chiara.
E tu, che cosa ne pensi?
Credi che Google Project Owl possa aiutare le pagine di contenuti autorevoli a emergere e a lasciare indietro quelle di basso valore?
Commenta questo articolo per raccontarmi la tua opinione!
Rispetto alla questione autorevolezza, vedo concretamente il rischio di una deriva in senso “wikipediano”…
Ciao Lorenzo,
non penso si arriverà fino a questo punto, ritengo si darà però molta enfasi a quei segnali che permettono di attribuire un’identità ufficiale all’autore