Rivoluzione Google, fuori i contenuti di bassa qualità e non originali

Dal 5 maggio parte una colossale operazione-pulizia nella Rete

Google ha dato l’ultimatum ai contenuti di bassa qualità sulla Rete. Anche a quelli confezionati ad arte dall’Intelligenza Artificiale Generativa. Un nuovo aggiornamento del mitico algoritmo del motore di ricerca più diffuso al mondo è infatti la base di una colossale operazione-pulizia nella Rete, che produrrà uno Tsunami nell’infinito oceano di Internet.

Il D-Day, fissato al 5 maggio, genererà una sorta di saliscendi nelle gerarchie del motore di ricerca. Per consentire al popolo internettiano di adeguarsi, le modifiche sono state annunciate due mesi prima da Elizabeth Tucker, Direttrice dei contenuti di Google, sul blog aziendale E già pochi giorni fa, la Tucker ha diffuso i primi risultati: “Nei risultati di ricerca già da ora vedrete il 45% in meno di contenuti di bassa qualità e non originali. Un esito più alto rispetto al miglioramento del 40% che ci aspettavamo con queste modifiche”.

Gestori dei siti e produttori di contenuti, vivranno un mese di maggio in fibrillazione per verificare la permanenza, l’approdo o l’addio del loro brand alla prima pagina di Google. E adegueranno passo passo la propria strategia di Seo (Search Engine Optimization) per tentare di convincere l’algoritmo modificato di Google della validità dei propri contenuti. Perché il successo di milioni e milioni di aziende – e non solo quelle editoriali – dipende sempre di più dal posizionamento sulla pagina di ricerca di Google. Chi sta in cima, o comunque nelle prime piazze, ha un enorme vantaggio.

Spiega uno dei massimi esperti del settore, vero guru digitale, Salvatore Aranzulla, il cui sito veleggia senza sobbalzi da anni intorno all’ambito 25° posto tra gli indirizzi più consultati: “Google esamina più di 200 variabili per capire quali contenuti posizionare in cima ai risultati e quali no. L’obiettivo del motore di ricerca, infatti, è quello di restituire all’utente il miglior risultato possibile o, comunque, quello più pertinente alla domanda che ha posto. Creare dei contenuti di qualità e pertinenti alle ricerche fatte dagli utenti è, dunque, uno dei fattori più determinanti, se non il più determinante di tutti, per il posizionamento di un sito su Google”.

Qualità, dunque, la parola chiave, del resto già dichiarato nel titolo del post di annuncio delle modifiche all’algoritmo di Google: “Nuovi modi per affrontare il problema dei contenuti spam e di bassa qualità su Search”.

Nelle motivazioni delle modifiche effettuate, al primo posto c’è il miglioramento del ranking di qualità: “Stiamo apportando miglioramenti algoritmici ai nostri sistemi di classificazione principali – spiega Tucker – per garantire che vengano visualizzate le informazioni più utili sul web e ridurre i contenuti non originali nei risultati di ricerca. Quindi le politiche antispam saranno rinnovate e migliorate, per tenere fuori dalla ricerca i contenuti di qualità più bassa, come i siti web scaduti e riproposti come depositi di spam dai nuovi proprietari. A partire da oggi interverremo su altri tipi di comportamenti manipolatori. Mentre i nostri sistemi di ranking impediscono a molti tipi di contenuti di bassa qualità di posizionarsi in alto su Search, questi aggiornamenti ci permettono di prendere provvedimenti più mirati nell’ambito delle nostre politiche sullo spam”.

Sotto il capitolo “Abusi di contenuti in scala”, pare di intravedere anche i contorni di una politica tesa a impedire premi di posizionamento ai contenuti prodotti da intelligenza generali generative. Scrive Elizabet Tucker: “Da tempo abbiamo una politica contro l’uso dell’automazione per generare contenuti di bassa qualità o non originali su larga scala con l’obiettivo di manipolare le classifiche di ricerca. Questa politica è stata originariamente concepita per affrontare i casi di generazione di contenuti su scala in cui era chiaro che si trattava di automazione. Oggi, i metodi di creazione di contenuti su scala sono più sofisticati e non è sempre chiaro se i contenuti siano creati esclusivamente attraverso l’automazione. Per affrontare meglio queste tecniche, stiamo rafforzando la nostra politica per concentrarci su questo comportamento abusivo – la produzione di contenuti su scala per aumentare il posizionamento nelle ricerche – sia che si tratti di automazione o di esseri umani.”.

Altro fenomeno del mirino di Google è l’abuso della reputazione del sito. Spiega Tucker: “D’ora in poi considereremo spam i contenuti di terze parti di scarso valore prodotti principalmente a scopo di ranking e senza una stretta supervisione da parte del proprietario del sito web”.

L’impatto di queste e altre modifiche dell’algoritmo di Google sulle gerarchie della Rete sarà verificabile nel tempo. Risultati indubbiamente positivi ci furono in occasione di un altro aggiornamento di qualche anno fa, nel comparto delle notizie. Era il settembre 2019 quando il vicepresidente di Google News, Richard Gingras, annunciò modifiche all’algoritmo per tutelare l’informazione di qualità, premiando i produttori di contenuti originali. In piena era di disintermediazione giornalistica, non fu dichiarazione che passò inosservata: “Abbiamo apportato modifiche ai nostri prodotti a livello globale- scrisse Gingras – per evidenziare gli articoli che identifichiamo come significativi report originali. Tali articoli possono rimanere in una posizione altamente visibile più a lungo. Vogliamo dare a tutti un migliore accesso al giornalismo originale”.

In realtà la concorrenza dei social al giornalismo sulla Rete è feroce. Oggi l’agenda setting – cioè la selezione delle notizie – invece dei giornalisti la fanno gli algoritmi. Secondo il sociologo Dominique Cardon, gli algoritmi governano il modo in cui l’informazione digitale viene costruita, e lo fanno con vari sistemi di misura, che sono “manipolabili”. L’intento dichiarato del libro di Cardon, “Che cosa sognano gli algoritmi”, è “mostrare come queste nuove tecniche di calcolo sconvolgano la nostra società. Attraverso la classificazione delle informazioni, la personalizzazione della pubblicità, i suggerimenti negli acquisti, la profilatura dei comportamenti – scrive Cardon – i computer si immischieranno, sempre di più, nella vita delle persone. Anzi, già lo fanno, molto spesso a nostra insaputa. Ben lontani da essere semplici strumenti tecnici neutrali – conclude il sociologo francese – gli algoritmi calcolano una nuova forma di società: quella dei comportamenti”. Ma se anche Google incrementa la guerra alla spazzatura digitale, la battaglia per la qualità da parte dell’informazione professionale, non è perduta.

Total
0
Condivisioni
Prec.
Presidio per la casa, serve un piano che risponda ai bisogni

Presidio per la casa, serve un piano che risponda ai bisogni

Rete Antisfratto, "sfratti e sgomberi non risolvono il problema dell'abitare"

Succ.
Danza, Jérôme Bel racconta al pubblico i segreti della sua ispirazione

Danza, Jérôme Bel racconta al pubblico i segreti della sua ispirazione

A Cango la conferenza spettacolo del coreografo francese

You May Also Like
Total
0
Condividi