Gli aggiornamenti algoritmici di Google

Come in ogni cosa anche quando parliamo della SEO, ovvero del posizionamento su web e della propria affluenza di traffico on-line, non son mancati i “volponi” che hanno cercato in modo disonesto di risultare ai primi posti senza averne realmente merito o senza averci investito le giuste somme.
Barra Servizi

 

Dal 2013 Google si è trovato a combattere una vera e propria lotta contro tutti coloro che tentassero di trovare scorciatoie più o meno “corretti” per allungare le mani sugli spazi principali del web.

Google ha drizzato le orecchie e farà di tutto per rendere sempre più selettive le opere svolte in ottica SEO, come ogni anno difatti, ci saranno degli aggiornamenti riguardanti numerosissimi algoritmi i quali renderanno sempre più ostica l’attività di Ranking on-line.

Ogni aggiornamento è vissuto dal marketing on-line come un potenziale terremoto, basti pensare che nel 2013 una aggiornamento sdradicò quasi del tutto le techiche spammose fino ad allora usate e probabilmente abusate.

L’opera di aggiornamento da parte di Google è sempre stata vista come controversa in quanto da un lato penalizzava e minava interi settori pubblicitari, dall’altro dava reale rilievo a chi seriamente era competente e arguto in materia di contenutistica on-line.

Il settembre scorso ad esempio è stato fatto un aggiornamento che aveva come unico fine quello di minare tutti quei siti nati come funghi e poveri di contenuti permettendo così a chi realmente aveva investito, tempo, denaro e competenze nella realizzazione di un web marketing di qualità, di poter essere ad un livello superiore con il relativo responso positivo da parte dei clienti.

Ma in che modo Google riesce a penalizzare un sito rispetto ad un altro?

Una volta che Google notifica la presenza di un sito che sta ottenendo successo tuttavia senza rispettare le linee guida dettate da lui stesso, può decidere di farlo “retrocedere” nelle ultime posizioni oppure se il sito presenta interventi massicci di spam, un quality rater declasserà manualmente il sito “colpevole”.

Il passo finale è un completo declassamento del materiale in questione destinato a scomparire.

Uno di questi update più famosi è stato sicuramente “Panda” il cui scopo era proprio quello di scovare, arginare e declassare tutti quei siti che puntavano sulla raccolta disparata di news e contenuti che venivano pubblicati senza badare ad una qualità decente.

Un altro algoritmo aggiornato degno di nota fu “Penguin”, più recente rispetto a Panda, che aveva invece come fine quello di evitare le catene spam e tutti quei processi che portavano in automatico un contenuto web a posizionarsi in cima.

Avere a che fare con la SEO appare chiaro, è oggi molto più difficile, sarà all’astuzia e alla bravura del marketer riuscire a farsi notare senza incombere nelle “pulizie” di Google.

Leggi anche questi articoli

Facebook e Instagram a pagamento: cosa c’è di vero?

A riportare la notizia è stato il sito web The Verge: Facebook e Instagram a pagamento per arginare una perdita di utili avvenuta nell’ultimo anno. ...
Federico Petracca

Anche il web inquina: ecco come

Non c’è dubbio che Internet renda molte attività quotidiane apparentemente più sostenibili per il nostro Pianeta. Ma c’è una cattiva ...
Angelo Pignatelli

Come gestire i commenti negativi su Facebook

Commenti negativi su Facebook? Purtroppo bisogna mettere in conto che potrebbero arrivare. Ma come gestirli? ...
Giulia Chiffi
CHIAMA SCRIVICI