Gli aggiornamenti algoritmici di Google

Come in ogni cosa anche quando parliamo della SEO, ovvero del posizionamento su web e della propria affluenza di traffico on-line, non son mancati i “volponi” che hanno cercato in modo disonesto di risultare ai primi posti senza averne realmente merito o senza averci investito le giuste somme.

 

Dal 2013 Google si è trovato a combattere una vera e propria lotta contro tutti coloro che tentassero di trovare scorciatoie più o meno “corretti” per allungare le mani sugli spazi principali del web.

Google ha drizzato le orecchie e farà di tutto per rendere sempre più selettive le opere svolte in ottica SEO, come ogni anno difatti, ci saranno degli aggiornamenti riguardanti numerosissimi algoritmi i quali renderanno sempre più ostica l’attività di Ranking on-line.

Ogni aggiornamento è vissuto dal marketing on-line come un potenziale terremoto, basti pensare che nel 2013 una aggiornamento sdradicò quasi del tutto le techiche spammose fino ad allora usate e probabilmente abusate.

L’opera di aggiornamento da parte di Google è sempre stata vista come controversa in quanto da un lato penalizzava e minava interi settori pubblicitari, dall’altro dava reale rilievo a chi seriamente era competente e arguto in materia di contenutistica on-line.

Il settembre scorso ad esempio è stato fatto un aggiornamento che aveva come unico fine quello di minare tutti quei siti nati come funghi e poveri di contenuti permettendo così a chi realmente aveva investito, tempo, denaro e competenze nella realizzazione di un web marketing di qualità, di poter essere ad un livello superiore con il relativo responso positivo da parte dei clienti.

Ma in che modo Google riesce a penalizzare un sito rispetto ad un altro?

Una volta che Google notifica la presenza di un sito che sta ottenendo successo tuttavia senza rispettare le linee guida dettate da lui stesso, può decidere di farlo “retrocedere” nelle ultime posizioni oppure se il sito presenta interventi massicci di spam, un quality rater declasserà manualmente il sito “colpevole”.

Il passo finale è un completo declassamento del materiale in questione destinato a scomparire.

Uno di questi update più famosi è stato sicuramente “Panda” il cui scopo era proprio quello di scovare, arginare e declassare tutti quei siti che puntavano sulla raccolta disparata di news e contenuti che venivano pubblicati senza badare ad una qualità decente.

Un altro algoritmo aggiornato degno di nota fu “Penguin”, più recente rispetto a Panda, che aveva invece come fine quello di evitare le catene spam e tutti quei processi che portavano in automatico un contenuto web a posizionarsi in cima.

Avere a che fare con la SEO appare chiaro, è oggi molto più difficile, sarà all’astuzia e alla bravura del marketer riuscire a farsi notare senza incombere nelle “pulizie” di Google.

Think Digital

Non c’è novità dal mondo del web che non alimenti la nostra insaziabile curiosità! Le innovazioni tecnologiche e informatiche ci appassionano e ci stimolano a ripensare continuamente gli schemi del nostro lavoro, per offrire ai nostri clienti soluzioni efficaci e sempre al passo coi tempi.

Leggi anche questi articoli

Flutter: che cos’è e come aiuta gli sviluppatori

Per velocizzare la realizzazione di app per diverse piattaforme, gli sviluppatori possono trovare un valido aiuto nel framework Google Flutter, ...
Angelo Pignatelli

Gutenberg, il nuovo editor di WordPress

Nel corso degli anni l’editor attuale di WordPress è rimasto pressoché identico. Anche se tutto sommato non è una cosa negativa, molti sono ...
Matteo Bleve

Quartieri: scopriamo la funzione di Facebook

I social, con la pandemia che torna a ricoprire il ruolo da protagonista nelle news tutti i giorni, si preparano a ri-lanciarsi come assoluti ...
Federico Petracca
CHIAMA SCRIVICI