Gli aggiornamenti algoritmici di Google

Come in ogni cosa anche quando parliamo della SEO, ovvero del posizionamento su web e della propria affluenza di traffico on-line, non son mancati i “volponi” che hanno cercato in modo disonesto di risultare ai primi posti senza averne realmente merito o senza averci investito le giuste somme.

 

Dal 2013 Google si è trovato a combattere una vera e propria lotta contro tutti coloro che tentassero di trovare scorciatoie più o meno “corretti” per allungare le mani sugli spazi principali del web.

Google ha drizzato le orecchie e farà di tutto per rendere sempre più selettive le opere svolte in ottica SEO, come ogni anno difatti, ci saranno degli aggiornamenti riguardanti numerosissimi algoritmi i quali renderanno sempre più ostica l’attività di Ranking on-line.

Ogni aggiornamento è vissuto dal marketing on-line come un potenziale terremoto, basti pensare che nel 2013 una aggiornamento sdradicò quasi del tutto le techiche spammose fino ad allora usate e probabilmente abusate.

L’opera di aggiornamento da parte di Google è sempre stata vista come controversa in quanto da un lato penalizzava e minava interi settori pubblicitari, dall’altro dava reale rilievo a chi seriamente era competente e arguto in materia di contenutistica on-line.

Il settembre scorso ad esempio è stato fatto un aggiornamento che aveva come unico fine quello di minare tutti quei siti nati come funghi e poveri di contenuti permettendo così a chi realmente aveva investito, tempo, denaro e competenze nella realizzazione di un web marketing di qualità, di poter essere ad un livello superiore con il relativo responso positivo da parte dei clienti.

Ma in che modo Google riesce a penalizzare un sito rispetto ad un altro?

Una volta che Google notifica la presenza di un sito che sta ottenendo successo tuttavia senza rispettare le linee guida dettate da lui stesso, può decidere di farlo “retrocedere” nelle ultime posizioni oppure se il sito presenta interventi massicci di spam, un quality rater declasserà manualmente il sito “colpevole”.

Il passo finale è un completo declassamento del materiale in questione destinato a scomparire.

Uno di questi update più famosi è stato sicuramente “Panda” il cui scopo era proprio quello di scovare, arginare e declassare tutti quei siti che puntavano sulla raccolta disparata di news e contenuti che venivano pubblicati senza badare ad una qualità decente.

Un altro algoritmo aggiornato degno di nota fu “Penguin”, più recente rispetto a Panda, che aveva invece come fine quello di evitare le catene spam e tutti quei processi che portavano in automatico un contenuto web a posizionarsi in cima.

Avere a che fare con la SEO appare chiaro, è oggi molto più difficile, sarà all’astuzia e alla bravura del marketer riuscire a farsi notare senza incombere nelle “pulizie” di Google.

Leggi anche questi articoli

Lead Generation: creare conversazioni per generare contatti qualificati

Per farsi strada in un mondo sempre più affollato e riuscire a catturare l’attenzione di persone che mostrano un reale interesse verso la tua ...
Alessia Nuzzo

Link nelle storie di Instagram: presto disponibile per tutti!

Fin dalla sua uscita Instagram si è saputo fare apprezzare per la grande attrattiva rappresentata anche come strumento di marketing, taleà ...
Federico Petracca

Come migliorare l’esperienza d’acquisto da mobile

Acquistare on line è ormai diventata un’abitudine consolidata anche in Italia: a testimoniarlo sono i numeri del settore eCommerce che, ...
Alessia Nuzzo
CHIAMA SCRIVICI