Gli aggiornamenti algoritmici di Google

Come in ogni cosa anche quando parliamo della SEO, ovvero del posizionamento su web e della propria affluenza di traffico on-line, non son mancati i “volponi” che hanno cercato in modo disonesto di risultare ai primi posti senza averne realmente merito o senza averci investito le giuste somme.
Barra Servizi

 

Dal 2013 Google si è trovato a combattere una vera e propria lotta contro tutti coloro che tentassero di trovare scorciatoie più o meno “corretti” per allungare le mani sugli spazi principali del web.

Google ha drizzato le orecchie e farà di tutto per rendere sempre più selettive le opere svolte in ottica SEO, come ogni anno difatti, ci saranno degli aggiornamenti riguardanti numerosissimi algoritmi i quali renderanno sempre più ostica l’attività di Ranking on-line.

Ogni aggiornamento è vissuto dal marketing on-line come un potenziale terremoto, basti pensare che nel 2013 una aggiornamento sdradicò quasi del tutto le techiche spammose fino ad allora usate e probabilmente abusate.

L’opera di aggiornamento da parte di Google è sempre stata vista come controversa in quanto da un lato penalizzava e minava interi settori pubblicitari, dall’altro dava reale rilievo a chi seriamente era competente e arguto in materia di contenutistica on-line.

Il settembre scorso ad esempio è stato fatto un aggiornamento che aveva come unico fine quello di minare tutti quei siti nati come funghi e poveri di contenuti permettendo così a chi realmente aveva investito, tempo, denaro e competenze nella realizzazione di un web marketing di qualità, di poter essere ad un livello superiore con il relativo responso positivo da parte dei clienti.

Ma in che modo Google riesce a penalizzare un sito rispetto ad un altro?

Una volta che Google notifica la presenza di un sito che sta ottenendo successo tuttavia senza rispettare le linee guida dettate da lui stesso, può decidere di farlo “retrocedere” nelle ultime posizioni oppure se il sito presenta interventi massicci di spam, un quality rater declasserà manualmente il sito “colpevole”.

Il passo finale è un completo declassamento del materiale in questione destinato a scomparire.

Uno di questi update più famosi è stato sicuramente “Panda” il cui scopo era proprio quello di scovare, arginare e declassare tutti quei siti che puntavano sulla raccolta disparata di news e contenuti che venivano pubblicati senza badare ad una qualità decente.

Un altro algoritmo aggiornato degno di nota fu “Penguin”, più recente rispetto a Panda, che aveva invece come fine quello di evitare le catene spam e tutti quei processi che portavano in automatico un contenuto web a posizionarsi in cima.

Avere a che fare con la SEO appare chiaro, è oggi molto più difficile, sarà all’astuzia e alla bravura del marketer riuscire a farsi notare senza incombere nelle “pulizie” di Google.

Leggi anche questi articoli

Creare la Locandina per un Evento: Fai da Te o Grafico Esperto?

Creare una locandina per un evento è un passaggio fondamentale per promuovere al meglio il tuo progetto e attirare il pubblico giusto. Ma qual è la ...

Realizzazione Sito eCommerce Bari: Dalla Puglia nel mondo

In un’epoca in cui il commercio elettronico è in continua evoluzione, avere una presenza online ben strutturata e accattivante è essenziale ...

Come incassano le OTA: differenze tra il Modello Merchant e il Modello Agenzia

Quando si parla di OTA (Online Travel Agency), termini come Modello Merchant e Modello Agenzia sono molto utilizzati. Questi modelli di business ...
CHIAMA SCRIVICI