Gli aggiornamenti algoritmici di Google

Come in ogni cosa anche quando parliamo della SEO, ovvero del posizionamento su web e della propria affluenza di traffico on-line, non son mancati i “volponi” che hanno cercato in modo disonesto di risultare ai primi posti senza averne realmente merito o senza averci investito le giuste somme.

 

Dal 2013 Google si è trovato a combattere una vera e propria lotta contro tutti coloro che tentassero di trovare scorciatoie più o meno “corretti” per allungare le mani sugli spazi principali del web.

Google ha drizzato le orecchie e farà di tutto per rendere sempre più selettive le opere svolte in ottica SEO, come ogni anno difatti, ci saranno degli aggiornamenti riguardanti numerosissimi algoritmi i quali renderanno sempre più ostica l’attività di Ranking on-line.

Ogni aggiornamento è vissuto dal marketing on-line come un potenziale terremoto, basti pensare che nel 2013 una aggiornamento sdradicò quasi del tutto le techiche spammose fino ad allora usate e probabilmente abusate.

L’opera di aggiornamento da parte di Google è sempre stata vista come controversa in quanto da un lato penalizzava e minava interi settori pubblicitari, dall’altro dava reale rilievo a chi seriamente era competente e arguto in materia di contenutistica on-line.

Il settembre scorso ad esempio è stato fatto un aggiornamento che aveva come unico fine quello di minare tutti quei siti nati come funghi e poveri di contenuti permettendo così a chi realmente aveva investito, tempo, denaro e competenze nella realizzazione di un web marketing di qualità, di poter essere ad un livello superiore con il relativo responso positivo da parte dei clienti.

Ma in che modo Google riesce a penalizzare un sito rispetto ad un altro?

Una volta che Google notifica la presenza di un sito che sta ottenendo successo tuttavia senza rispettare le linee guida dettate da lui stesso, può decidere di farlo “retrocedere” nelle ultime posizioni oppure se il sito presenta interventi massicci di spam, un quality rater declasserà manualmente il sito “colpevole”.

Il passo finale è un completo declassamento del materiale in questione destinato a scomparire.

Uno di questi update più famosi è stato sicuramente “Panda” il cui scopo era proprio quello di scovare, arginare e declassare tutti quei siti che puntavano sulla raccolta disparata di news e contenuti che venivano pubblicati senza badare ad una qualità decente.

Un altro algoritmo aggiornato degno di nota fu “Penguin”, più recente rispetto a Panda, che aveva invece come fine quello di evitare le catene spam e tutti quei processi che portavano in automatico un contenuto web a posizionarsi in cima.

Avere a che fare con la SEO appare chiaro, è oggi molto più difficile, sarà all’astuzia e alla bravura del marketer riuscire a farsi notare senza incombere nelle “pulizie” di Google.

Leggi anche questi articoli

Twitter passa a Musk: libertà di parola al primo posto

Con l’acquisto di Twitter da parte di Elon Musk, per una cifra di un valore complessivo di 44 miliardi di dollari, il social network che “ ...
Giulia Chiffi

Fissare i post in alto? Instagram ci sta pensando

Negli ultimi mesi gli sviluppatori di uno dei social network più amati e popolati al mondo, Instagram, ha implementato delle modifiche che hanno la ...
Federico Petracca

Turismo esperienziale: le eccellenze pugliesi al BTM 2022

BTM – Business Tourism Management è alla sua ottava edizione. Come sempre, si tratta di un evento che unisce i principali intermediari del settore ...
Ernesto Torsello
CHIAMA SCRIVICI