Google Story

Google cambia il suo algoritmo più di 500 volte all’anno ogni anno: continui processi evolutivi che vanno dalle piccole migliorie alle implementazioni più importanti, con aggiornamenti che modificano direttamente i risultati delle ricerche.

L’algoritmo viene così sempre più perfezionato per rispondere in modo più adeguato alle richieste dell’utente e offrire dei risultati di qualità: per questo, scalare la SERP (Search Engine Result Page, ovvero la pagina dei risultati di ricerca) richiede strategia e impegno costante.

Ripercorriamo insieme la storia di questo rivoluzionario strumento, e vediamo più da vicino cosa è cambiato nel tempo, qual è l’ultimo aggiornamento eseguito e in che direzione stiamo andando.

L’algoritmo di Google premia la qualità

Il processo evolutivo che sta alla base del continuo aggiornamento di Google ha come obiettivo quello di rendere il sistema sempre più adeguato e rispondente alle esigenze dei suoi utilizzatori: ovvero, gli utenti che effettuano ogni giorno ricerche e consultazioni tramite questo motore di ricerca.

Così, come ogni software house che si rispetti e che vuole a conservare il proprio primato qualitativo, anche Google si migliora con l’obiettivo di essere sempre la scelta migliore per il suo utente, affinandosi e studiando come combinare i diversi fattori in modo sempre più preciso.

Storia di un motore appena maggiorenne

Il 27 settembre 2016 Google ha compiuto 18 anni: in realtà il dominio di Google è stato registrato il 15 settembre 1997, mentre la società è stata fondata il 4 settembre 1998 da due studenti dell’Università di Stanford in California. La data del 27/09 è stata scelta successivamente come “data ufficiale” del proprio compleanno a partire dal 2005, per ricordare il giorno in cui fu raggiunto il record di pagine indicizzate.

Google nasce 6 anni dopo la messa online del primo sito web avvenuta il 6 agosto 1991: da allora un progressivo e incalzante sviluppo ha portato con sé la necessità di organizzare la grande quantità di siti e di dati presenti in tutto il web.

Come è nata la ricerca sul web

I motori di ricerca sono nati come risposta al bisogno di adottare un adeguato metodo di consultazione al crescere del numero di siti web.

Possiamo far risalire al 1994 la nascita del primo motore di ricerca con Web Crawler il primo bot ad indicizzare intere pagine web. Per la nascita di Google ci vorranno ancora 3 anni: i due fondatori Larry Page e Sergey Brin iniziano dapprima a lavorare a un motore di ricerca chiamato BackRub (nel 1996) che venne utilizzato sui server della Stanford University per più di un anno, occupando alla fine troppa banda.

Il 15 settembre 1997 viene registrato il dominio Google.com: il nome è un gioco di parole che deriva dal termine “googol”, un termine matematico che indica il numero caratterizzato da un 1 iniziale seguito da 100 zeri. Il termine rispecchia lo scopo di Larry e Sergey di organizzare una quantità apparentemente infinita di informazioni sul Web.

Il sistema si diffonde e vinse su molti altri motori grazie alla velocità di risposta e alla velocità di caricamento della sua home page, composta dalla consueta pagina bianca con un unico campo di ricerca. Oggi Google è il motore di ricerca più famoso al mondo, tanto da aver dato vita al neologismo anglosassone “to google” ovvero “fare ricerca sul web” da cui l’italiano “googolare”.

Gli Algoritmi di Google

Con l’aumentare del numero di pagine web presenti in rete, crescono progressivamente d’importanza le tecniche di ottimizzazione per i motori di ricerca: si inizia a parlare di keywords, crescono i fattori di ranking e man mano aumenta la concorrenza sul web.

Parallelamente, nascono diverse forme di manipolazione del ranking che molti siti adottano per scalare le SERP: in risposta, i motori di ricerca attuano continui perfezionamenti e rilasciano algoritmi sempre più complessi, in grado di rilevare le cosìdette attività ‘Black Hat’ e penalizzare il sito che le ha messe in atto.

Ecco i principali algoritmi rilasciati nel tempo da Google:

  • Panda nasce nel 2011 e controlla la qualità del contenuto di una pagina web.
  • Penguin nasce nel 2012 e controlla le attività di Black Hat e spam (come link di spam, link a pagamento, link provenienti da network di siti sospetti, link con anchor forzati o non inerenti)
  • Hummingbird nasce nel 2013 come principale algoritmo interpretativo: il suo scopo è quello di capire le intenzioni di ricerca dell’utente al di là della keyword digitata (semantica).
  • Pigeon nasce nel 2014 con l’obiettivo di perfezionare la ricerca geo-localizzandola.
  • L’update Mobile Friendly (conosciuto anche come Mobilegeddon) è rilasciato nel 2015 per favorire tutti siti responsive e perfettamente fruibili da s/2015/04/22/sito-web-mobile-friendly-ecco-cosa-fare/martphone e tablet.
  • RankBrain nasce a fine 2015 e introduce un sistema d’intelligenza artificiale real-time allo scopo di perfezionare l’autoapprendimento del motore di ricerca e la lettura delle reali intenzioni dell’utente.

L’ultimo aggiornamento

E’ freschissima la notizia di un ultimo (e importante) aggiornamento del Penguin, che ora gira in real time nel core di Google: questo significa che mentre prima era azionato a spot (come un interruttore) ora Penguin è sempre attivo. Con questa modifica, i dati monitorati da Penguin vengono aggiornati in tempo reale e i cambiamenti saranno visibili molto più velocemente con effetto quasi immediato dopo la successiva scansione della pagina.

Si tratta di una modifica molto importante, anche quando sia necessario uscire da una situazione di penalizzazione: in questa ipotesi, potrebbe infatti essere sufficiente una scansione/reindicizzazione della pagina “ripulita” dagli spam link in ingresso per riportarla nelle SERP del motore di ricerca.

Evoluzione semantica

Con il passare degli anni la SEO (Search Engine Optimization ovvero ottimizzazione per i motori di ricerca) è diventata sempre più complessa: mentre agli inizi era sufficiente modificare i meta-tag e aumentare i backlink verso un pagina, negli anni i motori di ricerca hanno perfezionato gli algoritmi e aggiunto nuovi fattori di ranking, rendendo più difficile creare un nesso artificiale tra contenuti e qualità di un sito.

I motori hanno imparato a distinguere i contenuti di qualità e a combattere lo spam, rendendo sempre più difficile il “farsi ingannare”: i nuovi algoritmi mirano a comprendere il significato semantico dei testi, progredendo nel settore dell’intelligenza artificiale e nel costruire delle basi di conoscenza.

Strategie digitali da evitare

Appare chiaro come il posizionamento su web sia dinamico e articolato, frutto di variabili correlate in modo molto complesso. Nella definizione di una strategia di Digital marketing è quindi importante non lasciarsi affascinare dalle facili aspettative: un sito non costruito correttamente rimane lettera morta.

Due sono le strade da evitare.

Il Fai-da-te

Uno degli errori più frequenti: il fai-da-te, parente stretto del ‘affidare il sito al cuggino di turno’. Deleterio. Il web marketing è una professione che richiede competenze diversificate: la democratizzazione dei mezzi d’informazione e la possibilità di realizzare in autonomia un sito web non significa che quello che otterrete facendo tutto da soli sia di qualità. Anzi, molto probabilmente non lo sarà.

La scelta di sviluppare tutto in autonomia può essere dettata da diversi motivi: dal budget, dalla volontà di controllare il processo e tenerlo ‘in casa’, dalla passione per gli aspetti creativi che il web marketing porta con se, … ci possono essere svariate combinazioni di motivi.

Qualunque sia il motivo, se proprio decidete di sviluppare in autonomia la vostra strategia web, puntate sulla formazione e fatevi affiancare da un consulente qualificato. Un supporto professionale può essere un’ottima alternativa che vi consente di avere una guida valida per far fruttare il vostro tempo, ottenendo un risultato sicuramente migliore (anche senza affidare il tutto ad una web agency esterna).

“In Prima pagina con 100 euro al mese!” : ecco perché non funziona

Le cose facili spesso (per non dire sempre) non funzionano: ecco perché le promesse che recitano ‘primi con 100 al mese’ portano spesso risultati insoddisfacenti. A tutti piacerebbe essere in prima pagina con un impegno minimo, ma purtroppo (come abbiamo visto) non è così facile.

Il posizionamento su Google dipende da tantissimi fattori: è chiaro che quando una parola chiave è molto cercata, molti competitor vorranno posizionarsi per primi sulla stessa frase-chiave. La probabilità di posizionamento sarà quindi sempre più difficile e condizionata a fattori di mercato.

Spesso alla promessa ‘primi con 100 al mese’ corrispondono posizionamenti poco appetibili: un esempio?

Ipotizziamo 2 frasi: (1) “SERBATOI INDUSTRIALI IN PLASTICA” e (2) “SERBATOI IN PLASTICA”. La prima chiave (1) ha una volume di ricerca quasi nullo (prossimo allo 0) mentre la seconda chiave (2) ha un volume di ricerca più significativo (ca 170 ricerche mensili) e un livello di competizione molto elevato. Posizionarsi per la prima frase-chiave (1) sarà quindi molto semplice, in quanto nessuno la cerca e proprio per questo è anche poco appetibile.

Spesso i pacchetti ‘chiavi in mano’ offrono questo tipo di posizionamenti: in altre parole, vi permettono di essere primi su una frase-chiave che non cerca (quasi) nessuno.

Evoluzione costante

La SEO è in continuo cambiamento: quello che oggi funziona domani potrebbe non avere più valore, sia per motivi tecnici legati alle evoluzioni algoritmiche, sia per motivi collettivi legati alle evoluzioni delle conversazioni sociali.

Dinamica ed evolutiva, l’attenzione al web richiede un costante adeguamento delle competenze e delle strategie comunicative.

Contattaci per saperne di più

Hai dubbi, domande oppure vuoi un consiglio esperto?
Contattaci o scrivici: siamo a tua completa disposizione.

 

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Sentitevi liberi di contribuire!

Lascia un commento