Download - Smau - primo anno

Transcript
Page 1: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Come era agli inizi il Posizionamento?

Predominanza dei fattori on page – cioè interni

- pagine ottimizzate

- chiave nel title, keyword, description, body e tutti altri tag

- spammare con keyword stuffing

- pagin fresca – cioè aggiornata di recente

- nessun fattore esterno - links

Page 2: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

L'arrivo di Google

Scavalca subito Altavista

- Grazie al PageRank – algoritmo che calcola l'importanza dei link. Riesce subito a dare migliori risultati

- Tutti gli altri motori di ricerca, da questo momento in poi, innovano poco e sono costretti ad inseguire Google, usando a volte gli stessi principi con scarsi risultati

- Da questo momento in poi i fattori onpage iniziano a diventare sempre meno importanti e Google farà lotta dura allo spam

Vediamo le novità e caratteristiche di questi anni dei motori di ricerca e poi approfondiamo Google, che è quello più interessante

Page 3: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Yahoo!

- Ha avuto uno spider sempre lentissimo, aiutato poi dai prodotti comprati da Yahoovedi delicius o flickr o meglio ancora la sua Directory

- Ha dato sempre un peso importante ai backlink proveniente dai documenti della stessa lingua, contanto sempre sulla sua Directory

- Ha usato la sua Directory per dare un peso maggiore ai siti dentro

- Ha provato a tracciare i click nelle serp per dare un peso maggiore ai documenti più cliccati con scarsi risultati

- Usa un filtro antiduplicazione molto scarso, anche se hanno uno studio per individuare i template di siti

- Usa un algoritmo simile al TrustRank ma poco efficace.

- Per anni il loro sistema di pay per click ha avuto forti guadagni in Italia dagli SpamEngine. Yahoo! Oggi usa quasi tutta la schermata delle serp competitive per piazzare i suoi sponsor

Page 4: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Yahoo!

Page 5: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Yahoo!

Attenzione alla features di ricerca

http://it.search.yahoo.com/info/shortcuts

Page 6: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Windows Live Search

- Sempre molta importanza ai fattori interni, addirittura tanti ai nomi dei file

- Molta importanza all'estensione del dominio e alla localizzazione del server. Un dominio .com con server in America, difficilmente scalerà le prime posizioni in LiveItalia.

- Ha adottato da poco i Quality Rater (vedi dopo ampia slide), con scarsi risultati

- Hanno detto che il loro è un motore di ricerca intelliggente, che impara con gli anni

- Hanno dato tantissimo peso alla quantità dei link, senza contare la qualità. Infatti se si hanno tanti link da proprie pagine addirittura o da sitispam, si può arrivareprimi in serp competitive

- Hanno un grosso potenziale ovviamente, Windows, Messenger, Office

- Sono arrivati sempre tardi

- Combattono pochissimo lo spam

Page 7: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Windows Live Search: ottimi servizi correlati

Page 8: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Windows Live Search: ottimi servizi correlati

Page 9: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Windows Live Search: ottimi servizi correlati

- Presto daranno degli strumenti per webmaster

- Stanno sfornando ottimi strumenti (anche la visuale 3d delle mappe è bella)

- Non riescono a creare servizi per la massa, infatti sono poco usabili. I video ad esempio, sono fatti in modo da non avere un url visuale immediato, è difficile trovare tag e commenti, come è difficile ripubblicarlo sul blog

- Windows Live Search oggi è una grande incognita. Grandi potenzialità da anni,grandi annunci da anni, poco traffico, tanto spam, facilità assurda di scalare unaserp. Attendiamo

Page 10: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Ask

- Prima del 2005 il suo nome era Ask Jeeves. Aveva la migliore ricerca per immaginiHa la sede Italiana a Pisa.

- Nel settembre 2001, Ask Jeeves acquista la tecnologia Teoma. Per esempio, un sito di Cucina salirà di rank se un altro sito dello stesso argomento (o cluster) avrà un link ad esso. Questo algoritmo viene ora chiamato ExpertRank.

- 2007. Edison, integrerà quello attuale basato su Teoma. Darà importanzaall'esperienza degli utenti (se vi registrate, mantengono tutte le vostre ricerche).Quindi ai siti costruiti per gli utenti.

- Useranno sempre Hub, ma estrapoleranno i dati degli utenti che hanno.

- Hanno seguito i click nelle serp da anni, cercando di tenere traccia della chiave e del documento linkato, a seconda dei termini

- Attualmente lo spider è lento, i risultati non sono male. A volte riesce a restituriredirettamente i siti di Hotel quando cerchiamo Hotel + Località e non i portali comefanno tutti gli altri motori di ricerca.

Page 11: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Ask: Featureshttp://sp.it.ask.com/it/docs/about/sitefeatures.shtml

Page 12: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Google

- Dall'estate 2003 la Google Dance (aggiornamento degli indici ogni mese) diventagiornaliero (Everfluxx)

- Inverno 2003. Florida. Introduce lo stemming (mangio, mangiare, mangiato) e siinizia la penalizzazione per la sovraottimizzazione

- 2004. HillTop: calcola i link in base alla tematicità

- 2005: Penalizzazione dei contenuti duplicati. Inserimento dei Quality Rater

- 2005: aggiornamento del PageRank in tempo reale, solo la barretta ogni tre mesi

- 2005/2006: Trustrank, il Bad Rank. PhraseRank e poi Big Table

- 2007: Google Web History, Features e Google Universal Search

Page 13: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Google ed il PageRank

- Il PageRank è stato progettato per dare importanza ai link, pensando questa come una risorsa utile, si è sviluppato il concetto che attraverso un link la paginaA da un voto alla pagina B.

- All'inizio ha funzionato giusto per scavalcare tutti gli altri motori di ricerca in terminidi qualità, poi gli spammer hanno iniziato ad abusare, ma tanto Google ha subitopreso le misure (Trust, Quality ect ect)

- Il PageRank è stato misurato per gli utenti da una barretta che si aggiorna ogni 3 mesi. Però questo è fuorviante. Il PageRank non va da 0 a 10, ma da 0,1 al valoremassimo che si raggiunge, e poi riportano loro i dati in punteggio decimale. Quindiquello che si vede, oltre ad essere vecchio, non è quello reale. E' ovvio che se ilvalore massimo sale di molto, un Pagerank 5 può passare a 4 senza che il documento abbia perso un solo link, anzi, addiruttura, può scendere anche se si è aumentata la link popularity. Meglio lasciar perdere la barra.

- Con il passare del tempo il suo valore è sempre diminuito, sorpassato dal Trustrank. Diventerà sempre meno importanta, ma oramai la barretta verde è un così forte strumenti di attrazione, che non sapremo mai quando non verrà piùusato del tutto il PageRank :-)

Page 14: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Google ed i Contenuti Duplicati

- Duplicato: si ma in che modo? Quanta % è stata duplicata? E la struttura?Sono state copiate solo frasi?

- Quando viene effettuata la query, i documenti che vengono visti come duplicatio cloni, finiscono nei risultati supplementari

- Ancora non scatta la penalizzazione, questa scatta in modo semi-automatico, tramite i Quality Rater

- Compaiono nelle serp i documenti che hanno un Trustrank maggiore

- I diversi motori di ricerca hanno un loro filtro o più filtri tutti diversi. Solo Google oggi usa i duplicati per la penalizzazione, questo è un vantaggio.

- Si può essere penalizzati con solo una pagina, con più pagine o bannati.

Page 15: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

TrustRank

- Applicazione 2005/2006. Il principio è di premiare i siti di qualità e penalizzarequelli di bassa qualità

- Conta molto la fiducia e qualità del documento linkante, oggi è molto molto importante. Questo algoritmo ancora è poco discusso nei forum, merito di non avere una barretta verde.

- Il principio è che un sito di qualità non linkerà quasi mai uno di bassa qualità e quindi assegnando una fiducia ad alcuni documenti si riesce a premiarli passandopoca forza ai documenti di bassa qualità

- Si sono scelti molti Hubs da dove è partita la fiducia. Molto probabilmente Dmoz,Yahoo, .edu, . Gov e alcuni recensiti manualmente

- Si è visto che lo spam è iniziato a diminuire in modo notevole

Page 16: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Bad Rank e altri

- Se il TrustRank funziona, perchè non usarlo all'inverso?

- Le pagine si spam linkano molte volte altre pagine di spam. Quindi è facile assegnare un punteggio negativo a queste pagine (vedi link exchange in automatico)

- Attenzione quindi quando linkiamo le risorse :)

Topical Trustrank

- Premiare i link a tema per combattere lo spam sui Blog/Forum autorevoli

- Attenzione quindi a partecipare a Blog o Forum abbandonati per mettere link

Page 17: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Google PhraseRank

- E' una piccola evoluzione perchè analizza come gli utenti usano le Frasi nel webper determinare quanto un sito web è rilevante o no.

- Trova frasi correlate basandosi su documenti a tema. Quindi se molti documentiparlando di Aereoporto Fiumicino contengono la frase Voli Roma si aspetta di trovarliin altri documenti.

- Quindi, la query non viene scomposta in parole ma in frasi. Forum per Webmaster non è forum+per+webmaster ma “forum webmaster”, “per webmaster”.

- Facilità di individuare i file duplicati ed i testi fake con generazione automatica.

- L'algoritmo impara da solo man mano che trova frasi

- Non pare essere attivo, ma penso che lo vedremo presto

Page 18: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Big Table

http://www.giorgiotave.it/forum/179851-post1.htmlhttp://labs.google.com/papers/bigtable.html

Nicola Nbriani del Forum GT ha avuto uno scambio di email con Jeffrey (l'ideatore) edha riportato tutto sul Forum.

BigTable è un sistema di archiviazione, una tabella di grandi informazioni.

Viene usata per la raccolta dei dati storici, cioè i cambiamenti del documento nel tempo,ma anche per altri scopi.

Il fine sembra essere quello della raccolta dei dati per combattere lo spam. In effettida quando si presume sia entrato ... lo spam è quasi sparito.

Vediamo...

Page 19: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Big Table

Tabella 1: 1.000 miliardi di cella + 16 famiglie di dati. Si usano tanti timestamp di un documento e si usano 16 famiglie per catalogare i documenti (Html, Anchor text,Lingua, Tipo ect ect)

Tabella 2: 200 miliardi di celle + 2 famiglie di dati che contengono Varius Web Pages,TrustRank? BadRank? Rensioni manuali? Duplicate? Ban?

Usano la seconda tabella per lo spam?

Ipotesi:

Page 20: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Quality Rater

Chi sono:Sono una figura professionale adottata da Google nel 2004 per fornire dati utili a migliorare le SERP e l’algoritmo del motore di Mountain View.

Cosa fanno:Valutano i siti e le SERP di Google. Ci sono vari progetti cui partecipano, i più comuni sono la valutazione di un pagina di un sito alla volta per una determinata query o la valutazione di intere SERP (da 5 – 10 risultati) per una determinata query.

Cosa non fanno:I QR non hanno potere decisionale, quindi non saranno mai loro, né il loro moderatore di progetto a bannare/rimuovere/penalizzare un sito. Come detto i QR sono dei “ricercatori” che forniscono dei dati, e dei suggerimenti a Google sulla qualità delle SERP

Cosa valutano:Le linee guida dei QR contengono molti fattori da valutare, i principali riguardano:- comprensione della query (la tipologia, e l’intenzionalità dell’utente)- valutazione della pagina in base alla sua rilevanza per la query, e l’utilità per l’utente- individuazione di tecniche non valide (SPAM)

http://www.giorgiotave.it/forum/seo-focus/38272-faq-sui-quality-rater.html

Page 21: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Quality Rater

Cosa non valutano:- Altre pagine: quasi tutti i progetti sono focalizzati sulla valutazione di una pagina e dei link che essa fornisce, altre pagine dello stesso sito non sono valutate ai fini del rating da assegnare. E’ possibile valutare una pagina di un sito negativamente e suggerire a Google una pagina migliore dello stesso, ma siamo nell’ordine dei suggerimenti.- La grafica: per molti mesi i QR hanno valutato la pagina di cache di Google, e quindi l’aspetto grafico non è mai stato preso in considerazione per la valutazione di un sito.

Fattori positivi per i QR:Non esistono trucchi o segreti per essere valutati positivamente dai QR, si tratta semplicemente di realizzare siti pensando al target e ai suoi bisogni. Un consiglio è però quello di strutturare il proprio sito e di realizzare le proprie pagine come tante landing pages. Questo perché Google è un motore di ricerca e invia sui siti che ha in SERP utenti che hanno espresso una richiesta, questi utenti sono catapultati dalla SERP di Google ad un sito che magari vedono per la prima volta. La pagina d’atterraggio dovrebbe quindi offrire (esempio generico):- indicazioni chiare sul tema generale del sito- contenuti rilevanti per la query fatta dall’utente

http://www.giorgiotave.it/forum/seo-focus/38272-faq-sui-quality-rater.html

Page 22: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Quality Rater

Fattori negativi per i QR:Semplicemente tutto quello che non è pensato avendo in testa i bisogni dell’utente, e che spesso è fatto con il solo scopo di trarne un guadagno (economico e/o di posizionamento). Una pagina povera di contenuti, o con contenuti duplicati, una pagina che reindirizza in maniera maliziosa verso altre pagine o siti, una pagina con contenuti duplicati o autogenerati ricca di PPC ads o banner non a tema, una pagina off-topic offensiva per l’utente, una pagina che tenta di installare malware, o che modifica le impostazioni del browser, o lo blocca.

http://www.giorgiotave.it/forum/seo-focus/38272-faq-sui-quality-rater.html

Page 23: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Quality Rater

Sfatiamo dei miti:- Una pagina con contenuti originali (anche se pochi e non utili per l’utente) e annunci PPC non è SPAM- Testi “di servizio o di navigazione” nascosti via CSS o Javascript, non sono SPAM- Testi corposi (originali e naturali) spezzati parzialmente via CSS o Javascript ma richiamabili in maniera evidente non sono SPAM- L’output RDF di DMOZ + annunci in PPC è SPAM, senza PPC non è SPAM ma è comunque poco rilevante, tranne casi in cui sia arricchito di informazioni (mai successo in 13 mesi…)- I QR non recensiscono siti a piacere (tranne per alcuni progetti in cui è possibile suggerirli)- Mettere un numero non naturale di kws in posizioni non immediatamente visibili all’utente, o con tecniche di scorrimento, è suscettibile ad essere valutato SPAM. Per esperienza il 90% dei casi è stato valutato SPAM, rari casi sono risultati comunque

http://www.giorgiotave.it/forum/seo-focus/38272-faq-sui-quality-rater.html

Page 24: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Google Web History

Questo nuovo servizio gratuito offre agli utenti Google muniti di toolbar la possibilità di ricercare "full-text" in tutti i documenti web visitati in precedenza. (Beke)

Serp personalizzate e misurazione del comportamento utente(Pieropan – Piersante – Messaggi che Google Lancia)

http://googleblog.blogspot.com/2007/04/your-slice-of-web.html

http://searchengineland.com/070419-181618.php

http://www.giorgiotave.it/forum/seo-focus/36971-google-web-history-e-il-futuro-delle-serp.html

Page 25: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Google Features: le mappe

Page 26: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Google Features: le mappe

1. Essere iscritti nella sezione Google Business Center2. Essere iscritti nei portali di booking online tipo venere.com, epedia, booking ecc..3. Essere iscritti su pagine gialle .4. Fare delle mappe personalizzate utilizzando il nuovo sistema "le mie mappe".5. Sembra che l'ordinamento dei risultati sia determinato dalla distanza degli esercizi commerciali dal centro della mappa corrente (Influisce molto, ma non è l'unico fattore).6. Pagare Pagine Gialle o Google non influisce7. Cercate su Google “yachting palermo” per vedere come avere più link

Page 27: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Google Universal Search

Non più solo pagine web nei dieci risultati, ma anche Video, Libri, Mappe!!!

- I risultati organici cambieranno il modo di fare SEO

- Vedremo sempre più risorse nelle SERP (news ad esempio, blog?)

- Per i Libri si deve essere iscritti a Google Libri ed essere un reale autore/editore

- Per le mappe abbiamo visto la features di prima, che pare possa entrare nei risultatinaturali e quindi non più come features

- Ma per noi, per i SEO/SEM, la rivoluzione sono i video, per ora.

http://www.giorgiotave.it/forum/seo-focus/39797-google-universal-search.html

Page 28: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Google

Universal

Search

Page 29: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Altri Servizi della ricerca

Rss e Blog- esempio, Google blog search, technorati altri

Visual Pagine Gialle

- telecamere in tempo reale- video degli hotel e altre strutture- mappe dell'italia con riprese aree molto dettagliata- visualizzazione 3d

Wikipedia

- motore di ricerca collaborativo? Per ora dicono di no-Teecno del Forum GT sarà un esempio di questo

Page 30: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Il Futuro

- Il futuro, secondo me, vedrà i motori di ricerca basarsi sempre più su figurecome i Quality Rater, sempre più sull'esperienza degli utenti e sempre più suisiti fatti per gli utenti

- Avere una struttura ottimizzata significa solo aver fatto il 10% del lavoro. Oggi, ripeto oggi perchè un giorno cambierà, sono fondamentali i link da risorse di qualità e a tema, nonché i link spontanei. I link facili da avere come blog, forum,scambi, spam conteranno sempre meno.

- Il web cambia ogni 6 mesi. Per fare il SEO o il SEM occorre aggiornarsi ognigiorno per non restare indietro. E poi...il vostro progetto deve avere trafficonon solo dai motori di ricerca, ma da tutti gli altri servizi, anche dall'offline

- Quando fate un sito, puntate molto sulla fidelizzazione dell'utente e cercateil feedback a tutti i costi

- E mi raccomando, un sito non è più fatto di sole quattro pagine, ma ci sono tuttaun'altra schiera di strumenti: forum, blog, rss, video, mappe, news, feedback..ed i contenuti generati dagli utenti.

Page 31: Smau - primo anno

Panoramica sui cambiamenti dei motori di ricerca

Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/

Grazie ;-)

http://www.giorgiotave.it/forum/slide.zip