Archive for the “SEO” Category

foto di MoneyBlogNewzIl posizionamento nei risultati delle ricerche Google è in cima alle preoccupazioni di chi progetta, gestisce o finanzia un sito web. Ed è il mestiere di chi si occupa di SEO, Search Engine Optimization. Con le ultime grandi “riforme” dell’algoritmo usato da Google contano sempre meno i trucchetti e sempre più la qualità dei contenuti e dell’interfaccia. Ma è comunque opportuno conoscere i fattori che influiscono di più su quell’algoritmo. Ecco gli elementi più rilevanti secondo un sondaggio di Moz condotto tra più di 100 professionisti del SEO.

Di tutti i fattori considerati, abbiamo selezionato solo quelli che hanno raggiunto un punteggio superiore al 6 e li abbiamo divisi tra quelli che influiscono sul posizionamento del dominio e/o dell’intero sito e quelli relativi alla singola pagina.

Un elemento importante da considerare è che il posizionamento, più che assumere un valore assoluto, è legato a una o più keyword. L’obiettivo è infatti sempre quello di raggiungere i primi posti nei risultati dei motori, ma solo per certe ricerche in particolare.

Principali fattori a livello di dominio (in ordine d’importanza)

  1. Unicità di contenuti dell’intero sito
  2. Numero di domini unici che linkano al dominio
  3. Autorevolezza del dominio
  4. Numero di link al dominio da fonti sconosciute
  5. Popolarità del dominio calcolata in base all’insieme di link in entrata (page rank)
  6. Rilevanza di argomento dei link in entrata
  7. Volume di ricerca per il marchio/dominio
  8. Freschezza di contenuti del sito
  9. Percentuale di link che nel testo contengono il nome del marchio
  10. Quanttà di keyword associate al marchio nel web
  11. Dominio mai penalizzato
  12. Varietà dei link in entrata sul sito (ad es. forum , blog, news, ecc.)
  13. Velocità con cui il dominio acquisisce link in entrata
  14. Nome del dominio che coincide con la keyword

Principali fattori a livello di pagina

  1. Presenza della keyword nel titolo della pagina
  2. Unicità di contenuti della singola pagina
  3. Varietà di testi contenenti il link alla pagina (esatto, parziale, nome del marchio, ecc.)
  4. Presenza della keyword nell’area dei contenuti principali della pagina
  5. Numero di domini unici che linkano la pagina
  6. Rilevanza di argomento delle altre pagine che linkano la pagina
  7. Tasso di varietà dei domini rispetto al numero di link in entrata
  8. Numero di link alla pagina da marchi e/o domini popolari
  9. Posizione/contesto dei link in entrata (sidebar, corpo del testo, tooter, ecc.)
  10. Rilevanza di contenuto dei domini che linkano la pagina
  11. Popolarità della pagina calcolata in base all’insieme di link in entrata (page rank)
  12. Ottimizzazione dei contenuti della pagina rispetto all’argomento
  13. Varietà dei link in entrata sulla pagina (ad es. forum , blog, news, ecc.)
  14. CTR da Google alla pagina per una certa keyword
  15. Quantità di link alla pagina che utilizzano la keyword all’interno del testo del link
  16. Velocità con cui la pagina acquisisce link in entrata
  17. Quantità di link alla pagina che utilizzano la keyword come testo del link

Come si può notare, i fattori risiedono soprattutto all’esterno del sito. Quest’ultimo deve avere una popolarità e autorevolezza tali da guadagnarsi il massimo numero di link “qualificati” da altri siti.

Per quanto riguarda i social media, il loro influsso c’è, ma è meno importante di tutti i fattori che abbiamo elencato sopra. Tra i social, conta più di tutti Google+, seguito da Twitter e poi da Facebook.

Link utili su questo argomento

Comments No Comments »

Feed - immagine di Matthew ForsytheLa tecnologia dei web feed – nei due standard alternativi RSS o Atom – pur molto diffusa, è meno conosciuta di quanto meriterebbe, per le sue enormi potenzialità, che vengono sfruttate quasi solo dagli addetti ai lavori. I feed consentono ad un sito di distribuire automaticamente i propri contenuti, generando un file, in formato XML, che contiene alcune informazioni, come il titolo, un sommario, a volte l’intero contenuto dell’articolo. I feed (in italiano “flussi“), possono  essere consultati dai singoli utenti, permettendo loro di tenere sotto controllo diverse fonti, oppure essere inclusi all’interno di altri siti, dando luogo ad una forma automatica di condivisione di contenuti tra siti diversi.

L’accesso ai feed da parte del singolo utente può avvenire con varie modalità: tramite specifici software, estensioni dei browser o siti che offrono in servizio di aggregatori di feed, come Netvibes o iGoogle.

La pubblicazione di feed su altri siti porta in genere vantaggi sia al sito ricevente, che può arricchire la propria offerta, sia al produttore di contenuti, che può così ampliare il proprio pubblico e ottenere un valido aiuto in termini di SEO, dal momento che aumenta i link verso le proprie pagine, contestualizzati con le giuste parole chiave. I feed possono essere inclusi come elenchi di titoli, come rilanci di singoli articoli (v. questa home page) o estraendo alcuni paragrafi dell’articolo originale, la formula che ha fatto la fortuna dell’Huffington Post, uno dei siti di news più letti al mondo.

Nonostante tali vantaggi, molti considerano superati i web feed. Sicuramente sono in declino, a causa dell’avvento dei social media, che in parte ne sostituiscono le funzioni. Lo dimostra la dismissione di due servizi importanti come Google Reader (già avvenuta) e iGoogle (imminente), così come la scomparsa dell’icona dei feed dalla barra degli indirizzi dei browser: tutte mosse motivate dal calo d’interesse da parte degli utenti. Ciò non toglie che i feed – pur incontrando un limitato interesse da parte del pubblico per un uso diretto – rimangono un valido strumento, in ternini di SEO, e di arricchimento di contenuti tra siti, se non si esagera, perché, con l’avvento di Panda, Google penalizza le duplicazioni di contenuti. La stessa tecnologia è anche alla base di molte app per mobile. Per trasmettere (o ricevere) contenuti da un sito all’altro, nel frattempo, si stanno sviluppando anche sistemi più evoluti, basati su un uso altamente personalizzabile dei web services.
Link utili su questo argomento

Comments No Comments »

Il posizionamento tra i risultati di ricerca di Google è la maggior preoccupazione per chiunque gestisca un sito Web, specie se di tipo commerciale. Google aggiorna continuamente l’algoritmo applicato alle ricerche, basato sul PageRank, e recentemente rivoluzionato con l’avvento di Google Panda, la nuova release che premia i siti di qualità e punisce i parassiti del Web, che solo nel 2012 è stata aggiornata ben 14 volte.

Ecco di seguito una sintesi dei consigli che dà Google stessa, la quale raccomanda, comunque, di non concentrarsi tanto su questo o quell’aspetto che possano influire sull’algoritmo, quanto sulla qualità dei contenuti del sito.

  • Un sito che piace a Google contiene articoli per niente superficiali; anzi, scritti da persone appassionate e/o competenti in materia, che forniscano valore aggiunto, a confronto con le altre pagine risultanti dalla stessa ricerca..
  • È molto importante che il sito non abbia contenuti duplicati e/o pagine che differiscono tra loro solo di pochissimo.
  • Il sito deve infondere fiducia al punto che l’utente sia disponibile a fornire il proprio numero di carta di credito o a consultarlo per informazioni riguardanti la propria salute.
  • I testi non devono contenere errori d’ortografia, né informazioni inattendibili, né troppo superficiali.
  • Gli argomenti scelti devono essere quelli di reale interesse dei lettori del sito, e non inseriti solo per migliorare il posizionamento.
  • Il sito deve fornire contenuti originali, mai ovvi; anzi, col giusto grado di approfondimento.
  • Se un argomento può essere considerato da più punti di vista, è opportuno non presentarne uno solo ed essere in più possibile esaustivi.
  • Il sito deve poter essere considerato una fonte autorevole sulle materie che tratta.
  • Le pagine devono essere interessanti al punto che sorga il desiderio di condividerle con altri o quanto meno salvarle tra i preferiti.
  • Non deve assolutamente esserci troppa pubblicità, che distragga dai contenuti del sito.
  • Le pagine devono essere realizzate con grande attenzione ai dettagli.

Link utili su questo argomento

Comments No Comments »

L‘ICANN ha reso nota la lista delle domande pervenute per la creazione di nuovi domini internet di primo livello, sulla base della nuove regole. L’ICANN è l’ente internazionale responsabile della gestione del sistema dei nomi a dominio (DNS). Sono state 1.930, le domande pervenute per aggiudicarsi la gestione di top level domain name al costo di 185 mila dollari l’uno. Google ha fatto la parte del leone, spendendo quasi 19 milioni di dollari per tentare di aggiudicarsi più di 100 nomi; alcuni ovvi – come .google, .youtube o .plus – altri meno. Si aggiudicherà, da unico richiedente, .fly, .new e .eat, ma dovrà competere con la Jonhson & Jonhson per .baby, con Microsoft per .docs e .live e con Amazon per ben 17 nomi, tra cui .wow, .search, .shop, .drive, .free e .game. Molto significativo il fatto che Apple abbia fatto richiesta solo per .apple e Facebook per nessun nome. Ciascuno ha ormai una propria visione della rete.

I primi nuovi indirizzi entreranno in funzione entro il prossimo anno, ma per alcuni nomi – come .app, per cui hanno fatto domanda in 13, o .shop, in 9 – l’ICANN dovrà decidere a chi aggiudicarli. Se il nome coincide con la ragione sociale, non ci sono dubbi. Il problema sarà giudicare quanto sia legittimo che un privato come Google controlli nomi come .love e .fun. Metà circa dele domande viene dal Nord America, ma ci sono più di 100 nomi basati sul alfabeti diversi da quello latino, soddisfacendo così proprio uno degli scopi perseguiti con questa riforma del DNS.

Tra le città, i rispettivi nomi sono stati chiesti dai municipi di New York, Parigi e Madrid, mentre Londra, Berlino e Mosca sono stati richiesti da privati. Nessuna città italiana si è finora cimentata nella domanda.

I nomi richiesti dall‘Italia sono 16 in tutto, di cui ben 10 dalla sola Fiat (Case, Caseih, Iveco, Newholland, Abarth, Alfaromeo, Ferrari, Fiat, Lancia e Maserati). Aruba vorrebbe aggiudicarsi il controllo di .cloud, ma dovrà vedersela con rivali come Amazon e Symantec. Gli altri che hanno fatto domanda – relativamente al solo nome della propria ragione sociale – sono Lamborghini, BNL, Gucci, Praxi e l’hotel Cipriani di Venezia.

Link utili su questo argomento

Comments No Comments »

Schema.org è un’iniziativa congiunta di Google, Microsoft e Yahoo! – ai quali si è poi aggiunto Yandex, il maggiore motore di ricerca russo – per consentire ai webmaster di creare contenuti strutturati, e perciò più facilmente individuabili dai motori di ricerca, grazie ad uno schema predefinito. Tale schema apre le porte ad un vero Web semantico, nel quale sia possibile collocare informazioni, concetti e persino oggetti  (internet delle cose) riconoscibili per quello che realmente sono. La tassonomia proposta è organizzata a partire da 7 grandi gruppi di contenuti: opere dell’ingegno, eventi, cose immateriali, organizzazioni, persone, luoghi, prodotti.

Schema.org si basa sui Microdata, un set di specifiche HTML5 proposto non dal W3C, ma dal WHATWG, un gruppo di lavoro indipendente fondato da Apple, Mozilla e Opera. I Microdata consentono di inserire descrizioni di tipo semantico all’interno del codice HTML, che poi i motori di ricerca possono interpretare. Chi gestisce i contenuti del sito, può associare ad ogni “oggetto” tutti i metadati che vuole, utilizzando il vocabolario proposto da Schema.org. Ma è anche un bel po’ di lavoro in più da fare!

Secondo alcuni commentatori, Schema.org rappresenta un bel passo avanti verso il Web semantico, estendendo il principio di “URI” (l’indirizzo che identifica univocamente un oggetto presente in internet) dai soli documenti messi on line a concetti o entità astratte del mondo reale. Facebook lo aveva già fatto con l’introduzione di OpenGraph e del Like. Secondo i critici, invece, Schema.org rappresenta una mossa di Google proprio per contrastare Facebook, snobbando peraltro il formato RDF (col quale i Microdata sono in concorrenza), sostenuto dal W3C e sul quale si basa, ad esempio, tutta la gestione degli Open Data.

Link utili su questo argomento ed esempio di applicazione

Comments No Comments »

Google ha reso nota la lista dei 52 cambiamenti che ha effettuato nel mese di Aprile nelle sue funzioni di ricerca. Di recente c’erano state migliorie molto importanti negli algoritmi di Google: a febbraio 2011, Panda update, con lo scopo di escludere dalla ricerche le “Content Farm”, ovvero tutti quei siti, portali e aggregatori di news che pubblicano contenuti di scarsa qualità al solo scopo di attirare un numero elevato di visite e guadagnare tramite i click sugli annunci AdSense. Tra le ultime migliorie successive, il mese scorso è stato lanciato un nuovo algoritmo che punisce il fenomeno del webspam, cioè la pratica di ottenere in modo artificioso una classificazione (“page rank”) più alta delle proprie pagine. Il webspam viene attuato tipicamente tramite il keyword stuffing (“imbottitura di parole chave”), cioè il riempire la pagina di centinaia di keywords anche non pertinenti, e i link schemes (“complotti a base di link”), ovvero la creazione di siti complici che linkano verso la propria pagina per aumentarne il page rank.

Gli ultimi cambiamenti annunciati sono significativi, perché danno il senso di come stia cambiando lo scenario del posizionamento sul Web. Oltre ai già citati provvedimenti per punire i SEO “cattivi”, molti dei miglioramenti riguardano l’interfaccia utente. Ad esempio, molti sforzi sono stati concentrati sulla funzione di completamento automatico, che è stata estesa anche a ricerche meno frequenti nelle lingue diverse dall’inglese ed è anch’essa mirata a penalizzare i contenuti di qualità più scarsa. Ulteriore enfasi viene data ai contenuti più recenti, ma con un’attenzione ancora maggiore ad escludere le pagine “trash”. Vari interventi riguardano la pertinenza dei risultati rispetto all’utente specifico. Ad esempio, di un sito multinazionale si cerca di privilegiare la versione del paese dell’utente, così come si tiene conto di più delle ultime ricerche effettuate, per cercare di indovinare le intenzioni dell’utente. Infine citiamo i miglioramenti sul modo di presentare i risultati dei sitelinks, cioè i siti maggiori per i quali Google dà direttamente i link alle principali sezioni interne. Per la lista completa delle novità, si veda l’articolo sul blog di Google.

Link utili su questo argomento

Comments No Comments »

Non è facile credere in Google+, il social network che Google ha creato per fare concorrenza a Facebook, ma che occupa un ruolo ancora molto marginale nelle preferenze degli utenti. Eppure, chi lavora nel Web non può prescindere da questo strumento, principalmente per il fatto che influisce direttamente sui risultati delle ricerche effettuate con Google. Se provate a cercare col motore il nome di un’azienda, ad esempio “T-Mobile”, potete constatare come l’attività svolta dalla multinazionale telefonica su Google+ sia messa in evidenza, nei risultati delle ricerche, ma qualcosa di simile capita per tutte le ricerche, in quando Google evidenzia quelle consigliate dai propri amici tramite Google+.

C’è chi dice che, sul lungo periodo, ciò che fa Google fa la differenza, poiché l’azienda domina in settori chiave come la ricerca, i browser, l’email, la telefonia mobile e i video on line. Ma più utile di tutti è leggere l‘infografica che riportiamo di seguito, pubblicata da Chris Brogan, che ci spiega perché bisogna stare su Google+. Il motivo principale è di essere meglio indicizzati, dal momento che i siti che stanno su Google+ sono indicizzati più velocemente e hanno un migliori chances di un buon ranking. Molto interessanti, nell’infografica, sono anche i consigli per come starci, su Google+. Il consiglio è di essere “social“, condividendo anche contenuti di altri e interagendo, e perciò non usare Google+ come un semplice megafono.

Clicca per vedere l’infografica (e per consigliare questo articolo con Google+)

Comments No Comments »

Twitter è uno dei quattro social network (insieme a Facebook, Google+ e Linkedin) di cui ormai bisogna avere i pulsanti, sulle pagine del proprio sito, per sfruttare l’impulso alla condivisione dei propri utenti ed aumentarne la visibilità. Inoltre, può essere utile anche come strumento da usare attivamente per promuovere il sito. Ma quando si analizzano le statistiche di accesso ai siti, spesso si deve constatare che le visite provenienti dai social network sono  marginali. Risulta dunque molto utile l’infografica realizzata dall’esperto di social media Dan Zarrella su “come ottenere più click da Twitter“, basata sull’analisi statistica di centinaia di migliaia di “tweet” e focalizzata sulla percentuale di click rispetto al numero di follower (CTR). Ecco in sintesi cosa bisogna fare.

  1. Scrivere tweet di lunghezza tra 120 e 130 caratteri, perché statisticamente sono i più letti.
  2. Come posizione, inserire il link a circa il 25% della lunghezza del tweet.
  3. Non tweettare troppo frequentemente; è meglio tenere un ritmo basso.
  4. Preferire le parole d’azione: più verbi e avverbi, meno nomi e aggettivi.
  5. Come giorni, preferire giovedì, sabato e domenica.
  6. Come ora, scegliere il secondo pomeriggio, anziché la mattina.
  7. Usare parole e frasi appropriate. Ad esempio, hanno alti rendimenti parole come “via”, “@”, “RT”, “please” e “check”, mentre vanno male “@addthis” e “marketing”.

Infografica completa e link utili su questo argomento

Comments No Comments »

Google ha annunciato nuove importanti modifiche alle sue funzioni di ricerca, che includono il social network Google+, nel tentativo di rendere più pertinenti i risultati, basandoli sulle segnalazioni e le attività dei propri contatti. Ma anche nella speranza di riuscire nella difficile impresa di contrastare il predomino di Facebook nel “social”.

Twitter ha subito detto, in un comunicato, che tali cambiamenti potrebbero rendere più difficile il reperimento delle informazioni pubblicate dai propri utenti, i “tweet”. Questi ultimi, per un periodo, erano inclusi in tempo reale nei risultati di Google, tramite la funzione Google Realtime, poi disabilitata a causa delle richieste troppo esose di Twitter.

Cosa cambia per chi lavora nel web? Queste notizie dimostrano come la dimensione “social” sia ormai imprescindibile, nei siti web, anche quando la preoccupazione principale è quella di un buon posizionamento nelle ricerche on line.

Link utili su questo argomento

Comments No Comments »

m4s0n501