m4s0n501
Web Watching Eustema - Notizie e aggiornamenti per chi lavora nel web

garante privacy esempio banner cookiePer i siti web con i cookie diventano obbligatori un banner informativo in home page e la possibilità per l’utente di scegliere quali cookie autorizzare. È stato infatti pubblicato in Gazzetta Ufficiale il provvedimento del Garante della Privacy che pone dei limiti all’uso dei cookie per finalità di profilazione e marketing da parte dei gestori dei siti. La finalità dell’authority è quella di consentire a chi naviga online di decidere in maniera libera e consapevole se far usare o no le informazioni raccolte sui siti visitati per ricevere pubblicità mirata. Sempre più spesso, infatti, si ricorre alla “pubblicità comportamentale“, che consente di visualizzare annunci in base ai comportamenti pregressi dell’utente. “Con questo provvedimento diventa più facile il rispetto degli obblighi previsti dalla normativa europea“, ha detto Antonello Soro, presidente del Garante.

Cosa fare

Il Garante ha  stabilito che, d’ora in poi, quando si accede alla home page o ad un’altra pagina di un sito web deve immediatamente comparire un banner ben visibile, in cui sia indicato chiaramente:

  1. che il sito utilizza cookie di profilazione per inviare messaggi pubblicitari mirati;
  2. che il sito consente anche l’invio di cookie di “terze parti”, ossia di cookie installati da un sito diverso tramite il sito che si sta visitando;
  3. un link a una informativa più ampia, con le indicazioni sull’uso dei cookie inviati dal sito, dove è possibile negare il consenso alla loro installazione direttamente o collegandosi ai vari siti nel caso dei cookie di “terze parti”;
  4. l’indicazione che proseguendo nella navigazione (ad es., accedendo ad un’altra area del sito o selezionando un’immagine o un link) si presta il consenso all’uso dei cookie.

Per quanto riguarda l’obbligo di tener traccia del consenso dell’utente, al gestore del sito è consentito utilizzare un “cookie tecnico“, in modo tale da non riproporre l’informativa breve alla seconda visita dell’utente. In ogni caso l’utente mantiene la possibilità di modificare le proprie scelte sui cookie attraverso l‘informativa estesa, che deve essere linkata da ogni pagina del sito.

Nota: è stato fatto notare, a proposito della Direttiva europea sui cookie, che circa il 40 per cento del tracciamento delle attività degli utenti avviene con mezzi diversi dai cookie stessi.

Link utili su questo argomento

Comments Nessun commento, finora. Vuoi cominciare tu? »

api restLe API REST costituiscono un nuovo approccio per progettare applicazioni. Un modo semplice e modulare, che consente di adattare la logica del core business delle nostre applicazioni a numerose tipologie di client, sfruttando al meglio le competenze delle nostre risorse e rispondendo rapidamente alle richieste di cambiamento provenienti dal mercato.

La filiera produttiva, per la realizzazione di interfacce utente, prevede la progettazione dell’interfaccia da parte di un UX designer (wireframe), la realizzazione di un template (mock-up HTML) da parte di un Web Designer e l’integrazione del template all’interno dell’applicazione da parte di un Web Developer.

Se l’interazione tra UX e Web designer è ormai consolidata, la collaborazione tra Web Designer e Web Developer non è sempre “rose e fiori”.

Quanti Web Designer hanno dovuto utilizzare un ambiente di sviluppo integrato (IDE) per testare le grafiche che stavano realizzando? E quanti Web Developer hanno dovuto imparare ad utilizzare javascript e CSS per intergare un template nelle loro applicazioni? E i risultati quali erano? Web Designer frustrati per dover lavorare con tecnologie poco note, oggi Java, domani .Net e Web Developer costretti ad arrovellarsi con le dinamiche del CSS o a cercare di capire qual era il TAG annidato male (“perché su IE7’si vede male’?”).

Continua a leggere…

Comments Nessun commento, finora. Vuoi cominciare tu? »

countries_by_most_used_web_browserConoscere i dati sulla diffusione dei vari browser è fondamentale per chi sviluppa siti e servizi web, perché ogni interfaccia va progettata per comportarsi al meglio in ciascuna delle piattaforme ed è opportuno fissare sempre delle priorità. Abbiamo messo a confronto i dati mondiali con quelli riferiti alla sola Italia, usando come fonte StatCounter, per individuare eventuali differenze. Ogni paese ha le sue usanze, anche in internet. Se Chrome (in verde nella cartina) domina quasi ovunque, infatti, Firefox (in arancio) è amato in Africa, mentre Explorer (in blu) è sorretto soprattutto dai cinesi. Per ora, dunque, non c’è storia: Google è padrona del mondo.
Consulta i dati completi

Comments Nessun commento, finora. Vuoi cominciare tu? »

Per ottenere il massimo dei ricavi da una app per mobile, come modello di business conviene applicare il Freemium, parola composta da “free” (gratis) e “premium”, che consiste nell’offrire gratuitamente una parte del prodotto e farne pagare un’altra. Lo rivela un’indagine effettuata da Statista all’interno dell’Apple Store e diffusa da Mashable. Come si può vedere nel grafico che riporta i risultati dell’indagine, le uniche eccezioni sono costituite dalle app per la produttività e per la navigazione. Il comparto informazione è quello che ha più bisogno del modello gratuito. Per le news, infatti, è più difficile che mai immettere sul mercato app a pagamento.

Secondo Chris Anderson, uno dei più grandi esperti di internet e teorico del modello “free”, ci sono quattro possibili modelli di Freemium:

  1. a limitazione temporale (gratis per i primi 30 giorni, poi a pagamento);
  2. con funzionalità limitate;
  3. a limitazione di numero degli utenti (gratis per un certo numero di utenti);
  4. a limitazione del tipo di cliente (gratis per le aziende piccole e giovani, a pagamento per quelle grandi).

pricing strategy app

Link utili su questo argomento

Comments Nessun commento, finora. Vuoi cominciare tu? »

Cronologia delle posizioni di Google MapsGoogle conosce tutti i nostri spostamenti, minuto per minuto, e li registra in un database accessibile via Web – all’indirizzo maps.google.com/locationhistory - dal quale è possibile ricavare dati e statistiche sui nostri comportamenti, come ad esempio tempo mediamente passato al lavoro, a casa e altrove, e così via. È un caso tipico di come la privacy – nell’era del cloud computing e dell’internet mobile – sia sempre più esposta a manipolazioni ignote ai consumatori. Lo smartphone, in particolare, rileva la posizione di chi lo usa grazie a due diverse tecnologie: il rilevamento delle celle della rete telefonica e il GPS.

Entrambe le informazioni vengono intercettare da vari sistemi legati al dispositivo: il sistema operativo, (Android, iOS, Windows, …) la rete del gestore telefonico, le varie app.

Le app, in particolare, accedono a molte informazioni, compresa la posizione, grazie alle autorizzazioni che hanno richiesto al momento dell’installazione e che l’utente, in genere, concede a cuor leggero. Quindi ci sono diversi soggetti che possano conoscere la posizione di una persona che va in giro con lo smartphone. Le modalità di trattamento di tali dati sono in genere ignote all’utente. Potrebbero, ad esempio, essere venduti a terzi a sua insaputa. Un caso significativo è stato quello del periodico tedesco Die Zeit, che ha pubblicato la mappa interattiva degli spostamenti di un politico, Malte Spitz, combinandoli coi suoi interventi su Twitter e il blog. Spitz stesso aveva concesso il database, che si era fatto consegnare dalla compagnia telefonica.

Leggi le istruzioni per l’uso

Comments 1 Commento »

Creative Commons a vessel ideasCreative Commons ha rilasciato le nuove licenze 4.0, la cui caratteristica principale è quella di adattarsi particolarmente alla pubblicazione di big data e open data in genere, specie nell’ambito dell’Unione Europea, dove esiste una regolamentazione specifica sui diritti d’uso dei database. Le licenze 4.0 sono dunque pensate per i governi e gli  altri soggetti interessati a pubblicare informazione detenuta dal settore pubblico (PSI) e dati in genere. Tra le novità, ci sono una maggior leggibilità, un’attribuzione “di buon senso“, e un nuovo meccanismo che permette a chi violi la licenza inavvertitamente di riguadagnare automaticamente i propri diritti se la violazione è sanata in modo tempestivo.

Ricordiamo che le licenze Creative Commons sono delle forme contrattuali standard, di comprensibilità semplificata, che consentono ad artisti, giornalisti, docenti, istituzioni e altri creatori di pubblicare le proprie opere senza copyright, ma con alcune limitazioni, come ad esempio l’obbligo di indicare l’autore o il divieto di utilizzare l’opera per scopi commerciali.

Il nuovo testo, a differenza dei precedenti, è valido a livello internazionale e non richiede adattamenti – a parte la lingua – per i singoli ambiti legislativi. È frutto di due anni di lavoro da parte di centinaia di volontari qualificati di tutto il mondo ed è in corso di traduzione dall’inglese. È comunque già oggi utilizzabile anche in Italia. Ecco di seguito la lista delle principali novità.

  1. Validità internazionale di una stessa licenza.
  2. Estensione dei diritti d’uso anche ad altri elementi non esplicitamente indicati nella licenza, per risolvere specialmente la questione dei diritti sui generis relativi ai database, che sono quei diritti, tipici dell’Unione Europea, che i creatori dai database hanno di proibire l’estrazione e il riuso di porzioni significative dei database stessi, ostacolando così la diffusione di big data e open data.
  3. Attribuzione di “buon senso”, cioè possibilità di soddisfare i requisiti d’attribuzione (il vincolo tipicamente chiesto dagli autori) semplicemente con un link ad una pagina separata nella quale è indicata l’attribuzione, come già avveniva diffusamente nella prassi.
  4. Possibilità di anonimato: ora gli autori possono chiedere che l’attribuzione a se stessi non venga menzionata.
  5. Possibilità di “sanare” le violazioni entro 30 giorni, senza conseguenze successive.
  6. Migliore leggibilità, grazie a testi più brevi e comprensibili.
  7. Maggiore chiarezza sulle possibilità di effettuare adattamenti dell’opera.

Link utili su questo argomento

Comments Nessun commento, finora. Vuoi cominciare tu? »

cloud computingLa notizia che Amazon stia sbaragliando tutti  i concorrenti nel cloud computing  - e parliamo di IBM, Microsoft e Google – è significativa di quanto sia inconsueto il cambiamento in atto: nessuna posizione di rendita ereditata dal passato può più essere sufficiente e chi si ferma è perduto. Un’azienda che è stata storicamente leader nell’ecommerce, adesso nel cloud computing fattura più di Salesforce, IBM, Microsoft e Google messe insieme, tutti colossi che stanno puntando più che mai sul cloud.

La questione, secondo Gartner, è che è in atto una transizione epocale, verso “l’economia industriale digitale“, che vede dominare l’IT su tutto e investe persino le singole persone, come dimostrano servizi come Airbnb.

Un insieme di forze combinate (“nexus of forces”) costituisce il fondamento di questa nuova economia: il cloud computing, la dimensione social, il mobile e l‘internet delle cose. In tale contesto, ciò che fino a ieri vendeva, domani non interesserà più nessuno: cambiano i competitor, i centri d’acquisto, i modelli di business. Ed emergono nuove figure professionali, secondo Gartner, come il Chief Digital Officer, il Chief Digital Strategy Officer e il Chief Data Officer.

Lo stesso mercato italiano non fa eccezione. “Anticipare i trend del mercato e rendere la propria offerta sempre più competitiva in passato garantiva un vantaggio– spiega l’Ad di Eustema Enrico Luciani  - oggi  rappresenta probabilmente l’unica possibilità per resistere in un mercato strutturalmente in crisi e quindi sempre più appetito anche dai big del settore”. È significativo in tal senso proprio l’esempio di Eustema, oggi sempre più impegnata nell’attività di advisory per le strategie Cloud: in altre parole, collaborare con il cliente nella scelta di soluzioni di Infrastracture as a Service (Iaas) e Platform as a Service (PaaS). Un ruolo che fino a pochi anni fa nessuno poteva immaginare.
Dati e link utili su questo argomento

Comments Nessun commento, finora. Vuoi cominciare tu? »

foto di MoneyBlogNewzIl posizionamento nei risultati delle ricerche Google è in cima alle preoccupazioni di chi progetta, gestisce o finanzia un sito web. Ed è il mestiere di chi si occupa di SEO, Search Engine Optimization. Con le ultime grandi “riforme” dell’algoritmo usato da Google contano sempre meno i trucchetti e sempre più la qualità dei contenuti e dell’interfaccia. Ma è comunque opportuno conoscere i fattori che influiscono di più su quell’algoritmo. Ecco gli elementi più rilevanti secondo un sondaggio di Moz condotto tra più di 100 professionisti del SEO.

Di tutti i fattori considerati, abbiamo selezionato solo quelli che hanno raggiunto un punteggio superiore al 6 e li abbiamo divisi tra quelli che influiscono sul posizionamento del dominio e/o dell’intero sito e quelli relativi alla singola pagina.

Un elemento importante da considerare è che il posizionamento, più che assumere un valore assoluto, è legato a una o più keyword. L’obiettivo è infatti sempre quello di raggiungere i primi posti nei risultati dei motori, ma solo per certe ricerche in particolare.

Principali fattori a livello di dominio (in ordine d’importanza)

  1. Unicità di contenuti dell’intero sito
  2. Numero di domini unici che linkano al dominio
  3. Autorevolezza del dominio
  4. Numero di link al dominio da fonti sconosciute
  5. Popolarità del dominio calcolata in base all’insieme di link in entrata (page rank)
  6. Rilevanza di argomento dei link in entrata
  7. Volume di ricerca per il marchio/dominio
  8. Freschezza di contenuti del sito
  9. Percentuale di link che nel testo contengono il nome del marchio
  10. Quanttà di keyword associate al marchio nel web
  11. Dominio mai penalizzato
  12. Varietà dei link in entrata sul sito (ad es. forum , blog, news, ecc.)
  13. Velocità con cui il dominio acquisisce link in entrata
  14. Nome del dominio che coincide con la keyword

Principali fattori a livello di pagina

  1. Presenza della keyword nel titolo della pagina
  2. Unicità di contenuti della singola pagina
  3. Varietà di testi contenenti il link alla pagina (esatto, parziale, nome del marchio, ecc.)
  4. Presenza della keyword nell’area dei contenuti principali della pagina
  5. Numero di domini unici che linkano la pagina
  6. Rilevanza di argomento delle altre pagine che linkano la pagina
  7. Tasso di varietà dei domini rispetto al numero di link in entrata
  8. Numero di link alla pagina da marchi e/o domini popolari
  9. Posizione/contesto dei link in entrata (sidebar, corpo del testo, tooter, ecc.)
  10. Rilevanza di contenuto dei domini che linkano la pagina
  11. Popolarità della pagina calcolata in base all’insieme di link in entrata (page rank)
  12. Ottimizzazione dei contenuti della pagina rispetto all’argomento
  13. Varietà dei link in entrata sulla pagina (ad es. forum , blog, news, ecc.)
  14. CTR da Google alla pagina per una certa keyword
  15. Quantità di link alla pagina che utilizzano la keyword all’interno del testo del link
  16. Velocità con cui la pagina acquisisce link in entrata
  17. Quantità di link alla pagina che utilizzano la keyword come testo del link

Come si può notare, i fattori risiedono soprattutto all’esterno del sito. Quest’ultimo deve avere una popolarità e autorevolezza tali da guadagnarsi il massimo numero di link “qualificati” da altri siti.

Per quanto riguarda i social media, il loro influsso c’è, ma è meno importante di tutti i fattori che abbiamo elencato sopra. Tra i social, conta più di tutti Google+, seguito da Twitter e poi da Facebook.

Link utili su questo argomento

Comments Nessun commento, finora. Vuoi cominciare tu? »

tablet androidIl predominio di Android e Apple iOS nel mobile, unito alla tendenza dei consumatori a dotarsi sempre più di tablet, anziché di personal computer, rende sempre più arduo fare previsioni sul futuro del mercato e in particolare di Microsoft. Chi lavora in ambito IT si chiede quanto durerà ancora il predominio di Windows e su quali piattaforme conviene puntare. Un punto essenziale riguarda gli strumenti di produttività, perché i tablet sono dispositivi pensati per navigare e inviare messaggi, non per lavorare sui documenti. Di recente abbiamo visto come Office sia sempre più minacciato da piattaforme come iWork di Apple o Drive di Google. Ora c’è qualcuno che ha verificato a quali condizioni un tablet Android può essere utilizzato come un Pc per il lavoro d’ufficio.

I vantaggi del tablet, rispetto a un laptop, non mancano di certo: è più veloce, più leggero e trasportabile, la batteria dura molto di più, è più sicuro rispetto ai malware, consente di concentrarsi meglio sul lavoro. Ma ecco a quali condizioni si può usare per lavorare.

  1. La prima condizione è avere uno schermo abbastanza grande per lavorare con le finestre: almeno 10 pollici.
  2. Poi servono mouse e tastiera. Per le periferiche bluetooth Android ha il supporto nativo, mentre quelle USB richiedono un adattatore USB OTG.
  3. Sul lato software, è necessario poter lavorare in multitasking con diverse finestre aperte contemporaneamente. Ciò è possibile tramite app che lavorano a finestre, come il browser OverSkreen, la suite Tiny Apps o Quickly.
  4. Avere accesso a un desktop Windows può sempre servire: in tal caso, ci vuole una app per il remote desktop, come Microsoft Remote Desktop o altri.
  5. Infine serve un software di produttività, e ce ne sono di parecchi, compresi quelli cloud come Google Drive e Office 365, ma per la formattazione e l’interscambio di documenti complessi è difficile sostituire in pieno un Pc con Microsoft Office. A giugno scorso è uscito Microsoft Office Mobile per iPhone. Avanti con le scommesse.

Link utili su questo argomento

Comments 1 Commento »

google hummingbirdÈ già un mese che lo utilizza ma lo ha rivelato solo pochi giorni fa: Google ha effettuato uno dei più grandi cambiamenti di sempre nell’algoritmo del proprio motore di ricerca, passando a un nuovo approccio, basato sul significato delle frasi digitate dagli utenti, anziché sulle keywords.  La mossa è rivoluzionaria, ma nella sostanza non cambia molto, sia perché gli utenti del motore non se ne sono accorti (salvo che per la maggiore accuratezza di certi risultati), sia perché già dall’ultimo grande cambiamento, Panda, Google ha cominciato a premiare la qualità effettiva dei siti, rendendo sempre più arduo posizionarsi con l’aiuto di trucchi ed escamotage vari. Il nuovo algoritmo si chiama Hummingbird, colibrì, perché è veloce e preciso, e si basa sulla ricerca semantica, come già in parte avviene col Knowledge Graph, introdotto l’anno scorso.

Cosa cambia per il SEO, cioè l’arte di posizionare i siti ai primi posti tra i risultati di ricerca? Come sempre è in buona parte un mistero, perché Google non svela mai la ricetta su cui si basano i suoi algoritmi. Sappiamo solo che si basa su circa 200 ingredienti e che uno di essi rimane ancora il Page Rank, cioè il punteggio che Google attribuisce a ciascun sito, in base alla reputazione che ha in rete. La qualità e l’originalità dei contenuti continuano ad essere premiati, pertanto il lavoro degli specialisti SEO non dovrebbe cambiare.

Le potenzialità della ricerca semantica possono essere già apprezzate grazie a Knowledge Graph, il sistema che permette di visualizzare, sul lato destro della pagina, una scheda riassuntiva del soggetto. Si veda, ad esempio, cosa succede se si cerca Giorgio Napolitano. Tale scheda non è realizzata da una redazione, ma messa insieme automaticamente da Google, che capisce da solo chi è quella persona, quando è nata, cosa fa, eccetera. Siccome molti utenti, per interrogare Google, usano frasi discorsive, adesso il motore non va a guardare solo quali parole contiene, ma anche e e soprattutto cosa può significare.
Link utili su questo argomento

Comments Nessun commento, finora. Vuoi cominciare tu? »