Criteri di misurazione di Internet

Web Marketing Tools, ottobre 1998

Quante persone hanno visitato il sito?

Quante persone hanno visto l’annuncio pubblicitario?

A quanto dovrei vendere la pubblicità sul mio sito?

Quanto dovrei pagare la pubblicità sul Web?

Questi sono alcuni dei numerosi interrogativi che editori e fornitori di contenuti da un lato, e aziende dall’altro, si pongono a riguardo del valore delle proprie scelte commerciali e di investimento sul World Wide Web.

Dal momento in cui questo importante nuovo canale di comunicazione ha iniziato a diffondersi anche in Italia, e con esso sono fiorite una serie di iniziative editoriali di forte interesse per un numero sempre più alto e crescente di utenti della rete, si è subito reso chiaro che la pubblicità sarebbe diventata una delle principali risorse economiche di questo nuovo mercato.

Oggi le aziende vogliono definire con precisione, come avviene per l’acquisto della pubblicità su tutti gli altri media, l’efficienza del proprio investimento, ovvero determinare in che modo pianificare al meglio la propria spesa in pubblicità sul Web, e soprattutto poterne verificare l’effettiva avvenuta esposizione.

Alla base di questo processo di pianificazione le variabili prese in considerazione dalle aziende interessano il traffico generato di per sé dai siti a cui commissionare la propria campagna pubblicitaria, le modalità con le quali i siti vengono visitati dagli utenti, i tempi impiegati per le stesse visite e, solo in ultima analisi, quale sia la prestazione pubblicitaria degli stessi.

Le aziende necessitano di certezze sul valore globale del sito, sia inerenti alla sua capacità di generare un traffico all’altezza delle loro aspettative e obiettivi, sia a riguardo dell’efficacia pubblicitaria, e quindi alla possibilità che i loro annunci pubblicitari siano visti o “cliccati” dagli utenti.

Gli editori elettronici, i fornitori di contenuti e di servizi e tutti gli operatori del World Wide Web che hanno identificato la pubblicità come risorsa essenziale per lo sviluppo e la crescita della propria attività, devono porsi in sintonia con questa esigenza e promuovere un’analisi continuativa dell’andamento dei propri siti, oltre a offrire una prova oggettiva di tali prestazioni grazie ad una certificazione del dato.

Gli editori Web sono interessati a loro volta a determinare, nel frammentato e affollato contesto competitivo che contraddistingue la rete, il valore del proprio prodotto editoriale rispetto agli altri, grazie alla definizione di parametri condivisi e omogenei di rilevazione e lettura dei propri dati.

Sono inoltre interessati a stabilire i criteri più corretti ed equilibrati per lo studio delle proprie politiche commerciali, dalle quali scaturiscono le tariffe pubblicitarie.

Anche le aziende che hanno realizzato un proprio sito per comunicare con i propri clienti e consumatori, nella loro nuova veste di “fornitori di contenuti” sul World Wide Web, sono interessate a determinare l’efficacia e il ritorno dei propri investimenti allocati per dare vita a tali iniziative.

Nel rispetto delle nuove regole del marketing che prevedono un rapporto sempre più mirato con il proprio potenziale o effettivo consumatore, le aziende sono chiamate a determinare con precisione le caratteristiche e i comportamenti dei visitatori al proprio sito.

Questo scenario, che conferma il paradigma già noto della pubblicità e le regole economiche e commerciali consolidate per altri mezzi di comunicazione, necessita di un sistema di rilevazione, misurazione e analisi dei dati pienamente condiviso e omogeneo, affinché il mercato della pubblicità sul World Wide Web possa crescere e favorire i risultati delle aziende e lo sviluppo dei prodotti editoriali.

Per fare ciò è necessario creare una metodologia di rilevazione, stabilire dei principi di analisi e promuovere una “cultura” di ricerca applicata al mezzo.

LA METODOLOGIA DI MISURAZIONE SITE-CENTRIC

Il principio sul quale si basa il funzionamento del Web prevede che l’utente una volta digitato un indirizzo (URL) di un sito sul suo software di navigazione (browser), effettui, attraverso la rete che lo connette al sito, una serie di richieste al server sul quale sono state caricate e memorizzate le pagine e i contenuti. Tali richieste hanno la finalità di avviare una procedura di trasferimento delle stesse pagine HTML dal server al computer dell’utente, affinché egli le possa consultare. Le richieste saranno tante quante le pagine che l’utente vorrà visionare del sito a cui è collegato.

Quindi, a differenza dei sistemi basati su tecnologia main-frame, ovvero quelli che prevedevano un grande computer centrale e una serie di terminali attraverso i quali consultarne i dati in esso contenuti, la tecnologia del Web si basa su una procedura di trasferimento delle informazioni dal server che le mette a disposizione e l’utente che le richiede.

In queste procedure vengono trasferite la pagina HTML richiesta e tutti gli oggetti che la compongono e che sono contenuti in essa. Essi possono essere testo, immagini e oggetti multimediali, ovvero particolari applicazioni che hanno il formato di un file , ma che poi possono essere eseguite come suono, movimento ecc.

Ognuna di queste richieste e degli elementi suddetti ad esse allegati, e definiti HITs, lascia una traccia registrata sul server che ospita il sito visitato, denominata log-file.

Un log-file rappresenta l’unità minima di informazione alla quale è possibile attribuire un’azione effettuata dall’utente.

Se un utente ha richiesto una pagina,   viene rilevata quell’azione specifica aggregando i log-file relativi agli elementi che appartengono a quella stessa pagina, affinché questo insieme possa documentarne l’esposizione dell’utente.

Questo fatto essenziale rappresenta uno dei principali aspetti della tecnologia Web che, riferito alle finalità di un sistema di misurazione, impone un principio fondamentale.

La richiesta di una pagina di per sé documenta che il suo contenuto può essere stato inviato all’utente, ma non necessariamente che le informazioni in essa contenute siano state viste. Perciò nel definire il valore riferito a un’esposizione a una pagina o a un singolo suo elemento, parleremo dell’opportunità dell’utente di aver visto” quelle stesse informazioni .

Alcune scelte tecniche e funzionali da un lato, e alcuni limiti intrinseci   della tecnologia adottata dal Web, aggiungono a questo primo principio un ulteriore elemento di attenzione per chi debba rilevare e attribuire un valore di comunicazione alle pagine di un sito.

Infatti, tra la avvenuta richiesta dell’utente e l’effettivo “recapito” delle informazioni sul suo computer si interpongono una serie di eccezioni e casi che necessitano di un’analisi.

Quello che sappiamo rilevando una richiesta di un utente è che la pagina, con i suoi elementi, possa essere stata inviata da diverse fonti, o persino non essere andata a buon fine perché non completata.

Ciò che potrebbe avvenire è:

a) Un visitatore effettua una richiesta

b) Una pagina HTML è inviata con tutti gli elementi ad essa allegati

c) Gli elementi richiesti possono essere eseguiti da diverse fonti:

         · la cache locale dell’utente

         · Il server proxy dell’Internet provider

         · Il sito Web dell’editore

         · o non sono eseguite – immagini disattivate, connessioni terminate ecc.

d) Il visitatore può interagire con nessuno o qualsiasi degli elementi.

Normalmente la risposta ad una richiesta effettuata dall’utente prevede delle risposte dalle suddette fonti esattamente nell’ordine come sono state indicate. La prima verifica del browser all’atto della richiesta è quella di verificare se nella cache del PC è già contenuta la pagina; se così non è allora verrà ricercato il server proxy, e se neanche questo risponde allora risponderà il sito principale dell’editore, lasciando una traccia dell’avvenuto trasferimento, a meno che esso non sia stato interrotto volontariamente dall’utente o si sia interrotto involontariamente per cause diverse.

Quest’ultima eventualità è comunque documentabile con una rilevazione degli errori di trasferimento prevista e inclusa nel sistema Audinet.

Ciò pone una questione metodologica fondamentale, ovvero che, allo stato attuale tecnico e funzionale del Web, per definire l’effettiva opportunità di aver visto una pagina da parte di un utente si debba anche applicare una ponderazione numerica, come conseguenza di una serie di eventi o possibilità la cui misurazione, quantificazione o controllo è di fatto impossibile.

Secondo alcune esperienze americane, la quantità di visite a un sito è valorizzata in difetto per un valore pari al 30%, ciò significa che il 30% delle richieste è stata evaso da server proxy e del quale non esiste una documentazione e rilevazione precisa.

Il problema della cache è stato parzialmente risolto da un invio di una richiesta al server ogni volta che il PC dell’utente fa uso della propria memoria, ma non è stato risolto il caso nel quale questo avvenga nei confronti del proxy, ponendo di nuovo il problema della rilevazione puntuale.

Attraverso studi specifici sarebbe possibile circoscrivere e definire numericamente i contorni di questi fenomeni e le loro implicazioni sulla reale quantificazione delle pagine possibilmente viste dall’utente, ma la complessità e la varietà degli eventi renderebbero comunque molto difficile e non privo di insuccessi lo sforzo di ricerca.

Oggi si tende ad affrontare e risolvere la gestione di alcuni di questi aspetti elencati, e che non permettono un’esatta quantificazione dell’invio avvenuto delle pagine con relative contenuti, ma in alcuni casi (ad esempio il server proxy) non è ancora possibile soddisfare l’esigenza primaria di stabilire con adeguata certezza il fenomeno.

I limiti specifici della tecnologia impiegata dal Web suggeriscono di affrontare il problema in termini metodologici diversi, dal quale scaturisce un secondo principio, che potrà mutare quando sarà possibile documentare e misurare questi aspetti

Non è possibile stabilire con precisione se una pagina e gli elementi in essa contenuti hanno avuto l’effettiva opportunità di essere viste da un utente, ma bensì che hanno avuto l’opportunità di essere inviate ad esso. Il modello di analisi deve quindi tenere conto della rilevazione della richiesta effettuata dall’utente come unico aspetto in grado di definire che lo stesso abbia avuto l’opportunità di vedere una pagina.

Questo pone indubbiamente dei limiti alla definizione del valore reale e quantitativamente completo di comunicazione di una pagina o della pubblicità in esso contenuta, anche se così facendo lo si tende a considerare in probabile difetto rispetto all’effettiva prestazione – infatti, sia i proxy che la cache mascherano un numero di casi nei quali la pagina e la pubblicità sono stati inviati, ma non è stato possibile documentarne l’avvenuta richiesta -.

La tecnologia da un lato, o un modello diverso di distribuzione dell’informazione come oggi avviene sul Web, potranno ridurre la componente di errore e mutare questo principio di metodo della rilevazione delle pagine viste dagli utenti.

I vantaggi della misurazione site-centric consistono nella capacità di tracciare ogni singola informazione e azione generata dagli utenti di un sito. Questa caratteristica non è comune a nessun altro mezzo di comunicazione fino ad oggi conosciuto.

Il principale problema è riferito invece all’impossibilità di generare informazioni qualitative riferite al profilo degli utenti e delle abitudini d’impiego del sito in analisi da parte di ciascuno di essi (copertura netta/frequenza), informazioni che, con I limiti di errore statistico, sono garantite dalle ricerche che analizzano tutti i media tradizionali.

L’EVOLUZIONE DELLA MISURAZIONE

Una metodologia che preveda l’analisi del comportamento dell’utente attraverso una ricerca basata su campione e sistema meter installato sui PC è un modo ulteriore di affrontare il problema della misurazione, anche se ci si esporrebbe in tal caso ai limiti della definizione statistica rinunciando ad una delle peculiarità della ricerca applicata al Web e che permette un’analisi di tipo censimentale e puntuale dell’informazione.

Le metodologie client-centric e che prevedono un’installazione di un software meter al’interno del PC di un campione di utenti, vengono già largamente impiegate in USA, e forniscono report precisi e puntuali a riguardo del profilo socio-demografico e attitudinale dei visitatori dei siti analizzati.

Allo stato attuale di sviluppo del mercato dell’utenza Web in Italia, per dimensione del numero di navigatori, ampiezza di siti disponibili e visitabili, oltre a una forte frammentazione di utilizzo degli stessi da parte degli utenti, la strada del PC meter è attualmente statisticamente impraticabile.

Infatti, per attribuire un’adeguata significatività statistica al dato risultante dall’analisi, si potrebbe rendere necessario un panel grande quanto tutto l’universo di utenti Internet in Italia.

L’altra strada possibile è quella di rilevare solo alcuni siti italiani, ma la distribuzione prevalente, e tutt’oggi rilevante, delle traffico italiano su siti esteri, metterebbe a nudo in questa fase di sviluppo del mercato in Italia, una contenuta importanza dei siti nazionali come veicoli pubblicitari (basse penetrazioni).

È inevitabile che la metodologia client-centric si aggiudichi nel tempo il ruolo di misurare il fenomeno Internet, grazie alla sua capacità di stabilire informazioni qualitative sul target group a cui si rivolge la pubblicità online.

GLI ATTORI ITALIANI

In Italia si stanno promuovendo delle importanti iniziative con la finalità di attribuire una dimensione quantitativa e qualitativa a questo mercato.

Dal 1997, e quindi dal nascere del mercato della raccolta pubblicitaria online in Italia, la ACNielsen ha iniziato a promuovere un servizio di certificazione chiamato NASA Web Audit, e che impiega un software di analisi del dato del tipo site-centric dal nome Audinet, realizzato da Datanord Multimedia, oltre a una procedura di   esportazione e protezione del dato messo a punto da Inferentia.

La prima iniziativa sul Web certificata da ACNilesen è NetFraternity.

Le intenzioni di ACNilesen sono quelle di accreditare il proprio servizio come il sistema di certificazione di riferimento in Italia, prospettando i vantaggi di una metodologia sperimentata e l’autorevolezza di un istituto di ricerca, che ben può garantire la propria funzione di “terza parte”.

Con il nascere delle concessionarie e l’espansione dei principali motori di ricerca internazionali nel nostro paese si sono diffusi anche alcuni sistemi di certificazione proprietari.

I report di certificazione forniti sono comunemente di due tipi: il primo è garantito da un istituto di certificazione (ad esempio Ernst & Young) incaricato dall’editore di pubblicare i dati   riferiti al traffico del sito (numero di visite/pagine viste ecc); il secondo è riferito alla certificazione dell’avvenuto invio della pubblicità all’utente, e viene garantito attraverso la certificazione preventiva di un advertising server, un apparato che, oltre a dar modo di gestire la veicolazione della pubblicità su una serie di siti, fornisce dei report puntuali ai clienti committenti.

Yahoo, Lycos Bertelsmann, DoubleClick e altri già offrono questi servizi proprietari alla propria clientela.

Se esiste un vantaggio innegabile nell’immediatezza della fornitura del dato, va detto che lo svilupparsi di più sistemi proprietari di certificazione può portare nel breve ad una babele di metodologie e terminologie, che impediscono di attribuire una dimensione omogenea al fenomeno. Negli USA, dopo un incontrollato sviluppo di queste metodologie proprietarie, si è reso necessario un intervento degli editori per far convergere tutti gli operatori verso standard comuni   e condivisi.

Prima dell’estate è stata promossa la nascita di Audiweb, una società che si occuperà di promuovere la misurazione di Internet sia dal punto di vista quantitativa, sia da quello qualitativo.

La Società, di cui è Presidente Felice Lioy, è stata costituita per volontà delle principali associazioni della domanda e dell’offerta del mercato pubblicitario, e che insieme rappresentano un vasto numero di operatori del settore Internet.

L’orientamento di Audiweb è quello di procedere per gradi attraverso i vari approcci metodologici, iniziando dalla certificazione site-centric per poi sviluppare ricerche e informazioni generate da sistemi di rilevazione del tipo client-centric.

In questo autunno, Audiweb sta mettendo a fuoco le necessità del mercato e le implicazioni metodologiche necessarie ad esso con un comitato di studio, e si proporrà presto la necessità di commissionare la rilevazione ad una società in grado di offrire un servizio all’altezza e rispondente agli obiettivi.

Uno degli aspetti ancora controversi a riguardo del ruolo di Audiweb è quello che le associazioni membre della Società non rappresentano alcuni importanti operatori nazionali e internazionali della pubblicità online e che, nella maggior parte dei casi, sono quelli che già forniscono dei servizi proprietari di certificazione.

Lo IAB Italia, nato anch’esso prima dell’estate, sta facendo i suoi primi passi nel rispetto delle sue filosofie internazionali di Associazione degli operatori della pubblicità online, con l’obiettivo di promuovere standard e linguaggi comuni, oltre a diffondere una cultura di mercato e una conoscenza delle potenzialità della comunicazione online anche attraverso studi specifici.

Dal canto suo, lo IAB aggrega tutti gli operatori attivi in Italia nella raccolta della pubblicità online, oltre a dar voce alla comunità dei consulenti specializzati in comunicazione sul Web.

Lo IAB Italia promuove la nascita di un mercato delle misurazioni che sia rispettoso di standard comuni e che consenta di consolidare le informazioni in modo univoco e omogeneo.

INTERNET MERITA UNA MISURAZIONE COERENTE

Nessuno è oggi in grado di poter stabilire se i modelli di business proposti in futuro da Internet, anche a riguardo della pubblicità online, potranno essere validamente sostenuti da sistemi di misurazione come quelli finora descritti. Infatti essi si riferiscono alla logica di misurare un’esposizione alla pubblicità e valorizzare il luogo dove questa esposizione viene generata.

Si ipotizza che i modelli pubblicitari basati sul direct response, e quindi sulla misurazione del click-through, o sulla capacità di favorire transazioni di ogni tipo (ad es. Shopping, download ecc) siano più rispondenti alle logiche di Internet e più squisitamente rispondenti al modello di business futuro della rete.

Se così fosse, anche Internet meriterebbe un sistema di misurazione proprio come ogni altro medium e nel rispetto alle proprie caratteristiche, e non come quello che si ipotizza di adottare, che pare a tutt’oggi l’applicazione di logiche tradizionali a un mezzo innovativo.

Andrea Giovenali