Italia
Credo si sia parlato e scritto abbastanza su quelle che sono le modificazione dei comportamenti e dei consumi, generata dall’avvento dell’era digitale, che possiamo classificare come nei vecchi cicli di vita del marketing, in pieno sviluppo. L’importanza del web nella creazione di nuovi valori è sin troppo evidente, ma la mia sensazione è che in realtà in questo momento più che la crisi economica si rischia la regressione valoriale del “senso“.
Dal 2000 assistiamo a continui sperperi generati da modelli di business o troppo legati ad una visione fuori tempo o privi di strategie adeguate. L’esempio portante è il modello che ha si premiato alcune eccellenze, ma che ha fatto implodere interi comparti , “ho un’idea la metto in linea a spese mie e aspetto il fondo che c’investa sopra“. Non mi sembra che questo possa essere un modello praticabile in una società che dispone dei mezzi di conoscenza di cui disponiamo. Il marketing relazionale doveva essere un solido strumento da utilizzare per affrontare l’evoluzione della società. Le balbettanti e inutili piattaforme di CRM lo sono diventate perché mal vendute e ancor di più mal utilizzate, l’industria non ha avuto il coraggio di frammentare il proprio mercato, di creare relazioni efficaci con altri prodotti e servizi diversi da quelli praticati da sempre.
Ma come ben si conosce nella psicoanalisi relazionale il vero problema è quello che si deve fare per risolverlo e non il problema in quanto tale, la mia generazione dovrebbe essere cresciuta considerando i problemi qualcosa che devono trovare soluzioni ,altrimenti sono solo lamentele!
Infatti, la chiave di questo periodo storico dovrebbe essere proprio quella di trovare soluzioni “ponte” e non la ricerca costante della soluzione “totale” .
Probabilmente l’umanità sta ricercando dei processi di unificazione, una sorta di grande uno di orientale origine, ma non sarà certamente domani e non sarà la nascita dei monopoli globali (unica certezza del vecchio modello di globalizzazione) a facilitare quest’esito.
A mio modestissimo avviso, ma credo anche da parte di alcuni investitori, il ruolo della pubblicità nel mercato digitale non è ancora quello adeguato, ne tantomeno si possa pensare che sia l’unico strumento di sostegno e sviluppo del nuovo mercato. Il corto circuito è sempre lo stesso, un vecchio modello calato nell’incognita. Guarda lo spot e potrai scaricarti la canzone, ma chi mi impedisce di fare altro in quei 30″ secondi che mi separano dalla mia richiesta; pay-per-view cresce esponenzialmente con l’aumento della disponibilità tecnologica, calcio e sesso restano modelli conservativi talmente sono massificati, il cinema in casa si ma quando dico io; il digitale terrestre nuova frontiera in cui si possono mixare i servizi all’utente in tempo reale e i vecchi palinsesti da generalisti, altro che canali tematici. La conversione tra satellite e dtt sembra una ineludibile realtà, ma risulta incredibile che per sviluppare i due canali i contenuti portanti vengono importati dalle tv generaliste, non oso immaginare quali necessità possano nascere con lo sviluppo dell’IPTV.
Dopo questa indispensabile premessa, vediamo quali sono i modelli attualmente di successo e quali potrebbero essere le prospettive per quelli in via di sviluppo. Evidente , in questo momento, il vantaggio di chi ha saputo integrare: hardware/distribuzione/contenuti.. L’esempio più evidente è quello di Apple che con l’iPod prima e l’iPhone adesso è riuscita a valorizzare la propria piattaforma distributiva. Certamente un grosso vantaggio è maturato puntando prima e più degli altri, sulla mobilità nei consumi.
A livello domestico lo scenario appare più complesso anche qui però assistiamo ad un maggiore dinamismo e efficacia da parte di chi dispone già di hardware specifici con capacità di memoria e collegamento in rete (le gaming consolle) così come quelle piattaforme televisive che promuovono servizi on demand favoriti dall’alto contenuto dei servizi realizzabili grazie a set top box assai evoluti.
Insomma l’avvento dell’informatica ci aveva già insegnato che hardware e software devono camminare insieme, ma sapere che almeno il 70% dei possessori di televisione in occidente siano favorevoli ad in sistema integrato con il web, non significa che la fruizione possa essere la stessa di quella che avviene davanti ad un pc, è più credibile ipotizzare il contrario. Il vecchio paradigma che vedeva la tecnologia piegata dai contenuti andrebbe ampiamente rivisto.
Negli Usa, si stima che dal 2002 al 2012 la marketing share delle forme interattive o di marketing “alternativo” cresceranno del 20% contro un decremento degli strumenti tradizionali non inferiore al 15%, parlando su scala mondiale sono davvero tanti ma tanti denari in movimento.
La risposta sembra sintetizzata in un unico concetto “granularità“, nella classificazione degli utenti e nella conseguente offerta di servizi come quella che può offrire una autentica cross platform.
Oggi la centralità “tecnologica” sembra tutta a carico dei sistemi di distribuzione fisica dei dati e questo risulta particolarmente vero quando ad esempio si parla di IPTV, ma non possiamo dimenticare che in questi anni di saccheggio continuato del diritto d’autore, gli unici che hanno tratto profitto sono stati proprio questi ultimi. Certamente non è una loro esclusiva responsabilità il crollo del vecchio mercato discografico con cifre che raggiungono un meno 69% anno su anno dal 2003 al 2007, non sembra una lezione che sia stata messa ancora a frutto da tutti gli operatori, sulla musica si è arrivato al parossismo di considerarla una commodity, dimenticando completamente che il valore emozionale della musica è ancora fondamentale nei processi di comunicazione strutturata degli esseri umani. Ma tornando alle infrastrutture distributive, sarebbe certamente un forte impulso modificare le attuali possibilità , in quanto la differenza che esiste tra possibilità di downloading e uploading per l’utente e lo stesso sistema produttivo a oggi è estremamente mortificante.
In tema di Social Network, la situazione non è altrettanto chiara, se da una parte assistiamo al grande sviluppo dimensionale di realtà come YouTube e Facebook, in arrivo il micro-blogger di Twitter,non altrettanto si può dire in termini di ricavi e profitti ampiamente sotto dimensionati rispetto ai 150 milioni di utenti di un network come quello di Facebook.
Quindi certamente una base di partenza per creare nuovi modelli di business, quelli attuali però dovranno presto essere abbandonati. Dati interessanti all’analisi ci vengono da una recente indagine condotta negli Usa( stranamente non ci sono molti dati provenienti da ricerche Europee) che ci dice che degli oltre 138 milioni di utenti con oltre 13 anni che utilizzano servizi in banda larga, ben il 76% ( 105ml)sono contributori di contenuti,dall’upload alla condivisione di peer-to-peer, ancor più interessante è il dato in dettaglio suddividendo gli utenti in “light contributor” 76% (80ml), “medium contributor” 17%(18ml) e “heavy contributor” 7% (7ml).Questo chiarissimo dato dovrebbe poter contribuire a comprendere il danno reale che l’industria dei contenuti in genere rischia, ma ancor di più far riflettere sull’uso che gli utenti fanno della rete. A questo proposito e sempre dalla stessa indagine, dal 2006 al 2008 il tempo dedicato dagli utenti online alla comunicazione è cresciuto del 18%, mentre quello dedicato all’entertainment è, lasciatemi dire, crollato del 30%.
Altresì per citare le zone emergenti, l’80% dei cinesi equipara internet al “social” e ben l’82% degli utenti dichiara di usarlo per stare in contatto con gli altri. Non c’è dubbio che a livello sociale si rischi una sorta di corto circuitazione tra il vivere con internet e il vivere in internet, ma al di là delle valutazioni antropocentriche , il dato che sembra emergere in questa fase è il forte posizionamento che la rete si sta costruendo come strumento di autoaffermazione rappresentativa dei singoli e grande infrastruttura di servizio per il mercato, potrebbero bastare……..
In uno scenario di questo tipo chi meglio di altri potrebbero cercare di gestire e orientar lo sviluppo dei contenuti digitali se non le società di data collecting, le uniche a disporre dei metadati indispensabili a garantire riconoscibilità e tracciatura degli usi dei contenuti digitali, certamente difficile però è evolvere il proprio ruolo da controllori a promotore e diffusore.
Voglio sottolineare l’importanza che la misurazione della qualità e quantità dei consumi digitali ha per innumerevoli mercati, certamente quello della pubblicità, quello delle produzioni audio video e di conseguenza tutte le filiere ad essi collegati. La misurazione del valore di uno spot era già di per se importante , lo diventa ancora di più in una fase storica come quella attuale e già descritta. Uno scenario fatto di molteplici occasioni di comunicazione necessita di dati attendibili e fortemente qualificati per consentire al sistema economico di funzionare fornendo risposte più vicine possibili alle realtà dei molti mercati.
Abbiamo assistito, negli anni scorsi, ad una rapida evoluzione degli strumenti di misurazione dei consumi multimediali e della loro portabilità, certamente indispensabili vista la varietà di media utilizzati nella nostra società.
Quella che sembrava la frontiera più avanzata in questa direzione, ossia i cosiddetti meter passivi come i ppm (personal portable meter) basati sul sistema definito “all audio” e basati sul riconoscimento del “watermarking” e altre interazioni con l’utente in tema d’immagini, hanno mostrato tutte le loro criticità nell’adozione.
Ad esempio il prodotto Usa della “Arbitron“, rappresenta il più grosso investimento nel campo sino allo scorso anno e tuttora( si dice oltre 100 ml di dollari), distribuito in Europa da TNS, manifesta i limiti generati ,sia dalla difficoltà di garantire la necessaria “segnatura” ai contenuti da riconoscere, sia da altri assai probabili problemi di hardware , ma credo ancor di più l’errore di averlo pensato come strumento in grado di misurare tutti i tipi di consumi “immateriali”.
Se in questi anni la tecnologia del watermarking da sola non ha fatto grossi passi in avanti (se si escludono il miglioramento sui disturbi qualitativi dell’emesso), i sistemi di riconoscimento automatico della musica invece si sono evoluti verso l’uso di algoritmi sempre più raffinati e in grado di operare in condizioni ambientali d’ascolto assai critiche: bastano pochi secondi di registrazione per realizzare riconoscimenti certi. Questa tecnologia, nata più per favorire la vendita di musica, oggi trova molteplici applicazioni anche all’interno di sistemi complessi. Inoltre, sono già utilizzate le prime versioni di algoritmi e di relativi sistemi in grado di riconoscere le immagini.
L’enorme differenza che esiste tra la necessità di “marchiare” un contenuto e mantenerne la riconoscibilità durante i vari usi, a fronte di una codifica basata sull’originale indipendentemente dagli usi che si andranno a fare, è fin troppo evidente. Basti pensare alla varietà di media che la comunicazione moderna può mettere in campo. Tanto che la stessa Arbitron “sembra” aver annunciato che sarebbe passata all’utilizzo della tecnologia di fingerprint.
L’altro tentativo, ancora in corso, è quello di utilizzare il telefono mobile come vero e proprio meter. Alcune versioni son in grado di registrare 10 secondi ogni 30 di ambiente circostante all’utente e di spedirlo autonomamente al sistema di riconoscimento. Questa soluzione ha però diverse criticità, la prima è indubbiamente quella della autonomia limitata di cui l’apparato potrebbe disporre in caso di utilizzo contemporaneo di più funzioni e fino alla stabilizzazione di nuovi tipi di batterie il problema sembra irrisolvibile,si potrebbero aggiungere le questioni legate alla privacy, ma restiamo sulle problematiche che soluzioni definite “all audio” si portano dietro in termini di qualità audio del registrato.
I meter residenziali, di tipo televisivo, svolgono egregiamente la loro funzione, ma soffrono del grande limite dato dall’incapacità di svolgere altrettante funzioni in chiave di migrazione dei contenuti da misurare, oltre che restare troppo orizzontali rispetto alla qualificazione dell’informazione ottenuta rispetto al target reale di utenti monitorati.
In definitiva, la miniaturizzazione e la trasportabilità dell’hardware sembrano essere le principali problematiche che oggi impattano sulla capacità di ottenere soluzioni in questo campo e, di conseguenza, il tema della multipiattaforma di emissione rischia di diventare fuorviante rispetto alla realtà dei consumi che si vogliono misurare.
Nell’epoca in cui l’iPod e l’iPhone coniugano l’avanzamento tecnologico con il design, la diffusione dei dispositivi mobili personali è in forte aumento, con il target di realizzare una maggiore integrazione tra servizi differenti, sfruttando la stessa piattaforma tecnologica ed esaltando il lavoro cooperativo, con la capacità di utilizzare reti eterogenee per la connessione lasciando all’utente la sensazione invece di avere a che fare con una rete unica ed omogenea. Servizi diversi su reti diverse vengono così vestiti in un unico dispositivo come servizi integrati su una rete omogenea. Noi abbiamo scelto la strada del meter attivo, un vero e proprio media mobile con tutta la tecnologia hardware degli smartphone più evoluti, collegato e collegabile in modo autonomo alle piattaforme di monitoraggio continuativo di tipo residenziale/domestico. Un sistema altamente customizzabile sulle esigenze dei singoli media, favorendo così la conversione dei vari canali verso un media unico ad alto livello di personalizzazione. In particolare siamo partiti dalla radio che seppur tra i media più tradizionali è quello che meglio degli altri interpreta il concetto di mobilità tanto caro alla nostra epoca. Questa soluzione potrebbe fungere da ponte verso tecnologie ancora più evolute e inserirsi nello scenario competitivo globale come meter portatile di ultima generazione, trasversale rispetto agli attuali meter e ai possibili sviluppi dei mercati.
Consulta il profilo Who is Who di Dario Amata