MARKETING PREDITTIVO: Big Data e Machine Learning

I nostri colleghi spagnoli di T2O Media, Jose Manuel Sanchez e Álvaro Sanchez, ci raccontano l’utilizzo dei big data per fare previsioni sulle conversioni degli utenti. Ecco il racconto della loro esperienza e dei risultati che hanno ottenuto.

 

big data

 

In T2O Media amiamo lo “storydoing” più che lo “storytelling”, per questo ci siamo messi al lavoro per capire come applicare le nuove opportunità tecnologiche alle campagne. I Big Data ed il Machine Learning sono ottimi, ma l’obiettivo è sempre uno: come possiamo incrementare il business dei nostri clienti? In che modo questi sistemi ci aiutano a migliorare le prestazioni delle nostre azioni di comunicazione e pubblicità?

Da diversi anni il team sta lavorando per capire come applicare i Big Data ai progetti dell’agenzia. Per trarre il massimo rendimento da questa grande quantità di informazioni è necessario “metterla al lavoro”. Come si fa? Attraverso algoritmi di Machine Learning, in grado di trovare pattern e relazioni tra quel numero infinito di indizi lasciati dall’interazione brand-utente, e da lì “predire il futuro” delle successive interazioni.

 

Big Data e Intelligenza artificiale: primi passi

 

Abbiamo scelto con chi lanciare il progetto pilota: uno dei clienti che punta maggiormente sull’innovazione e che appartiene a uno dei settori più competitivi, ossia il Travel.

Abbiamo identificato le principali fonti di dati: DoubleClick Campaign Manager si è rivelato perfetto per questo grazie ai dati storici di cui già disponevamo. Solo per il mercato spagnolo avevamo circa 500 mila utenti con 110 caratteristiche!

Abbiamo fissato l’obiettivo: prevedere la probabilità di conversione di un utente (ovvero, in questo caso, indovinare se stava andando a prenotare o no in qualcuno degli alberghi del nostro cliente).

 

Preparazione dei dati, scelta e creazione dell’algoritmo

 

1.In primo luogo abbiamo raccolto la grande varietà di informazioni a nostra disposizione: identificativo dell’utente, tipo di dispositivo, geolocalizzazione, periodo e fonte da cui proviene il consumatore.

 

2. Abbiamo preparato tutti i dati per l’algoritmo grazie ai Big Data: per questo abbiamo usato Google Cloud Platform e il suo prodotto DataProc (implementazione di Spark, per i lettori più avanzati).

 

3. Dopo aver svolto un lavoro di ricerca, abbiamo trovato l’algoritmo più idoneo al nostro caso: Random Forest. Perché scegliere questo algoritmo? Serve a classificare gli utenti che convertono e non convertono in base alle diverse variabili scelte sopra, generando alberi decisionali in cui queste caratteristiche sono distribuite casualmente.

 

4. La fase successiva è stata la messa a punto dell’algoritmo. Per fare questo si eliminano i valori anomali, dati “rari” che anziché migliorare l’algoritmo fanno solo rumore, come i dati generati dagli utenti di test o dagli spider dei motori di ricerca. Un’altra tecnica è stata quella di modificare i pesi in modo che i dati fossero correttamente bilanciati: ci sono molti più utenti che non convertono rispetto a quelli che convertono, ma i convertitori – nonostante siano meno – meritano tutta la nostra attenzione. Per questo abbiamo regolato i pesi in modo che l’algoritmo trovasse gli utenti più importanti, cioè quelli che convertono. Allo stesso modo abbiamo pensato che non tutte le colonne erano ugualmente importanti: infatti abbiamo verificato che è più utile concentrarsi su alcune variabili rilevanti piuttosto che contemplare una maggiore quantità di caratteristiche attorno all’utente e al suo comportamento. Anche in un contesto di Big Data, a volte è meglio ridurre le informazioni: “la potatura di alcuni rami” negli alberi decisionali ha facilitato il lavoro dell’intelligenza artificiale.

 

5. Abbiamo portato il nostro algoritmo nel “mondo reale”: l’abbiamo configurato in modo tale da prevedere se un utente avrebbe convertito il giorno successivo in base ai dati raccolti. Risultato: il modello ha correttamente classificato l’85% degli utenti che effettuano la conversione.

 

Come applichiamo l’algoritmo all’acquisto di media digitali

 

ll nostro approccio ai Big Data e all’apprendimento automatico è piuttosto pragmatico, in linea con la nostra filosofia, in cui l’attenzione è sempre rivolta alla ricerca di risultati.

 

In questo senso, l’obiettivo era attivare le informazioni che avevamo ottenuto nell’ambiente digitale e portare l’algoritmo all’ acquisto dei media. Per questo abbiamo generato elenchi di segmenti di pubblico in DoubleClick Campaign Manager che raggruppano quegli utenti con probabilità di conversione più elevate (dati forniti dal modello) e, dall’altra, utenti che, come appreso per mezzo dell’intelligenza artificiale, non avevano possibilità di farlo.

 

Questi ultimi dati si sono rivelati molto utili poiché, nel caso della catena di hotel, ci sono molti utenti che effettuano le loro prenotazioni tramite un comparatore e poi visitano il web solo per consultare servizi e / o foto. In questo modo siamo riusciti a individuare questo pubblico ed eliminarli dalle nostre strategie di remarketing (perché trovarti e parlarti del mio hotel se hai già fatto la prenotazione?).

 

Abbiamo fatto lavorare queste liste di pubblico nella DSP DoubleClick e gli elenchi tradizionali, ed i risultati sono stati quelli sperati: nella campagna di pubblicità programmatica le Smart List hanno funzionato meglio rispetto alle liste “tradizionali”. In alcuni casi l’efficienza delle nostre azioni di remarketing è stata fino a 5 volte maggiore, come risulta da alcune delle metriche più importanti, quali il CPA. Dall’altra parte, la lista di utenti identificati come “non convertitori” ha confermato che effettivamente erano tali.

 

Tutto questo lavoro ci permette di ottimizzare l’acquisto media in maniera molto più intelligente e automatizzata rispetto a come abbiamo fatto fino ad ora. In generale Big Data e Machine Learning ci aiutano a migliorare e rafforzare la nostra performance in diverse aree:

1) Migliora l’esperienza dell’utente, perché possiamo mostrargli un contenuto più adatto ai suoi bisogni

2) Migliora il tasso di conversione, con azioni specifiche per ogni tipo di utente e la fase del processo in cui si trova.

3) L’acquisto dei media è più efficiente perché siamo in grado di escludere chi sappiamo già che non converte.

4) Individuiamo punti di forza e di debolezza di sito, vedendo quali elementi hanno più influenza sulla decisione dell’utente.

 

Big Data e Machine Learning: futuro e miglioramenti

 

Con questo caso di studio abbiamo visto molti vantaggi di queste tecnologie e l’apprendimento non finisce qui: il progetto continua a progredire ogni giorno. Stiamo già caricando le Smart Lists su nuove piattaforme come Google Analytics 360 (che ci consente di avere un impatto sulle audience in Google Adwords e YouTube) e potrebbero essere presto caricate in altri DSP come Mediamath.

 

Infine vogliamo ampliare la portata del progetto attraverso l’integrazione di Big Data provenienti da più punti di contatto, quali ad esempio i call center. Integrando anche come gli utenti interagiscono nel mondo offline possiamo completare la visione d’insieme dei consumatori e del loro comportamento.

 

Lavorare con i Big Data e l’ Intelligenza Artificiale ci ha portato ad avviare lo sviluppo di altri servizi come piattaforme di recensioni del prodotto, distinzione degli utenti in base alla spesa (non trattiamo in maniera uguale un utente con un carrello di € 1000 con uno di € 10.000 ecc.) e piattaforme integrate in cui è possibile personalizzare il messaggio grazie a questa conoscenza profonda del pubblico (creatività e landing dinamiche).

 

Integrare l’innovazione nella nostra realtà è possibile, molto interessante e, soprattutto, proficuo per i brand.

Leave a Reply

Name*

e-Mail * (will not be published)

Website