Vai al contenuto

Dall’invisibilità alla distintività: pilotare l’AI per emergere dall’oceano rosso sangue

Intervista ad Alessandro Crotti.

1. Ciao Alessandro! Sei un volto nuovo per BTO. Vuoi presentarti?

In realtà non è la mia prima volta al BTO: ero qui già nel 2020, pochi giorni prima che scoppiasse la pandemia. Allora parlavo di data-driven marketing e advertising per l’hospitality, con casi studio concreti di hotel con cui lavoravo.

In fondo, però, resto sempre un albergatore: ho iniziato al front office, sono passato per revenue e resident manager, e poi la curiosità per le tecnologie e il marketing mi ha spinto a cambiare prospettiva.

Oggi il mio lavoro è proprio questo: aiutare le strutture a distinguersi in un settore sempre più saturo, sfruttando la tecnologia senza dimenticare che dietro ogni dato c’è sempre una persona.

L’AI oggi è sulla bocca di tutti, e io ne sono un grande entusiasta. Ma sono convinto che ci sia tanta confusione e, soprattutto, il rischio di perdere di vista ciò che conta davvero: l’ospite. Se vogliamo dare una sfumatura romantica alla mia definizione, direi che aiuto le strutture a umanizzare le possibilità che l’AI ci offre.

2. Guardando ai prossimi 12–24 mesi, quale caso d’uso di AI generativa vedi davvero spostare l’ago del ROI nel marketing per brand con presenza internazionale, e quale invece è sopravvalutato?

Rispondo con due aspetti opposti. Partiamo dal sopravvalutato: la generazione massiccia e spiccia di contenuti. In altre parole, contenuti “facili”.

Consideriamo che il settore hospitality è l’oceano rosso per eccellenza, cosa che predico da almeno 10 anni, quindi ben prima dell’avvento dell’AI, cioè un settore dove è difficile per le strutture ricettive distinguersi. Con l’AI, questa situazione si è aggravata, perché la comunicazione delle strutture ricettive, già appiattita dalle OTA, con l’AI diventa ancora più piatta. In pratica, copia/incolla delle stesse strutture comunicative, sintattiche, anche linguistiche. Molti contenuti, come pagine web, articoli di blog, post social, sono scritti esclusivamente con AI in modo incontrollato, risultando facilmente riconoscibili come generati artificialmente, poco autentici, zero empatici.

Due giorni fa commentavo proprio un esempio di questo tipo di una famosa catena internazionale di hotel di lusso: sito web interamente scritto con AI e facilmente identificabile come tale (non da un esperto, ma da chiunque), mancando di un filtro qualitativo e risultando poco autentico.

Di conseguenza, ciò che invece porterà a ROI sarà l’uso dell’AI da parte di chi ha imparato a controllarla e gestirla con buona precisione. L’AI di fatto altro non è che una macchina molto stupida che (di intelligente non ha assolutamente niente), per cui è molto soggetta ad allucinazioni, dimenticanze ed interpretazioni.

Allo stesso tempo però, l’AI è un database pressappoco infinito di nozioni e informazioni. Per cui, già solo dando un contesto corretto relativamente a ciò che vogliamo che l’AI ci fornisca, diventa un vantaggio competitivo incredibile perché l’output sarà infinitamente migliore.

Per questo motivo l’AI ha ancora bisogno di una guida costante per produrre risposte qualitativamente accettabili e rilevanti, il che richiede tempo e pazienza. Chi riuscirà a farlo avrà un grande vantaggio, potendo emergere in un mercato saturo grazie a contenuti distintivi e ben curati.

In sintesi, sbaglia colui che crede che l’AI serva a risparmiare tempo, perché senza questo controllo ne farà solo perdere. Vince invece chi la usa per potenziare le proprie capacità con pazienza e attenzione ai dettagli.

3. Come imposteresti una governance concreta per ridurre le allucinazioni dell’AI in copy, visual e insight (prompting, RAG/dati proprietari, human-in-the-loop, approvazioni) senza rallentare i tempi di go-to-market?

Bisogna partire dal presupposto che l’AI è “programmata” per rispondere no matter what.

Questo significa che se usi un prompt generico come “Crea una strategia per ottenere più prenotazioni dirette per il mio hotel”, è chiaro che non stiamo fornendo le informazioni contestuali necessarie per ottenere una risposta qualitativamente rilevante, come ad esempio il dati di performance, channel mix attuale, info sulla destinazione, revenue, occupazione, etc. L’AI però risponderà lo stesso. Meno informazioni contestuali condividiamo, più margine di allucinazione verrà generato.

La competenza principale da apprendere è il prompting, o prompt engineering, che per quanto suoni intimidatorio come termine, in realtà richiede solo un po’ di pratica e attenzione e seguire un metodo. Il mio metodo è basato essenzialmente su:

  • struttura a livelli: primo livello: informazioni di base e statiche (es. informazioni sull’hotel, sulla destinazione, sulle USP che sono importantissime, etc.)
  • secondo livello: chat dedicate. Per ciascuna chat chiarire ruoli, contesto, obiettivo da raggiungere e output atteso.
  • se non sai da dove partire o non hai esperienza, parla come mangi. Itera all’interno della stessa chat fino a che non raggiungi un output sufficientemente buono. A questo punto, chiedi all’AI stessa di fornirti una nuova versione del prompt iniziale, come se dovesse essere lei al tuo posto nell’aprire una nuova chat e dovendo chiedere le stesse cose. Ecco che avrai un nuovo prompt molto più efficace che potrai ri-utilizzare per ogni futura occasione.

Le prime volte può essere complicato, ma poi si prende il ritmo.

RAG e dati proprietari sono fondamentali. Bisogna creare una libreria di base standard che contengano tutte queste informazioni, come il Tone of Voice e le unicità dell’azienda. Questa libreria sarà il riferimento per tutte le chat successive.

Infine, esempi. Se voglio creare il copy di un sito web o un blog post, devo iterare con l’AI fino ad ottenere un output soddisfacente e salvare questo output come esempio. L’AI deve sapere che questi sono i risultati desiderati.

4. Quali metriche usi per misurare qualità e “veridicità” dei contenuti generati (es. factuality rate, hallucination rate, confidence), e come le colleghi a KPI di business come conversione, CAC e brand safety?

Due piccole accortezze: 1) in ogni mio Project, o eventualmente all’interno del prompt iniziale, chiedo esplicitamente di dichiarare il livello di confidence per ciascuna risposta fornitami e, nel caso questo valore fosse sotto il 70%, di indicarmi le ragioni per le quali mi viene comunque fornita la risposta. 2) un’ulteriore postilla nel prompt in cui chiedo esplicitamente di esercitare un pensiero critico, valutando le affermazioni in modo autonomo, esponendo le obiezioni in modo chiaro e argomentato, senza limitarsi ad essere conciliante.

Quest’ultimo punto è fondamentale perché l’AI è programmata per convenire, per cui bisogna fare in modo di “de-programmare” questi comportamenti.

5. In una realtà multi-Paese, come bilanci personalizzazione locale e coerenza di brand quando l’AI traduce/adatta contenuti tra lingue e culture diverse, evitando bias e fraintendimenti?

La prima cosa da chiarire è che “tradurre” e “localizzare” sono due operazioni molto diverse. Una traduzione letterale, soprattutto fatta solo con AI, è quasi sempre insufficiente, macchinosa, tecnicamente perfetta ma completamente asciutta e priva di emozione: si rischia da una parte di produrre fraintendimenti culturali e un tono che non riflette né il brand né la sensibilità del mercato locale, dall’altra di far letteralmente addormentare chi legge.

Infatti, parto dal presupposto che prima di farci aiutare dall’AI a tradurre qualcosa, dovremmo farci aiutare a creare e rifrasare quel qualcosa, in modo tale riuscire ad attivare l’attenzione di chi ci legge.

Per questo la soluzione non può prescindere dall’impostazione a monte di una libreria di brand (tone of voice, valori, USP, esempi di copy approvati) come fonte fissa di riferimento, e possibilmente affiancarla a linee guida locali curate da persone native o esperti di mercato. L’AI deve attingere da entrambe: coerenza centrale + adattamento locale.

Il modello, quindi, lavora in due step:

1. Allineamento al brand (usando RAG con le informazioni proprietarie).

2. Localizzazione sul mercato, con istruzioni chiare di adattamento culturale e con revisione human-in-the-loop solo sulle lingue più critiche.

Così si evita che l’AI generi testi “neutri” e piatti oppure, al contrario, troppo aderenti a una cultura e incoerenti col brand globale. È un equilibrio tra controllo centrale e libertà locale, che deve essere disegnato in fase di governance.

6. Build vs buy: cosa conviene sviluppare in casa e cosa esternalizzare (modelli, dati, tooling)? E nei contratti con i vendor, quali clausole e SLA metteresti per responsabilità in caso di allucinazioni che danneggiano il brand?

La risposta secondo me è più soggettiva di quello che si crede e soprattutto è soggetta a diversi “dipende”.

Ma anche in questo caso c’è una premessa doverosa. L’AI non vi fa albergatori, così come non fa me un esperto di marketing, né fa di uno studente un esperto di revenue management. Ergo, o la si controlla, o ne paghiamo le conseguenze.

Le allucinazioni avvengono quando:

  • non siamo diligenti con l’input, cioè il prompt o comunque le istruzioni e i dati forniti all’AI, e…
  • non esercitiamo la capacità di valutazione dell’output, cioè la risposta ricevuta.

Per essere in controllo di questi due aspetti dobbiamo essere padroni di tre aspetti:

  • Problem Awareness: la capacità di capire qual è il problema di risolvere o l’obiettivo da raggiungere
  • Platform Awareness: capire la piattaforma AI con la quale abbiamo a che fare, le sue potenzialità e i suoi limiti
  • Delegation: capire cosa dobbiamo fare noi (umani) e cosa e come delegare all’AI

Questi tre aspetti sono la base dalla quale partire per ogni tipo di interazione con ogni tipo di AI, sia essa una soluzione generica e generalista con gli AI assistant ChatPGT, Claude, Gemini, sia che si tratti di frameworks sviluppati in casa, sia che si tratti di tool specifici proposti nel mercato.

Per fare un esempio, vi si prospetta una sistema di revenue management basati sull’AI. “Suona” figo, vero? Però ci dimentichiamo che per fare revenue, e farlo bene, servono dati, tanti e di qualità, quindi corretti. Mediamente gli albergatori hanno tanti dati, ma la qualità spesso è lasciata al caso. Pensiamo anche solo a quanti errori vengono fatti in fase di prenotazione, nei sistemi gestionali, nell’assegnazione del corretto canale, del corretto mercato, etc., solo per citarne alcuni.

Input sballati, output sballati. Ma se non abbiamo questa consapevolezza (Problem Awareness e Platform Awareness) non possiamo poi incolpare l’AI, il vendor o l’azienda che ci ha fornito la soluzione.

Ecco perché, più che chiedersi build vs buy, la vera domanda secondo me dovrebbe essere: che obiettivo voglio raggiungere?

Quindi di nuovo: conoscenza del problema.

Devo conoscere bene le dinamiche del tool che sto valutando, capire fino a dove arrivano le sue potenzialità e limitazioni (conoscenza della piattaforma) e fino a dove invece arrivano le mie responsabilità come decisore (delegation).

In altre parole: non è tanto il modello a fare la differenza, ma la governance. E se la governance manca, qualsiasi contratto firmeremo sarà sulla fiducia. E nessun contratto potrà salvarci dalle conseguenze.

L’intervista riguarda il topic “Hospitality”. È stata curata da Nicola Zoppi, coordinatore scientifico del tema, e da Roberta Milano, responsabile editoriale di BTO.
Alessandro Crotti parlerà a BTO nel panel dal titolo AI Alberghiera: Dallo ‘AI Washing’ all’Innovazione Autentica – Come Riconoscere le Tecnologie di Fiducia.
Ti aspettiamo a BTO – Be Travel Onlife.
L’appuntamento è a Firenze l’11 e 12 novembre 2025.