La decisione di OpenAI di introdurre la pubblicità all’interno di ChatGPT ha suscitato, com’era prevedibile, diverse reazioni. Oltre alle critiche e alle perplessità sull’impatto che questa scelta potrà avere sulle risposte dell’intelligenza artificiale, c’è anche chi valuta la decisione come un tentativo per l’azienda di trovare risorse per affrontare quella che alcuni analisti definiscono come una situazione prossima a una crisi. Ma anche i competitor di OpenAI hanno reagito a questa novità. Se Google ha più volte ribadito che non introdurrà annunci in Gemini, nella stessa direzione sta andando Anthropic con Claude. Ma lo ha comunicato in maniera decisamente diversa. Lo ha fatto tramite uno spot pubblicitario ironico che verrà trasmesso anche in occasione del Super Bowl.

Lo spot di Anthropic contro ChatGPT

Anthropic ha comunicato che Claude non ospiterà pubblicità di alcun tipo e che le conversazioni rimarranno pulite da sponsor e link promozionali. La società madre di Claude ha spiegato che un assistente votato al lavoro e al pensiero approfondito non può essere influenzato da logiche commerciali. La presenza di annunci rischierebbe di introdurre bias nelle risposte e di creare dinamiche simili a quelle dei social network, con chatbot incentivati a trattenere gli utenti più a lungo invece di risolvere rapidamente le loro richieste. Il principio che l’azienda vuole difendere riguarda la trasparenza e l’allineamento con l’interesse dell’utente, un approccio che viene presentato come incompatibile con qualsiasi forma di monetizzazione basata sulla pubblicità. La scelta di Claude, più che etica in assoluto, è fondata anche su ragioni di convenienza per cui l’attendibilità delle risposte date dalle macchine verrebbe inficiate da dinamiche commerciali e non legate ai bisogni degli utenti.

Per sostenere questa visione, Anthropic ha deciso di lanciare una campagna di comunicazione di alto profilo. Sul proprio canale YouTube è comparso un video che ironizza sulla possibilità di ricevere risposte contaminate da inserzioni pubblicitarie.

Nel video si vede il protagonista, un ragazzo che si sta allenando all’aperto, chiedere consigli per ottenere un fisico scolpito e il personaggio che dovrebbe aiutarlo (che impersonifica l’intelligenza artificiale) diventa sempre più simile a un chatbot condizionato da logiche pubblicitarie fino a suggerire un prodotto completamente fuori contesto. L’uomo che rappresenta l’AI inizia la conversazione in modo molto utile e professionale, proponendo al ragazzo di preparare un piano di allenamento personalizzato su misura per lui e chiedendogli per questo l’età, il peso e l’altezza. Ma poi le cose iniziano a cambiare. Improvvisamente l’AI interrompe i consigli di fitness per inserire uno spot pubblicitario per delle solette rialzanti chiamate “Tricep Boost Max”. Si tratta di solette che, come spiega l’AI, aggiungono tre centimetri di altezza e aiutano i “piccoletti” a svettare. Un consiglio tecnicamente pertinente, ma decisamente fuori luogo e poco empatico (anche perché non richiesto).

Il video si chiude con lo slogan “Ads are coming to AI. But not to Claude” (Le pubblicità stanno arrivando sulle AI. Ma non su Claude), sottolineando come Claude offra un’esperienza senza interruzioni pubblicitarie a differenza di quanto potrebbe accadere altrove.

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

Il problema della fiducia

La versione breve dello spot andrà in onda durante il Super Bowl, un palcoscenico che garantisce una visibilità mondiale e che segnala la volontà dell’azienda di parlare anche al pubblico non specializzato.

Il confronto fra OpenAI e Anthropic assume così una dimensione culturale oltre che tecnologica. Il tema non riguarda soltanto l’esperienza di utilizzo ma anche il rapporto fra il pubblico e gli assistenti basati sull’intelligenza artificiale. Molti si chiedono se un sistema che consiglia prodotti possa davvero restare neutrale e se l’ottimizzazione per l’engagement sia compatibile con l’idea di un aiuto genuino. Ma a questo livello ci sarebbe anche da interrogarsi sulla validità (e la dimensione “etica”) di tante forme di pubblicità umane che, giocando sulla fiducia che si crea tra l’influencer e l’utente, mirano solamente a vendere prodotti. Non è replicabile il concetto di “consiglio dato da una persona fidata”, ma se non vale per l’AI non vale neanche altrove.

La campagna di Anthropic si inserisce esattamente in questa discussione. Lo spot sfrutta un episodio quotidiano per far emergere un dubbio più ampio. La questione riguarda la fiducia e la percezione di autonomia delle risposte generate da un assistente digitale.

I nostri contenuti da non perdere: