Nel corso della passata settimana ha destato non poca curiosità l’evento organizzato da Microsoft per la presentazione di Bing AI, la versione del motore di ricerca aziendale che integra l’intelligenza artificiale. A distanza di giorni, però, sfumata l’esaltazione provocata dalla kermesse, iniziano a filtrare dubbi di non poco conto. Andiamo quindi a vedere il motivo alla loro base.

Gli errori compiuti da Bing AI durante la dimostrazione pubblica

Se subito dopo l’evento dedicato a Bing AI il CEO di Microsoft Natya Sadella non ha mancato di magnificare quanto era accaduto, con il passare delle ore sono iniziate ad arrivare analisi molto meno improntate al marketing. Tra di esse ha destato un certo scalpore quanto affermato da un ricercatore indipendente, Dmitri Brereton, in un messaggio affidato a Substack, tale da non lasciare molti dubbi. Secondo lui, infatti, Bing ha dato alcune risposte sbagliate durante la dimostrazione pubblica, senza che nessuno se ne accorgesse. Al contrario, sono tutti saliti sul treno in partenza, senza avere alcun dubbio sulla bontà di quanto visto.

Il riferimento è alla parte in cui il nuovo motore di ricerca ha dato luogo ad una analisi relativa agli utili di Gap e Lululemon. Le domande incriminate sono state poste da Yusuf Mehdi, un dirigente del marketing di Microsoft, il quale si è collegato al sito per le relazioni con gli investitori di Gap chiedendo a Bing AI di riassumere i punti salienti della relazione rilasciata a novembre dalla società e relativa agli utili collezionati nel corso del terzo trimestre del 2022.

Errori poi reiterati quando lo stesso Mehdi ha chiesto mettere a confronto i dati di gap con quelli di Lululemon. Nel corso della dimostrazione nessuno ha colto quanto stava accadendo, ma poi, nelle ore successive, la verità è emersa in modo chiarissimo, tanto da costringere l’azienda ad ammettere gli errori.

Quando sono stati raffrontati i dati forniti dal chatbot con quelli effettivi, infatti, ci si è infatti accorti che non solo alcuni numeri erano stati persi, ma che altri risultavano del tutto inventati. Lo stesso Brereton ha dal canto suo affermato che inizialmente non era sua intenzione cercare errori, ma che si è ben presto dovuto arrendere all’evidenza, di fronte a quelli inanellati nel corso della presentazione.

A questi errori si sono poi sommati quelli relativi ai risultati delle ricerche relativi ai ristoranti consigliati in Messico e al confronto tra aspirapolvere presenti sul mercato. Senza contare un altro errore di non poco conto, riferito sempre da Brereton e nel quale l’intelligenza artificiale di Bing sarebbe incappata nel corso di una seduta con il ricercatore, ovvero l’esclusione della Croazia dall’Unione Europea nel corso del 2022. In realtà, il Paese è entrato a farne parte il primo giorno di gennaio del 2023.

Bing AI: a cosa sarebbero dovuti gli errori commessi?

Naturalmente, di fronte a quanto affermato dal ricercatore era impossibile volgere il capo dall’altra parte. È quindi iniziata la ricerca per cercare di capire cosa fosse avvenuto e, soprattutto, quale fosse il motivo di questi marchiani errori.

La prima interpretazione in tal senso è quella collegata ad un fenomeno che gli esperti di intelligenza artificiale già conoscono perfettamente, ovvero lo stato di allucinazione di cui cadrebbero vittima gli strumenti basati su modelli linguistici di grandi dimensioni. In pratica, questi strumenti sarebbero gravati dalla propensione ad inventare letteralmente cose che non esistono nella realtà.

A questa prima spiegazione, è però il caso di aggiungerne un’altra, ormai abbastanza evidente. La vera e propria gara che si è scatenata intorno all’AI dopo l’esordio di ChatGPT, ha spinto la dirigenza dei contendenti a pigiare il piede sul pedale dell’acceleratore. L’importante era infatti arrivare prima degli altri in modo da assestare un colpo molto duro alla concorrenza e ritagliarsi una rendita di posizione.

In particolare, sono state proprio Microsoft e Google, ad impegnarsi in questa gara. La presentazione in pompa magna di Bing AI e di Bard, il modello di chatbot varato da Big G, doveva oscurare quella dell’altro, senza badare ai dettagli. Solo che il diavolo, come spesso accade, si nascondeva ancora una volta nei dettagli. Gli errori del prodotto della casa di Redmond si sono incaricati ancora una volta di mostrare la veridicità del detto.

La giustificazione di Microsoft

Dopo l’emersione degli strafalcioni di Bing AI, anche Microsoft è dovuta però scendere nuovamente in campo, per cercare di ovviare ad una situazione non proprio edificante. È stato un portavoce dell’azienda a commentare in questo modo l’accaduto: “È importante notare che la scorsa settimana abbiamo annunciato un’anteprima di questa nuova esperienza. Ci aspettiamo che il sistema possa commettere errori durante questo periodo di anteprima e il feedback degli utenti è fondamentale per aiutare a identificare dove le cose non funzionano bene in modo da poter imparare e aiutare i modelli a migliorare.”

Errori sui quali, del resto, gli stessi esperti di intelligenza artificiale generativa avevano messo in guardia in precedenza. Probabilmente, il loro avvertimento non sarà preso sul serio dalle aziende che stanno correndo in direzione di applicazioni commerciali basate su ChatGPT e modelli analoghi. È invece molto più probabile che ad indurle alla prudenza sia la reazione dei mercati. Basti pensare in tal senso al -7% fatto registrare dalle azioni di Google nelle ore immediatamente successive alla presentazione di Bard, la quale è stata ritenuta con tutta evidenza deludente rispetto alle attese.

Leggi ancheCos’è ChatGPT, il nuovo chatbox che minaccia il dominio sul web di Google