Torniamo a trattare l’argomento che, negli ultimi tempi, sta più di ogni altro monopolizzando l’attenzione sul web: l’intelligenza artificiale. Abbiamo visto Google annunciare il proprio chatbot AI Bard a febbraio, per poi renderlo disponibile in anteprima a marzo, nel tentativo di recuperare terreno sul principale concorrente ChatGPT di OpenAI; il lancio della soluzione del colosso di Mountain View non è stato dei migliori, l’azienda ha infatti perso 100 miliardi di dollari a causa di un errore del chatbot nel video utilizzato per presentare Bard, facendo una figura non proprio eccelsa.

In seguito hanno iniziato a circolare anche diverse voci che esprimevano malcontento dall’interno dell’azienda, i dipendenti Google infatti non erano contenti di come la società avesse gestito il lancio di Bard, in seguito sono giunte anche alcune accuse circa l’utilizzo dei dati della concorrenza per addestrare Bard, voci poi fermamente smentite da Google.

Ora grazie ad un rapporto di Bloomberg, che ha intervistato un gruppo di 18 persone tra ex e attuali dipendenti del colosso, possiamo farci un’idea ancora più chiara del malumore che serpeggia all’interno dell’azienda a causa non solo del lancio troppo affrettato di Google Bard, ma anche per una serie di preoccupazioni dal punto di vista etico.

I dipendenti Google accusano l’azienda di aver ignorato le preoccupazioni di carattere etico nel lancio di Bard

Stando a quanto riportato, l’azienda avrebbe chiesto ai dipendenti di testare approfonditamente Bard prima del lancio, salvo in seguito ignorare la maggior parte dei loro feedback perché ne avrebbero ritardato ulteriormente il lancio. In alcune conversazioni interne i dipendenti apostrofavano Bard come “degno di rabbia” e “un bugiardo patologico”.

Durante i test condotti internamente il chatbot avrebbe fornito risposte con informazioni errate in diverse occasioni, informazioni che avrebbero potuto causare gravi incidenti in alcune casistiche: sono state per esempio chieste le istruzioni per fare atterrare un aereo, oppure istruzioni su come effettuare immersioni subacquee, in entrambi i casi le risposte fornite da Bard avrebbero potuto provocare gravi lesioni o addirittura la morte.

Quanto riportato, in linea di massima non vale solo per la soluzione proposta da Google, anche i chatbot AI della concorrenza infatti hanno fornito in diverse occasioni risposte non corrette e ambigue sotto vari punti di vista, ma l’azienda di Mountain View sembra particolarmente indietro rispetto ai principali concorrenti, preoccupata dalla possibilità che i modelli sviluppati su ChatGPT possano a breve rimpiazzare il proprio motore di ricerca, andando di conseguenza ad intaccare la posizione di predominio nel settore sviluppata nel corso degli anni.

Un altro aspetto evidenziato dai dipendenti riguarda il lato etico, secondo Meredith Whittaker, ex manager di Google e presidente della Signal Foundation, l’etica dell’IA sarebbe passata in secondo piano, dando la precedenza al profitto e alla crescita; tutto ciò ha portato nel corso del tempo a diversi licenziamenti, sia volontari che forzati, di gran parte del personale interno impegnato nel campo dell’etica di Bard.

Coloro i quali non sono stati licenziati e non se ne sono andati spontaneamente, hanno comunque visto frenare la propria crescita professionale da parte dei manager a causa delle preoccupazioni esposte, tanto che si riporta come “Un ex dipendente ha affermato di aver chiesto di lavorare sull’equità nell’apprendimento automatico e di essere stato regolarmente scoraggiato, al punto da influire sulla valutazione delle prestazioni. I manager hanno protestato perché stava ostacolando il loro “vero lavoro”.

Bard può ora aiutare gli utenti a programmare e sviluppare software

Google è dunque alla costante rincorsa dei principali competitor e oggi annuncia una nuova funzionalità per Bard, funzione già disponibile con molti dei chatbot AI attualmente in circolazione; da oggi il chatbot di Google può aiutare con le attività di programmazione e sviluppo software, inclusa la generazione del codice, il debug e la spiegazione del codice.

Sono supportati più di 20 linguaggi di programmazione tra cui C++, Go, Java, Javascript, Python e Typescript, ed è inoltre possibile esportare direttamente il codice Python in Google Colab, strumento messo a disposizione dall’azienda con il quale scrivere ed eseguire il linguaggio di programmazione appena citato direttamente nel browser; può inoltre aiutare con le funzioni di scrittura per Fogli Google.

Secondo i dipendenti Google "Bard è peggio che inutile", ma ora può programmare 1

Bard è ora inoltre in grado di spiegare i frammenti di codice, cosa utile se per esempio siamo alle prime armi con la programmazione e necessitiamo di supporto e chiarimenti.

Secondo i dipendenti Google "Bard è peggio che inutile", ma ora può programmare 2

Non è tutto però perché il chatbot AI di Google è ora in grado anche di eseguire il debug del codice, sia che sia stato scritto dall’utente che da lui stesso.

Secondo i dipendenti Google "Bard è peggio che inutile", ma ora può programmare 3

L’azienda si premura di sottolineare come Bard possa fornire informazioni imprecise, fuorvianti o false mentre le presenta con sicurezza, motivo per cui è comunque caldamente consigliato ricontrollare sempre le risposte fornite dal chatbot, nonché esaminare e testare attentamente il codice da lui fornito, in modo da individuare eventuali errori, bug e vulnerabilità.

Potrebbe interessarti anche: Google conferma che presto Bard AI passerà a un modello più potente