Google ha da poco annunciato un nuovo modello di intelligenza artificiale che consente ai robot di comprendere il mondo che li circonda con un supporto minimo o nullo.

Il modello RT-2 è in grado di tradurre i comandi impartiti in azioni che i robot possono eseguire senza la necessità di un addestramento esplicito.

Questo è possibile grazie a un nuovo modello di visione-linguaggio-azione (VLA) che Google afferma essere il primo del suo genere, in quanto apprende dai dati provenienti dal Web e da altri sistemi robotici e traduce la relativa conoscenza in istruzioni generalizzate per il controllo robotico.

Il nuovo modello RT-2 traduce la visione e il linguaggio in azione

Google ha spiegato che se ad esempio si chiede a un robot basato sul modello RT-2 di gettare la spazzatura nel cestino, potrebbe facilmente capire cos’è la spazzatura, come differenziarla dagli altri oggetti presenti nell’ambiente, come raccoglierla e smaltirla, il tutto senza essere specificamente addestrato su nessuna di queste attività.

In oltre 6.000 prove effettuate dalla società, RT-2 si è dimostrato abile quanto RT-1 nei compiti già visti, ma in quelli inediti ha ottenuto il 62% in termini di prestazioni rispetto al 32% del modello precedente.

Sebbene le applicazioni di una tale tecnologia sembrino già molto tangibili e per certi versi inquietanti, probabilmente sarà necessario ancora parecchio tempo prima di vederle nel mondo reale, poiché si rendono comprensibilmente necessari dei test rigorosi e varie approvazioni normative. Ulteriori informazioni in merito a questa tecnologia possono essere reperite nel blog DeepMind di Google.

Potrebbe interessarti: Google, Microsoft e OpenAI insieme per un’intelligenza artificiale responsabile e sicura