Dopo quanto è stato mostrato il 14 maggio durante la conferenza per gli sviluppatori Google I/O, è opportuno cambiare il sentimento che lega i consumatori a Big G che, peraltro, da molti anni non è più (soltanto) una web company: d’ora in poi smartphone, tablet, wearable e servizi saranno strumenti utili alla diffusione e all’uso delle Intelligenze artificiali (IA).
Gran parte dell’evento Google I/O è stata dedicata a una visione neppure troppo futuristica delle IA, rappresentata da Veo, Imagen 3 e Gemini Flash. Tre nuovi modelli IA che si aggiungono a quelli già annunciati in precedenza o già disponibili tra i quali, solo per elencarne alcuni, Gemini Pro, Gemini Pro 1.5, Gemma e Gemini Ultra.
Sono tutte IA generative ossia, in parole spicciole, capaci di generare contenuti a partire da quello che viene chiamato input, ossia una richiesta fatta da un utente e, non di meno, sono definite “multimodali” perché l’input può essere costituito da immagini, testo, video e audio e l’output, ovvero il risultato che restituiscono, è altrettanto diversificato.
Ancora più interessante è il fatto che, grazie anche ai tempi di risposta sempre più rapidi, le IA generative possono rievocare il Test di Turing, usato per misurare l’intelligenza linguistica di un agente (un dispositivo hardware o software).
I modelli IA della famiglia Gemini convergono in quello che Google ha battezzato Project Astra e, per spiegare cosa è in grado di fare, ci avvaliamo della dimostrazione fornita da Big G.
Una ricercatrice di Google DeepMind, la divisione che si occupa di IA, ha finto di avere perso i propri occhiali chiedendo all’IA di aiutarla a trovarli, finché questa le ha detto di cercarli sulla scrivania lì vicino, accanto alla mela rossa.
Una conversazione uomo-macchina (Google Gemini) resa possibile dall’analisi di immagini in diretta. Usando la fotocamera di uno smartphone è possibile fare vedere all’IA l’ambiente circostante e questa fa il resto, arrivando a identificare il paesaggio visibile dalla finestra per riconoscere il luogo in cui ci si trova.
Da qui o, meglio, passando attraverso queste nuove capacità, Google si sta proiettando nel mondo che il Ceo Sundar Pichai ha definito “AI Agent”, ossia assistenti intelligenti capaci di memorizzare, pianificare, ragionare e risolvere problemi quotidiani ma, sottolinea Pichai, sempre sotto la supervisione dell’uomo.
La novità è a suo modo sensazionale: gli assistenti IA di Google possono vedere l’ambiente circostante e questo dà una spinta a tutto il nutrito (e disordinato) comparto delle IA generative. Dà una dimensione quasi umana alle IA che sembrano uscire dai dispositivi per affiancare l’uomo.
Ciò che succederà nei prossimi anni è presto detto: degli agenti IA capaci di vedere il mondo possono affrontare e risolvere questioni più complesse di quelle che riescono a gestire oggi. Gli usi possibili seguono molte declinazioni: dalla casa intelligente al turismo, dalla cura della persona alle attività professionali di svariato genere.
Urge però frenare gli entusiasmi: nel mondo delle IA sta accadendo qualcosa che per il momento non è ancora emerso in modo chiaro. I modelli sono sempre più capaci e rapidi grazie alla qualità dei dati con cui sono stati addestrati e queste informazioni, in grandissima parte, le forniamo noi. Non intendiamo creare allarmismi ma è opportuno riflettere sulla privacy e sulla legittimità delle informazioni che vengono raccolte dai modelli IA per fornire servizi sempre più evoluti.
Per essere più diretti: le IA non sono più soltanto argomenti ingegneristici, assumono sempre più una rilevanza sociale e possono essere spiegate bene soltanto unendo le voci di ingegneri, filosofi e sociologi.