Al Google I/O developer conference, l'azienda ha presentato ai developer - e in parte ai consumatori - il motivo per cui le sue scommesse sull'IA sono avanti rispetto ai rivali. Durante l'evento, l'azienda ha presentato un motore di ricerca potenziato dall'IA, un modello di IA con una finestra di contesto ampliata di 2 milioni di token, assistenti AI in tutta la suite di app Workspace, come Gmail, Drive e Docs, strumenti per integrare la sua AI nelle app dei developer e persino una visione futura per l'IA, chiamata Progetto Astra, che può rispondere a vista, suoni, voce e testo combinati.
Anche se ogni avanzamento di per sé era promettente, l'ondata di notizie sull'IA era travolgente. Anche se ovviamente rivolte ai developer, questi grandi eventi sono anche un'opportunità per impressionare gli utenti finali sulla tecnologia. Ma dopo l'abbondanza di notizie, anche i consumatori un po' tecnologicamente savvy potrebbero chiedersi, aspetta, cos'è di nuovo Astra? È la cosa che alimenta Gemini Live? Gemini Live è un po' come Google Lens? In cosa si differenzia da Gemini Flash? Google sta effettivamente realizzando occhiali con AI o è tutto fumo? Cos'è Gemma, cos'è LearnLM... cosa sono i Gems? Quando arriverà Gemini nella tua casella di posta, nei tuoi documenti? Come si usano queste cose?
Se conosci le risposte a queste domande, congratulazioni, sei un lettore di TechCrunch. (Se non lo sai, fai clic sui link per aggiornarti.)
Cosa mancava dalla presentazione complessiva, nonostante l'entusiasmo dei singoli presentatori o gli applausi degli impiegati di Google nel pubblico, era un senso della rivoluzione imminente dell'IA. Se l'IA alla fine porterà a un prodotto che inciderà profondamente sulla direzione della tecnologia come l'iPhone ha influenzato il computing personale, questo non è stato l'evento in cui è stato presentato.
Invece, la sensazione è che siamo ancora molto all'inizio dello sviluppo dell'IA.
Nei corridoi dell'evento, c'era la sensazione che persino i dipendenti di Google sapevano che il lavoro era ancora incompleto. Durante la dimostrazione di come l'IA potesse compilare una guida allo studio e un quiz per uno studente entro pochi istanti dall'upload di un documento di centinaia di pagine - un'impresa impressionante - abbiamo notato che le risposte al quiz non erano annotate con le fonti citate. Quando interrogato sulla precisione, un dipendente ha ammesso che l'IA ha ragione per la maggior parte e una versione futura indicherà le fonti in modo che le persone possano verificare le risposte. Ma se è necessario verificare le fonti, quanto affidabile è una guida allo studio con IA per prepararti al test in primo luogo?
Nella demo di Astra, una telecamera montata su un tavolo e collegata a un grande touchscreen ti permetteva di fare cose come giocare a Pictionary con l'AI, mostrargli oggetti, fare domande su quegli oggetti, fargli raccontare una storia e altro ancora. Ma i casi d'uso su come queste capacità si applicheranno alla vita di tutti i giorni non erano immediatamente evidenti, nonostante i progressi tecnici che, di per sé, sono impressionanti.
Per esempio, potevi chiedere all'AI di descrivere gli oggetti usando l'allitterazione. Durante la diretta del keynote, Astra ha visto un set di pastelli e ha risposto 'pastelli creativi colorati allegramente'. Un bel trucco da festa.
Quando abbiamo sfidato Astra in una demo privata a indovinare l'oggetto in un disegno scarabocchiato, ha identificato correttamente il fiore e la casa che ho disegnato sul touchscreen immediatamente. Quando ho disegnato un insetto - un cerchio più grande per il corpo, un cerchio più piccolo per la testa, piccole zampe ai lati del cerchio grande - l'AI ha avuto difficoltà. È un fiore? No. È il sole? No. L'impiegato ha guidato l'AI a indovinare qualcosa di vivo. Ho aggiunto altre due zampe per un totale di otto. È un ragno? Sì. Un essere umano avrebbe visto l'insetto immediatamente, nonostante la mia mancanza di abilità artistiche.
Per farti un'idea di dove si trovi la tecnologia oggi, il personale di Google non ha permesso registrazioni o fotografie nella sala demo di Astra. Hanno anche fatto girare Astra su uno smartphone Android, ma non potevi vedere l'app o tenere il telefono. Le demo erano divertenti, e certamente la tecnologia che le ha resi possibili merita di essere esplorata, ma Google ha perso l'opportunità di mostrare come la sua tecnologia IA avrà un impatto sulla tua vita di tutti i giorni.
Quando avrai bisogno di chiedere a un'IA di inventare un nome per la band basato sull'immagine del tuo cane e di una tigre di peluche, ad esempio? Hai davvero bisogno di un'IA che ti aiuti a trovare i tuoi occhiali? (Questi erano altri demo di Astra dal keynote.)
Questo non è certo la prima volta che abbiamo visto un evento tecnologico pieno di demo di un futuro avanzato senza applicazioni reali o che propone comodità come aggiornamenti più significativi. Google, ad esempio, ha fatto allettante i suoi occhiali AR anche in anni precedenti. (Ha persino fatto atterrare paracadutisti all'I/O indossando Google Glass, un progetto realizzato più di un decennio fa, che è stato poi interrotto.)
Dopo aver visto l'I/O, sembra che Google consideri l'IA solo un altro mezzo per generare entrate aggiuntive: Paga per Google One AI Premium se vuoi i suoi aggiornamenti di prodotto. Forse, quindi, Google non farà la grande svolta nell'AI per i consumatori. Come ha recentemente riflettuto il CEO di OpenAI Sam Altman, l'idea originale di OpenAI era sviluppare la tecnologia e 'creare tutti i tipi di benefici per il mondo'.
'Invece,' ha detto, 'sembra che creeremo un'IA e poi altre persone la useranno per creare tutte le cose incredibili di cui tutti beneficeremo.'
Anche Google sembra essere sulla stessa lunghezza d'onda.
Tuttavia, ci sono stati momenti in cui l'IA di Astra di Google sembrava più promettente. Se fosse in grado di identificare correttamente il codice o fornire suggerimenti su come migliorare un sistema basato su un diagramma, è più facile vedere come potrebbe essere un utile compagno di lavoro. (Clippy, evoluto!)
Ci sono stati anche altri momenti in cui la praticità dell'IA nel mondo reale ha brillato. Ad esempio, uno strumento di ricerca migliore per Google Foto. Inoltre, avere l'IA di Gemini nella tua casella di posta per riassumere le email, redigere risposte o elencare azioni potrebbe aiutarti finalmente a raggiungere una casella di posta vuota, o una sua approssimazione, più rapidamente. Ma può cancellare le email indesiderate ma non spam, organizzare intelligentemente le email in etichette, assicurarsi che non ti perdi mai un messaggio importante e offrire una panoramica di tutto ciò che hai bisogno di fare non appena accedi alla tua casella di posta? Non proprio. Non ancora.
Inoltre, alcune delle funzionalità più complesse, come i flussi di lavoro basati su AI o l'organizzazione delle ricevute che sono state dimostrate, non verranno lanciate in Labs fino a settembre.
Circa come l'IA influenzerà l'ecosistema Android - l'argomento di Google per i developer presenti - c'era la sensazione che persino Google non potesse ancora sostenere che l'AI aiuterà Android a conquistare gli utenti lontano dall'ecosistema Apple. 'Quando è il momento migliore per passare da iPhone ad Android?', abbiamo chiesto a Googlers di vario rango. 'Questo autunno' è stata la risposta generale. In altre parole, l'evento hardware autunnale di Google, che dovrebbe coincidere con l'adozione di RCS da parte di Apple, un aggiornamento a SMS che renderà la messaggistica Android più competitiva con iMessage.
In poche parole, l'adozione dell'IA da parte dei consumatori nei dispositivi di computing personale potrebbe richiedere nuovi sviluppi hardware - forse degli occhiali AR? un smartwatch più intelligente? Pixel Buds alimentati da Gemini? - ma Google non è ancora pronto a rivelare i suoi aggiornamenti hardware o a suggerirli. E, come abbiamo già visto, con i lanci deludenti di Ai Pin e Rabbit, l'hardware è ancora difficile.
Sebbene oggi si possa fare molto con la tecnologia IA di Google su dispositivi Android, i suoi accessori come il Pixel Watch e il sistema che lo alimenta, WearOS, sono stati per lo più trascurati all'I/O, al di là di qualche miglioramento delle prestazioni. I suoi auricolari Pixel Buds non hanno nemmeno ricevuto una menzione. Nel mondo di Apple, questi accessori aiutano a bloccare gli utenti nel suo ecosistema e potrebbero un giorno metterli in contatto con un Siri alimentato dall'IA. Sono pezzi critici della sua strategia complessiva, non aggiunte facoltative.
Nel frattempo, c'è la sensazione di aspettare l'altro scarpa: ovvero, il WWDC di Apple. Il Worldwide Developer Conference del gigante tecnologico promette di svelare la propria agenda sull'IA, forse attraverso una partnership con OpenAI... o addirittura con Google. Sarà competitivo? Come potrà esserlo se l'IA non può integrarsi profondamente nel sistema operativo, come può fare Gemini su Android? Il mondo è in attesa della risposta di Apple.
Con un evento hardware autunnale, Google ha il tempo di esaminare i lanci di Apple e poi tentare di creare il proprio momento di IA che sia potente e immediatamente comprensibile, come l'introduzione dell'iPhone da parte di Steve Jobs: 'Un iPod, un telefono, e un Internet communicator. Un iPod, un telefono... stai capendo?' Le persone hanno capito. Ma quando capiranno l'IA di Google allo stesso modo? Non da questo I/O, almeno.
Stiamo lanciando una newsletter sull'IA! Iscriviti qui per iniziare a riceverla nelle tue caselle di posta il 5 giugno.