Experience Lab - 13/07/2017 - gigi

Google Machine Learning e Artificial Intelligence per migliorare la vita

Google Datacenter Tensorflow

L’8 giugno 2010 Google annunciava Caffeine uno dei cambiamenti più significativi nell’era dei motori di ricerca. Caffeine è stato un investimento soprattutto in termini di capacità e velocità di indicizzazione di una sempre crescente quantità di contenuti (testi, immagini e video) disponibili sul web.

Sono passati 7 anni ma gli investimenti di Google nel miglioramento delle capacità computazionali non sono cambiati: oggi si parla di machine learning (questo è un video che spiega cos’è la libreria open source Tensorflow) e artificial intelligence al centro della filosofia di Google.
Ne ha parlato recentemente anche il CEO di Google Sundar Pichai al Google I/O Keynote di Maggio, sottolineando la filosofia di mettere a disposizione di tutti le tecnologie di Google per aiutare in tutti i campi e settori l’uomo.

Sappiamo da tempo che Google non è più solo un motore di ricerca.
Oggi Google è un assistente personale a nostra completa disposizione e sempre più propenso ad imparare dalle nostre abitudini e aiutarci anticipando i nostri problemi.
Pensate a Google Lens una funzionalità sempre più evoluta in grado di interpretare le immagini ed integrarle con l’ecosistema Google: ad esempio riconoscere il volto in una fotografia e catalogarla automaticamente o suggerire di condividerla col destinatario con pochi clic. La ricerca visuale diventa sempre più centrale nell’esperienza utente.

Dicevamo di Google Assistant, ora disponibile anche per iPhone, che è l’assistente per eccellenza: strutturato per elaborare richieste in un linguaggio naturale (lo sapevate che il 70% delle query a Google Home sono conversazionali), sempre più preciso nel riconoscimento del linguaggio parlato e del contesto della conversazione. Finalmente è stato rilasciato anche il Google Assistant SDK per consentire anche agli sviluppatori di altri device (dalla Tv alla lavatrice) di interfacciarsi con Google.

Google Home che in Aprile è approdato nel mercato britannico quest’estate verrà venduto anche in Francia, Germania, Australia e Giappone e beneficerà di tutti i miglioramenti di Google Assistant.
Pensate che è in grado di riconoscere le voci dei diversi componenti della famiglia e di dare delle risposte personalizzate in base a chi lo interpella. “Ok Google chiama la mamma” e magicamente Google saprà chiamare la mamma giusta senza bisogno di dargli ulteriori indicazioni specifiche (avevamo già parlato di voice search qui).
Insomma Google Home entra sempre di più nella nostra quotidianità aiutandoci con le sue nuove caratteristiche:

  • Assistenza proattiva: conosce il nostro calendario e il luogo di un nostro appuntamento e ci avverte di partire prima perché oggi c’è più traffico del solito
  • Intrattenimento grazie all’integrazione con spotify, sound cloud e altre piattaforme musicali
  • Chiamate gratis (al momento solo negli USA e Canada, in Italia la vedo dura :))

Google Photos e Google Lens ovvero come sfruttare al meglio i concetti di Machine Learning e AI per migliorare le applicazioni di uso quotidiano. L’intelligenza artificiale che ci aiuta a catalogare meglio le nostre foto ma non solo. Oggi Google Photo cataloga le foto per persone, luoghi e oggetti, rimuove i duplicati e scarta le foto peggiori (quelle sfuocate per esempio).
Oggi è in grado di riconoscere i volti nelle foto e collegarli alle persone che fanno parte dei nostri contatti suggerendoci in automatico di condividerle con loro con un semplice clic.
Ritorna il concetto di assistente, il concetto di semplificarci la vita.

I genitori non si devono più scambiare le foto dei figli perché con le shared libraries automaticamente potranno accedere alla libreria che hanno deciso di condividere, in cui solo le foto dei figli verranno catalogate in automatico da Google Photo, senza alcuna azione aggiuntiva da parte dell’utente. Anche questa è Machine Learning e AI e capacità computazionale mai vista prima.

Vado in giro per strada e inquadro un affissione di un concerto del mio gruppo preferito e Google Lens riconosce l’informazione e mi propone di acquistare il biglietto e pianificare l’evento.

Pare sia già possibile con i Visual Positioning Services localizzare un oggetto all’interno di un edificio, tramite il nostro smartphone. Immaginate di essere al Brico Center e cercare un particolare cacciavite. Oggi Google tramite i suoi servizi integrati nello smartphone sarebbe già in grado di guidarvi tra le corsie e segnalarvi con un pallino colorato esattamente dove si trova ciò che state cercando.

Come funzionano i Visual Positioning Service all'interno di un edificio

Il desiderio di Google di allargare la sua tecnologia di ultima generazione anche agli smartphone entry level ha spinto gli sviluppatori a lavorare su quelle caratteristiche definite Vitals dei device mobili: durata della batteria, sicurezza, stabilità e velocità di esecuzione.

Senza voler entrare nel tecnico, vi lascio alcune parole chiave per approfondire: Google Play Protect che scansiona ogni giorno 50 milioni di applicazioni e disabilita o cancella quelle classificate come pericolose, Play Console Dashboard per l’analisi delle prestazioni delle nostre applicazioni e infine Android Go espressamente pensato per i device entry level.

Google insomma non si ferma mai, pervade sempre di più la nostra vita e sta anche a noi “operatori digitali” (passatemi il termine perché digital strategist è fin troppo usato) cogliere al volo le opportunità e adeguare i nostri prodotti a queste tecnologie emergenti.

Alcuni link utile per approfondire gli argomenti:

Lascia un commento