google,-i-nuovi-metodi-per-ricerche-sempre-piu-sofisticate

Google, i nuovi metodi per ricerche sempre più sofisticate

Trovare l’abito immortalato nella rivista, ma di un colore differente. Passeggiare a Venezia e lasciarsi guidare dalla realtà aumentata. Scoprire come si chiama la pianta che abbiamo nel vaso per dedicarle le cure più appropriate. Google ha da poco annunciato alcune delle nuove funzionalità basate sull’Intelligenza Artificiale. Funzioni e applicazioni come Google Lens, Immersive View e Live View che hanno la capacità di rendere sempre più naturale e intuitivo il modo in cui interagiamo con le informazioni intorno a noi, in qualsiasi momento. Quante volte abbiamo digitato sul campo ricerca di Google le parole o keyword per ottenere una determinata informazione e oggetto senza aver trovato esattamente quello che volevamo. A malincuore abbiamo scoperto che le parole non sempre sono il modo più facile per esprimere quello che desideriamo. 

La ricerca multipla di Google cambia la prospettiva. Attraverso la fotocamera di Google Lens è sufficiente scattare l’immagine di ciò che più assomiglia a ciò che stiamo cercando; mettiamo ad esempio una poltrona che abbia lo stesso stile di quella di un amico. Però a noi il giallo non piace e a casa nostra si abbina meglio il beige. Così, ai risultati proposti da Google Lens possiamo aggiungere il colore che desideriamo per vedere solo quella variante. E la ricerca è conclusa in una manciata di secondi. La procedura è più lunga da descrivere che da eseguire. Ecco perché ora grazie alla ricerca multipla si può interagire con Google in maniera molto più naturale e intuitiva

Google cerca di organizzare l’informazione nel mondo da oltre 20 anni. I risultati che si possono ottenere oggi fanno parte di un processo focalizzato sul capire l’informazione contenuta semanticamente nei diversi media. Google, infatti, ha investito per anni nel capire il valore semantico di un’immagine o di un video e renderlo accessibile agli utenti nelle loro ricerche. In conclusione, quindi, se si può vederlo si può anche cercarlo. Ecco di seguito tre esempi pratici sulla nuova ricerca multipla basata sull’immagine.

Esempio di Ricerc Multipla di Google con Google Lens

1. Ricerca di un vestito con la stampa di un altro capo

In questo caso è sufficiente inquadrare con Google Lens il capo con la stampa che ci interessa, premere invio e attendere il risultato. Una volta ottenuto servirà aggiungere nel campo ricerche il termine vestito per ottenere il capo che si vuole in più proposte molto somiglianti.

2. Identificare il nome di una pianta per curarla

Stessa procedura: si inquadra la pianta con Google Lens e si aggiungere nel campo della ricerca multipla la domanda Come prendersene cura, quanto innaffiarla, dove posizionarla, ecc. Che poi, a pensarci bene, già sapere il nome senza dover scaricare mille applicazioni è un privilegio.

3. Trovare informazioni sui mirtilli

Sarà necessario inquadrare la materia prima scelta, in questo caso i mirtilli, andando a restringere al dettaglio l’immagine presente sullo smartphone e poi aggiungere nelle ricerche la parola ricetta o addentrarsi ancora di più nello specifico: qualità nutritive, modi per conservarli, quando maturano, gelato fatto in casa. D’ora in avanti non è più necessario conoscere il nome di quello che cerchiamo se esiste una sua immagine concreta. 

Live View

Quando Google Maps diventerà più immersiva

L’intelligenza artificiale e la realtà aumentata porteranno presto anche in Italia nuovi aggiornamenti fondendo visualizzazione immersiva, Live View e immagini aeree. Uno strumento importante per aiutare sia i conducenti di veicoli elettrici (EV) nativi Google, sia chi si muove a piedi, in bicicletta o con i mezzi pubblici. Cambia l’esperienza di utilizzo. Prossimamente sarà possibile pianificare una visita alla Galleria degli Uffizi di Firenze come alla Collezione Peggy Guggenheim di Venezia  in maniera più rigorosa. Si potranno sorvolare virtualmente gli edifici e vedere dove si trovano, ad esempio, gli ingressi del museo. Il dispositivo di scorrimento temporale mostrerà come appare l’area nelle diverse ore del giorno e che tempo farà. Si potranno anche individuare i luoghi più affollati. E quando la fame si farà sentire basterà scendete al livello strada per esplorare i ristoranti vicini, e dare anche un’occhiata all’interno per capire rapidamente l’atmosfera di un locale prima di prenotare. Le prime città in cui si potrà fare questo saranno per l’appunto Firenze e Venezia.

Altra cosa è Live View, già attivo a Londra, Los Angeles, New York, Parigi, San Francisco e Tokyo. Questa funzione è attiva anche in Italia nei percorsi pedonali. Utilizza frecce alimentate dalla realtà aumentata per indicare la direzione giusta. Sbagliare strada ora è davvero difficile! Negli Stati Uniti, a Zurigo e a Tokyo, Live View consente di avere indicazioni dettagliate anche in aree chiuse come aeroporti o centri commerciali per trovare rapidamente e con sicurezza i servizi igienici, le sale d’attesa, le stazioni dei taxi, gli autonoleggi e molto altro ancora. Nei prossimi mesi Live View al chiuso entrerà in più di 1.000 nuovi aeroporti, stazioni ferroviarie e centri commerciali a Barcellona, Berlino, Francoforte, Londra, Madrid, Melbourne, Parigi, Praga, San Paolo, Singapore, Sydney, Taipei e Tokyo. Mentre i conducenti di veicoli elettrici dotati di Google Maps Integrato avranno una guida più serena perché saranno indicati i punti di ricarica più vicini e più veloci. Attenzione, gli utenti iPhone devono scaricare le app Google e Google Maps per utilizzare tutti questi servizi. 

Related Posts

Lascia un commento