Tutto ciò che è stato annunciato al Google I/O 2024, inclusi Gemini AI, Project Astra, Android 15 e altro ancora

Al termine dell’I/O, la conferenza annuale degli sviluppatori di Google allo Shoreline Amphitheatre di Mountain View, il CEO di Google Sundar Pichai ha rivelato che la società ha detto “AI” 121 volte. Questo è stato, in sostanza, il succo del keynote di due ore di Google: portare l’intelligenza artificiale in tutte le app e i servizi di Google utilizzati da oltre due miliardi di persone in tutto il mondo. Ecco tutti i principali aggiornamenti annunciati da Google durante l’evento.

Gemelli ProGemelli Pro

Google

Google ha annunciato un nuovissimo modello AI chiamato Gemini 1.5 Flash, che a suo dire è ottimizzato per velocità ed efficienza. Il Flash si trova tra Gemini 1.5 Pro e Gemini 1.5 Nano, il modello più piccolo dell’azienda che funziona nativamente sul dispositivo. Google ha affermato di aver creato Flash perché gli sviluppatori volevano un modello più leggero e meno costoso di Gemini Pro per creare app e servizi basati sull’intelligenza artificiale, pur mantenendo alcune cose come una finestra di contesto lunga un milione di caratteri che distingue Gemini Pro dai modelli concorrenti. Entro la fine dell’anno, Google raddoppierà la finestra di contesto Gemini portandola a 2 milioni di token, il che significa che sarà in grado di elaborare 2 ore di video, 22 ore di audio e più di 60.000 righe di codice o più di 1,4 milioni di parole nello stesso respiro. . il tempo. .

Progetto AstraProgetto Astra

Google

Google ha presentato Project Astra, una prima versione di un assistente globale basato sull’intelligenza artificiale, che Demis Hassabis, CEO di DeepMind di Google, ha affermato essere la versione di Google di un agente AI “che potrebbe essere utile nella vita di tutti i giorni”.

In un video che secondo Google è stato girato in una sola ripresa, un utente Astra si muove nell’ufficio di Google a Londra tenendo il telefono e puntando la fotocamera su cose diverse – un altoparlante, un codice su una lavagna, fuori da una finestra – e ha una conversazione naturale con l’app su come appare Il comando. E in uno dei momenti più impressionanti del video, dice correttamente all’utente dove ha lasciato gli occhiali prima senza che l’utente li sollevasse mai.

Il video termina con una sorpresa: quando l’utente trova gli occhiali mancanti e li indossa, apprendiamo che hanno un sistema di telecamere integrato e sono in grado di utilizzare Project Astra per avere una conversazione senza interruzioni con l’utente, il che potrebbe suggerire che Google potrebbe lavorare su un concorrente degli occhiali intelligenti Ray Ban di Meta.

Chiedi le fotoChiedi le foto

Google

Google Foto era già intelligente quando si trattava di cercare foto o video specifici, ma con l’intelligenza artificiale, Google sta portando le cose al livello successivo. Se sei abbonato a Google One negli Stati Uniti, potrai porre a Google Foto una domanda complessa come “Mostrami la foto migliore di ogni parco nazionale che hai visitato” quando la funzione verrà implementata nei prossimi giorni. mesi. Google Foto utilizzerà le tue informazioni GPS e il proprio giudizio su ciò che è “migliore” per fornirti opzioni. Puoi anche chiedere a Google Foto di generare didascalie per pubblicare foto sui social media.

VisualizzazioneVisualizzazione

Google

I nuovi motori di creazione multimediale di Google basati sull’intelligenza artificiale si chiamano Veo e Imagine 3. Veo è la risposta di Google a Sora di OpenAI. Google ha affermato di essere in grado di produrre video 1080p di “alta qualità” che possono durare “più di un minuto” e di comprendere concetti cinematografici come il time-lapse.

Nel frattempo, Imagen 3 è un generatore di testo in immagine che secondo Google gestisce il testo meglio del suo predecessore, Imagen 2. Il risultato è il modello di testo in immagine di altissima qualità dell’azienda con un “straordinario livello di dettaglio” per risultati “realistici”. , immagini realistiche.” ” e meno artefatti, il che essenzialmente lo contrappone a DALLE-3 di OpenAI.

ricerca Googlericerca Google

Google

Google sta apportando grandi cambiamenti al funzionamento fondamentale della ricerca. La maggior parte degli aggiornamenti annunciati oggi riguardano la possibilità di porre domande davvero complesse (“Trova i migliori studi di yoga o pilates a Boston e visualizza i dettagli sulle offerte e sui tempi di percorrenza da Beacon Hill.”) e utilizzare la ricerca per pianificare pasti e vacanze. Non sarà disponibile a meno che non ti iscrivi a Search Labs, la piattaforma dell’azienda che consente alle persone di provare le funzionalità beta.

Ma la nuova grande funzionalità, che Google chiama AI Overviews e che l’azienda sta testando ormai da un anno, è finalmente disponibile per milioni di persone negli Stati Uniti. La Ricerca Google ora presenterà le risposte generate dall’intelligenza artificiale in cima ai risultati per impostazione predefinita e la società afferma che renderà la funzionalità disponibile a più di un miliardo di utenti in tutto il mondo entro la fine dell’anno.

Gemelli su AndroidGemelli su Android

Google

Google sta integrando Gemini direttamente in Android. Quando Android 15 verrà rilasciato entro la fine dell’anno, Gemini saprà quale app, foto o video stai riproducendo e sarà in grado di trascinarlo come overlay e porre domande specifiche al contesto. Dove finisce l’Assistente Google che lo fa già? Chi conosci! Google non ne ha parlato affatto durante il keynote di oggi.

Ci sono stati anche molti altri aggiornamenti. Google ha affermato che aggiungerà filigrane digitali a video e testi generati dall’intelligenza artificiale, renderà Gemini accessibile nel pannello laterale in Gmail e Documenti, supporterà un collega virtuale basato sull’intelligenza artificiale in Workspace, ascolterà le telefonate e rileverà se sei stato effettivamente truffato. tempo e molto altro ancora.

Segui tutte le novità del Google I/O 2024 in diretta Qui!

We will be happy to hear your thoughts

Leave a reply