Le protagoniste absolu de Google I/O 2024 était Gemini , l'intelligence artificielle développée à Mountain View, qui imprégnera tous les services de l'entreprise , et parmi ceux-ci, la recherche Google ne pouvait certainement pas manquer. La principale nouveauté concernant la combinaison de Gemini et de la recherche Google s'appelle AI Overviews , déjà déployée auprès de tous les utilisateurs américains, et d'autres pays seront bientôt disponibles. L'objectif est de proposer cette fonctionnalité à plus d' un milliard d'utilisateurs d'ici la fin de l'année . Quels sont ces aperçus de l’IA ? Au lieu de la liste habituelle de sites Web, Google collectera les réponses aux intentions de recherche des utilisateurs et les présentera sous une forme graphiquement plus intelligible. Il sera possible de visualiser une version simplifiée voire augmentée des réponses, et évidemment nous pourrons communiquer avec Google/Gemini pour les élargir et les enrichir. Lais qu’adviendra-t-il de tous ces sites Web qui sont la véritable source de ces résultats ? Sur la base des tests effectués, les liens inclus dans Ai Overviews devraient recevoir plus de clics que s'ils étaient apparus dans les résultats de recherche traditionnels, Google s'engageant à générer du trafic vers les éditeurs et les créateurs. Il faut prendre les propos de Google à ce sujet au pied de la lettre, même si les prémisses ne présagent rien de bon
Bientôt, à partir de l'anglais aux États-Unis, des capacités de raisonnement multi-niveaux arriveront également sur AI Overviews . Nous parlons de recherches telles que " trouvez les meilleurs studios de yoga ou de pilates à Boston et montrez-moi les détails de leurs offres de lancement et le temps de marche depuis Beacon Hill ", une requête si complexe que si vous essayiez de la transmettre maintenant à Google, vous n'obtiendrez que de nombreux liens différents qui répondent au plus à un de ces besoins. Et comme nous l'avons déjà vu, cette capacité à regrouper différentes intentions sera également très utile dans la planification des voyages . L'avantage de ces recherches complexes est que la modification d'un des paramètres sera immédiate, vous permettant d'ajuster le résultat à la volée, comme le montre l'animation ci-dessous.
D'autres exemples donnés par Google concernent par exemple la création de régimes personnalisés avec beaucoup de contraintes (micro-ondes, régimes particuliers, etc.). Honnêtement, c'est un peu un champ de mines, car lorsque l'on entre dans le domaine de la nutrition/santé, le premier conseil que l'on devrait vous donner est de contacter un spécialiste , car chacun de nous a besoin d'un accompagnement extrêmement personnalisé en la matière. Et ce sera peut-être un autre des problèmes de l’ubiquité de l’IA : qu’on croie qu’on peut tout faire avec. Mais laissons cela de côté pour l’instant, car nous ferions fausse route.
La possibilité d'utiliser nos smartphones pour des recherches en temps réel sur le monde réel ne pouvait pas manquer . Semblable à ce qu'OpenAI a montré avec ChatGPT , avec Google nous pourrons également utiliser la caméra sur Android pour filmer un objet et demander des informations à son sujet. La recherche vidéo, après la recherche basée sur le texte et l'image, est en bref la dernière frontière, mais elle ne sera disponible que dans une version bêta en anglais américain dans un avenir proche, avec l'intention de l'étendre à d'autres régions au fil du temps.
Bientôt, à partir de l'anglais aux États-Unis, des capacités de raisonnement multi-niveaux arriveront également sur AI Overviews . Nous parlons de recherches telles que " trouvez les meilleurs studios de yoga ou de pilates à Boston et montrez-moi les détails de leurs offres de lancement et le temps de marche depuis Beacon Hill ", une requête si complexe que si vous essayiez de la transmettre maintenant à Google, vous n'obtiendrez que de nombreux liens différents qui répondent au plus à un de ces besoins. Et comme nous l'avons déjà vu, cette capacité à regrouper différentes intentions sera également très utile dans la planification des voyages . L'avantage de ces recherches complexes est que la modification d'un des paramètres sera immédiate, vous permettant d'ajuster le résultat à la volée, comme le montre l'animation ci-dessous.
D'autres exemples donnés par Google concernent par exemple la création de régimes personnalisés avec beaucoup de contraintes (micro-ondes, régimes particuliers, etc.). Honnêtement, c'est un peu un champ de mines, car lorsque l'on entre dans le domaine de la nutrition/santé, le premier conseil que l'on devrait vous donner est de contacter un spécialiste , car chacun de nous a besoin d'un accompagnement extrêmement personnalisé en la matière. Et ce sera peut-être un autre des problèmes de l’ubiquité de l’IA : qu’on croie qu’on peut tout faire avec. Mais laissons cela de côté pour l’instant, car nous ferions fausse route.
La possibilité d'utiliser nos smartphones pour des recherches en temps réel sur le monde réel ne pouvait pas manquer . Semblable à ce qu'OpenAI a montré avec ChatGPT , avec Google nous pourrons également utiliser la caméra sur Android pour filmer un objet et demander des informations à son sujet. La recherche vidéo, après la recherche basée sur le texte et l'image, est en bref la dernière frontière, mais elle ne sera disponible que dans une version bêta en anglais américain dans un avenir proche, avec l'intention de l'étendre à d'autres régions au fil du temps.
Plus d'actualités dans cette catégorie