Publié le: 09/05/2025 @ 15:45:35: Par Nic007 Dans "Programmation"

- Déplacer un rendez-vous dans le calendrier ;
- Résumer le dernier email reçu ;
- Vérifiez la météo dans une ville spécifique.
En bref, des fonctions pratiques et concrètes, conçues pour la vraie vie. Et les touches attentionnées pour une utilisation quotidienne ne manquent pas : il y aura une option pour couper la voix de Gemini d'un simple toucher sur l'écran, utile à la salle de sport ou dans les lieux publics.
La mise à jour ne concerne pas seulement les fonctionnalités : l'interface bénéficiera également d'un joli peaufinage. Avec One UI 8 Watch, nous verrons des icônes repensées , plus cohérentes avec le style général du système. Les nouveaux éléments graphiques suivent un schéma en squircle , c'est-à-dire un carré aux coins arrondis, accompagné d'un cadre blanc bien défini . Ce détail améliore le contraste, même si certains utilisateurs peuvent le trouver esthétiquement peu attrayant. Une icône en particulier se démarque parmi les autres : celle de Gemini , déjà visible sur certaines smartwatches mais toujours liée à Google Assistant. Il convient de préciser que, même si l'icône est déjà présente, les fonctionnalités de l'IA ne sont pas encore actives , mais ce n'est qu'une question de temps avant que l'intégration ne soit complète, comme déjà mentionné dans la première partie de l'article.
Ce n’est pas la première fois que Samsung est en avance sur ses intégrations logicielles. Et cette fois encore, avec la One UI 8 Watch , elle pourrait être la première à sortir Gemini sur des montres connectées. Le choix de sauter One UI 7 Watch et de passer directement à la version 8 semble être une décision stratégique pour s'aligner sur la nouvelle direction de l'intelligence artificielle. Samsung travaille en étroite collaboration avec Google sur le front des montres intelligentes depuis des années, et le fait qu'une Galaxy Watch soit la première à recevoir des fonctionnalités d'IA ne devrait pas être une surprise. Pour le moment, les APK divulgués ne sont pas compatibles avec les anciens modèles , mais il est probable que les nouveaux appareils qui sortiront seront conçus pour profiter pleinement des nouvelles fonctionnalités offertes par Gemini. Et avec la prochaine conférence Google I/O 2025 qui approche à grands pas, nous n’aurons pas à attendre longtemps pour voir tout cela en action.
Lire la suite (0 Commentaires)
Publié le: 07/05/2025 @ 14:58:42: Par Nic007 Dans "Programmation"

Comme le rapporte le New York Times , c’est précisément ce processus de réflexion étape par étape qui pourrait devenir un problème. « Les technologies les plus récentes et les plus puissantes – les systèmes de raisonnement d’entreprises comme OpenAI, Google et la start-up chinoise DeepSeek – génèrent davantage d’erreurs, et non moins », explique le journal. À chaque étape de réflexion, le système pourrait introduire de nouvelles erreurs, qui deviendraient alors plus prononcées à mesure que le processus progresse. OpenAI elle-même déclare que des recherches supplémentaires sont nécessaires pour comprendre les causes exactes. « Les hallucinations ne sont pas intrinsèquement plus courantes dans les modèles de raisonnement, bien que nous travaillions activement à réduire les taux d'hallucinations plus élevés que nous avons observés dans o3 et o4-mini », a déclaré Gaby Raila, porte-parole d'OpenAI, au New York Times.
Les conséquences de cette évolution sont de grande portée. Les systèmes d’IA sont de plus en plus utilisés dans des domaines tels que l’éducation, la santé et le gouvernement, des environnements où les erreurs peuvent avoir de graves conséquences. Il existe déjà des rapports d'avocats citant des décisions judiciaires inexistantes générées par ChatGPT. Ce phénomène n’est pas entièrement nouveau dans l’histoire de l’intelligence artificielle. Dès les années 1980, les chercheurs ont observé ce qu'on appelle « l'effet Eliza », du nom d'un ancien chatbot , dans lequel les gens avaient tendance à attribuer au système plus de compréhension qu'il n'en possédait réellement. Les problèmes d’hallucinations actuels pourraient être considérés comme une variante moderne de cet effet – à la différence près que les systèmes eux-mêmes « croient » désormais en savoir plus qu’ils n’en savent réellement.
Lire la suite (0 Commentaires)
Publié le: 02/05/2025 @ 14:42:46: Par Nic007 Dans "Programmation"

- Cartes visuelles avec images, noms, prix et avis.
- Liens d'achat direct , pas de publicité ni d'affiliation.
- Données provenant de sources multiples , non influencées par des sponsors ou des préférences.
Toutes ces fonctionnalités sont disponibles même en étant déconnecté , donc tout le monde peut les utiliser. C'est un moyen rapide de se faire une idée avant un achat, sans passer d'un site à l'autre mais, comme toujours avec l'IA, il faut lui faire confiance , car les réponses seront toujours très sûres, mais cela ne veut pas dire qu'elles sont sans faille.
Une autre nouveauté concerne la vérifiabilité des informations . Lorsque ChatGPT nous donne une réponse, il peut désormais également afficher plusieurs sources pour chaque partie du texte. Ce que cela signifie en pratique : les sources sont mises en évidence au sein de la réponse , et chaque donnée possède une référence précise , de sorte que nous pouvons immédiatement comprendre d'où vient chaque affirmation , et éventuellement aller en savoir plus sur le site concerné. Il s’agit d’un grand pas en avant pour ceux qui souhaitent vérifier des informations ou les utiliser dans des contextes où l’exactitude compte, tout en citant consciencieusement les sources . Mais si nous devions ouvrir le chapitre sur la légitimité des données utilisées pour former ChatGPT maintenant , nous n’en finirions jamais.
Depuis l'année dernière, il est possible de discuter avec ChatGPT sur WhatsApp . Nous pouvons désormais envoyer un message au chatbot pour obtenir des réponses à jour et des résultats sportifs en direct. Pour paraphraser, la fonction de recherche Web aurait dû être intégrée à ChatGPT pour WhatsApp, alors qu'auparavant nous ne pouvions nous appuyer que sur la base de connaissances de ce modèle. Certainement un ajout utile, qui met une fois de plus la version WhatsApp de ChatGPT à égalité avec la version standard et relance le défi à Meta AI , qui vient de gagner sa première application .
Lire la suite (0 Commentaires)
Publié le: 29/04/2025 @ 14:29:22: Par Nic007 Dans "Programmation"

Le système utilise deux modèles différents, selon la version active :
- o3 pour la version complète, disponible uniquement pour les utilisateurs payants
- o4-mini pour la version light, accessible même à ceux qui ne paient pas
Les deux modèles fournissent des réponses structurées , mais le modèle léger produit des textes plus courts. OpenAI garantit que la qualité reste élevée , avec des réponses toujours complètes et bien organisées. La disponibilité et les performances de Deep Research varient selon le type d'abonnement sur ChatGPT. Vous trouverez ci-dessous un aperçu clair :
- Gratuit : 5 recherches/mois (version allégée uniquement)
- Plus et Team : 10 recherches/mois (version complète) + 15 recherches/mois (version light)
- Pro : 125 recherches/mois (version complète) + 125 recherches/mois (version allégée)
- Entreprise : 10 recherches/mois (version complète uniquement)
Une fois la limite de version complète atteinte, ChatGPT passe automatiquement à la version légère, sans plantage ni interruption. Une fois ceux-ci épuisés, il ne reste plus qu'à attendre le mois suivant, alors n'en abusez pas !
Lire la suite (0 Commentaires)
Publié le: 25/04/2025 @ 16:28:39: Par Nic007 Dans "Programmation"

Lire la suite (0 Commentaires)
Publié le: 22/04/2025 @ 18:49:34: Par Nic007 Dans "Programmation"

Après tout, l’intelligence artificielle est un domaine dans lequel chaque grande entreprise technologique souhaite conserver les utilisateurs dans son propre écosystème , surtout maintenant que nous en sommes encore au début et que la fidélité est très importante. Le choix de Meta montre comment les « guerres de l’IA » deviennent la norme : chaque plateforme met en avant son propre assistant propriétaire, limitant l’interopérabilité là où c’est possible. Pour nous, utilisateurs, le défi sera de comprendre quel écosystème privilégier , car les fonctions, les abonnements ou les paywalls pourraient diverger de plus en plus, mais s'il y a une chose que ces premières années d'IA nous ont appris, c'est que les choses peuvent changer radicalement , comme dans le cas des images ChatGPT , d'un jour à l'autre. Et cela ne vous aide certainement pas à décider.
Lire la suite (0 Commentaires)
Publié le: 22/04/2025 @ 14:46:18: Par Nic007 Dans "Programmation"

- Données en ligne accessibles au public
- Informations provenant d'agences de crédit
- Données des comptes de réseaux sociaux connectés (avec authentification unique)
- Informations provenant d'autres fournisseurs d'informations
eBay justifie cette collecte exhaustive de données par un « intérêt légitime » à améliorer ses services. L' agence de protection des consommateurs est toutefois critique à cet égard et a souligné les risques possibles. Les défenseurs des consommateurs mettent en garde contre les interprétations erronées des systèmes d’IA. Par exemple, si la faillite d'une personne portant le même nom qu'un utilisateur eBay est mentionnée en ligne, l'IA pourrait attribuer de manière incorrecte cette information au profil de l'utilisateur. Dans le pire des cas, des suspensions de compte ou d’autres restrictions peuvent survenir.
Lire la suite (0 Commentaires)
Publié le: 17/04/2025 @ 13:41:55: Par Nic007 Dans "Programmation"

Mais les caractéristiques notables de ces modèles vont au-delà des chiffres. Tout d'abord, o3 et o4-mini sont les premiers modèles capables d'utiliser indépendamment tous les outils ChatGPT , tels que la navigation Web, Python, la compréhension et la génération d'images. OpenAI donne un exemple : si vous lui demandez quelle sera la consommation d'énergie dans une zone donnée cet été par rapport à l'année dernière, le modèle peut rechercher sur le Web les données nécessaires, écrire du code Python pour générer une prévision, créer un graphique ou une image et expliquer les facteurs clés derrière la prévision. L’autre nouveauté concerne la capacité de « penser » avec des images. Cela signifie que les utilisateurs peuvent télécharger des images sur ChatGPT, telles que des croquis ou des diagrammes à partir de fichiers PDF, et les modèles analyseront les images pendant leur phase de « chaîne de pensée » avant de répondre. Grâce à cette nouvelle capacité, les o3 et o4-mini peuvent interpréter des images floues et de mauvaise qualité et effectuer des tâches telles que le zoom ou la rotation des images pour mieux les comprendre (un peu comme nous l'avons vu lors du lancement de Gemini 2.0 ). De plus, les nouveaux modèles ont été évalués par le Safety Advisory Group (SAG) d’OpenAI et ne répondent pas au seuil de sécurité pour les capacités en biologie, chimie, cybersécurité ou IA. Le PDG d'OpenAI, Sam Altman, a déclaré que o3 et o4-mini pourraient être les derniers modèles de raisonnement indépendants avant le lancement de GPT-5, un modèle qui, comme GPT-4.1 l'a fait pour les modèles traditionnels, unifiera les modèles de raisonnement.
À partir d'aujourd'hui, les modèles, ainsi qu'une variante de o4-mini appelée « o4-mini-high » qui passe plus de temps à fournir des réponses pour améliorer la fiabilité, sont disponibles pour les abonnés aux plans Pro (avec accès illimité), Plus et Team d'OpenAI (tous deux avec une limite de 150 requêtes par jour). Dans les semaines à venir, OpenAI annonce son intention de publier o3-pro , une version d'o3 qui utilise davantage de ressources informatiques pour produire ses réponses, exclusivement pour les abonnés ChatGPT Pro . En plus de ChatGPT, les trois modèles (o3, o4-mini et o4-mini-high) seront disponibles pour les développeurs via l'API Chat Completions et l'API Responses aux prix suivants :
- o3 : 10 $ par million de jetons d'entrée (environ 750 000 mots) et 40 $ par million de jetons de sortie
- o4-mini : 1,10 $ par million de jetons d'entrée et 4,40 $ par million de jetons de sortie.
OpenAI lance également Codex CLI , un agent de programmation léger et open source qui s'exécute localement dans le terminal de l'utilisateur. Pour soutenir les premiers projets, il lance également une initiative d’un million de dollars. Le financement sera accordé en tranches de 25 000 $ sous forme de crédits API.
Lire la suite (0 Commentaires)
Publié le: 17/04/2025 @ 13:37:27: Par Nic007 Dans "Programmation"

Dans la section Bibliothèque, nous trouvons également un lien rapide pour commencer à générer des images. Dans l'application ChatGPT, nous le trouvons en bas, tandis que dans la version de bureau, nous le trouvons en haut à droite. Pour accéder à cette nouvelle section Bibliothèque, ouvrez simplement le menu latéral à gauche en le sélectionnant en haut de la liste, juste au-dessus des options d'accès à l'historique des conversations. La même chose se produit lors de l'utilisation de ChatGPT sur le bureau, avec la section Bibliothèque toujours présente dans le menu latéral. La nouvelle fonctionnalité que nous venons de voir est actuellement distribuée automatiquement à tout le monde et est également disponible pour les utilisateurs de Free ChatGPT.
Lire la suite (0 Commentaires)
Publié le: 15/04/2025 @ 15:15:08: Par Nic007 Dans "Programmation"

- WhatsApp : seuls les messages que nous échangeons avec Meta AI ou partageons avec elle sont utilisés
- Instagram et Facebook : Cela dépend du contenu. Comme avec WhatsApp, les messages privés ne sont pas utilisés pour former les modèles, mais les conversations avec Meta AI le sont. Le contenu que nous partageons publiquement sur Instagram et Facebook peut plutôt être utilisé pour former l’IA
L'année dernière, Meta a bloqué l'arrivée de son IA en Europe pour cette même raison (en raison de l'intervention de la Commission irlandaise de protection des données), et a maintenant reçu le feu vert du Comité européen de la protection des données. Meta réitère que les données des comptes publics des personnes de moins de 18 ans dans l’UE ne sont pas utilisées à des fins de formation. Meta explique qu'elle forme son IA pour l'aider à créer des modèles qui reflètent les régions où ils sont utilisés. Ce processus permet à Meta AI de « comprendre les nuances et complexités incroyables et diverses qui composent les communautés européennes », des dialectes aux connaissances hyperlocales en passant par différents types de sarcasme. La fonctionnalité deviendra encore plus importante à mesure que les modèles deviendront plus avancés , avec des capacités multimodales couvrant le texte, la voix, la vidéo et les images. Ce processus a déjà eu lieu aux États-Unis et en Grande-Bretagne , ainsi que dans tous les autres pays où Meta AI a déjà été lancé. Meta explique également comment ils font essentiellement la même chose que Google et OpenAI ont déjà fait (et continuent de faire) .
Il existe deux manières de refuser le partage de vos données avec Meta AI : ne l'utilisez pas et remplissez ce formulaire https://www.facebook.com/help/contact/712876720715583 (vous devez vous connecter à Facebook) pour demander la suppression des données . Entendre que l’IA apprend à partir de nos données n’est jamais agréable. Mais est-ce vraiment une nouvelle ou est-ce si sérieux ? Commençons par le passé : l'année dernière , Meta a admis avoir formé Meta AI avec toutes les données, textes et images que les utilisateurs adultes avaient partagés publiquement sur Facebook depuis 2007. Ainsi, au moins jusqu’en 2024, tout contenu que nous publions sur Facebook a été digéré par Meta AI. C’est ce qui a été reconnu, mais nous savons que l’IA a un énorme besoin de données et au moins jusqu’à récemment, toute entreprise comme OpenAI ou Google a parcouru le Web à la recherche de contenu qui leur permettrait d’améliorer leurs modèles (et de se plaindre ensuite si quelqu’un d’autre faisait de même). Non pas que la démarche de Meta soit agréable, mais la seule façon dont nous disposons pour nous défendre contre ce phénomène est de ne pas utiliser ces outils, ou du moins de les utiliser de manière responsable, conscients de leurs limites et de leur fonctionnement. Et c'est pourquoi l'IA sur appareil (à la fois Apple Intelligence mais surtout des outils comme LM Studio) ou l'IA « éthique » comme Claude (qui n'est malheureusement pas sans défauts dans ce sens non plus) sont de plus en plus importantes.
Lire la suite (0 Commentaires)