Publié le: 12/12/2025 @ 14:38:56: Par Nic007 Dans "Programmation"
ProgrammationFace à la pression exercée par Gemini , OpenAI lance GPT 5.2 , doté d'une suite de fonctionnalités dédiées aux tâches spécialisées et aux flux opérationnels complexes . Les nouveautés concernent principalement la gestion de tâches complexes , de l'analyse de documents volumineux à la production de documentation technique. L'entreprise se proclame « leader en matière de benchmarks concrets », avec une nette amélioration de la qualité des opérations de raisonnement , ainsi qu'une plus grande stabilité lors des séries de production plus longues . La variante GPT 5.2 Thinking obtient d'excellents résultats lors des évaluations professionnelles. Dans le benchmark GDPval , qui mesure les tâches de connaissances structurées dans 44 professions, le modèle atteint 70,9 % de réponses considérées comme correctes ou comparables à celles des experts du secteur, contre 38,8 % pour GPT-5. Le temps de production est plus court et les coûts de l'API sont réduits grâce à une meilleure efficacité des jetons. Lors de tests internes dédiés à la modélisation par des analystes financiers juniors , la série 5.2 atteint un score moyen de 68,4 % , ce qui représente une amélioration par rapport à la génération précédente. Les résultats comprennent des activités telles que la construction de modèles à trois bilans et des simulations de rachats par endettement . Une comparaison côte à côte avec les versions précédentes montre des documents plus cohérents et mieux formatés , tant dans les feuilles de calcul que dans les présentations , y compris dans des cas comme la création de modèles de planification des effectifs qui intègrent plusieurs départements et variables.

Côté programmation , GPT 5.2 Thinking obtient un score de 55,6 % sur SWE Bench Pro , qui propose des scénarios concrets dans quatre langages différents. Sur SWE Bench Verified , plus proches des situations de maintenance Python, ce score atteint 80 % . Les retours des développeurs font état d'une meilleure gestion du refactoring, du débogage et de la mise en œuvre de requêtes complexes. La série s'améliore également dans les applications front-end , y compris dans les cas nécessitant des interfaces avec des éléments tridimensionnels, comme le démontrent des exemples où le modèle génère des applications complètes dans un seul fichier HTML . Dans la gestion de contexte long , GPT 5.2 Thinking atteint des valeurs proches de 100 % dans la variante à quatre indices du test MRCR jusqu'à 256 000 jetons , ce qui permet d'analyser des documents tels que des rapports d'entreprise, des contrats complexes, des recherches scientifiques et des projets multi-fichiers. Au niveau de la vision , les erreurs sont considérablement réduites lors de la lecture des interfaces graphiques et logicielles . Dans les scénarios nécessitant l'identification des composants et de leur disposition spatiale, le modèle peut identifier les éléments de la carte électronique avec une plus grande précision, même sur des images de faible qualité.

L'invocation d'outils atteint un score de 98,7 % au test de performance Tau2 Telecom , ce qui est particulièrement utile pour les flux de travail nécessitant des séquences d'opérations coordonnées, comme la gestion des dossiers clients. Dans un exemple évalué, GPT 5.2 gère l'intégralité du processus de modification de réservation de vol, d'attribution de sièges spéciaux et de procédures d'indemnisation. Dans les disciplines scientifiques et mathématiques , GPT 5.2 Pro obtient un score de 93,2 % sur GPQA Diamond , tandis que GPT 5.2 Thinking obtient un score de 40,3 % sur FrontierMath dans les catégories 1 à 3, démontrant une résolution plus fiable des problèmes à plusieurs étapes. En matière de sécurité , le modèle réduit les réactions inappropriées dans des domaines sensibles tels que la santé mentale et l'automutilation , avec des améliorations mesurables des évaluations internes. Un système de détection de l'âge est mis en place pour activer automatiquement des protections supplémentaires.

La gamme GPT 5.2 est disponible à partir des abonnements payants de ChatGPT et désormais également via l' API . Le coût est de 1,75 $ (environ 1,60 €) pour un million de jetons entrants et de 14 $ (environ 13 €) pour un million de jetons sortants. La version GPT 5.2 Pro coûte 168 $ (environ 153 €) pour un million de jetons générés. Les versions 5.1 restent utilisables pour le moment et leur arrêt n'est pas prévu à court terme. Le communiqué de presse d'OpenAI remercie également Nvidia et Microsoft , qui ont fourni l'infrastructure basée sur les GPU NVL72 H100 , H200 et GB200 pour la phase d'entraînement. Cela montre que dans le domaine de l'IA, les sept géants du numérique collaborent étroitement. Il est clair, cependant, que la sortie de GPT-5.2 est une réponse à Gemini 3 Pro : nous ne nous souvenons pas d’un lancement précédent d’OpenAI aussi riche en benchmarks et comparaisons , manifestement destinés à souligner les progrès accomplis . Or, quiconque utilise régulièrement des modèles de langage (LLM) sait pertinemment que l’usage réel et la perception de l’utilisateur sont souvent très éloignés des benchmarks , à tel point qu’un pan entier de la recherche est consacré à l’invention de nouvelles méthodes pour « mesurer l’intelligence » : une tâche loin d’être simple.
Lire la suite (0 Commentaires)
Publié le: 12/12/2025 @ 14:37:27: Par Nic007 Dans "Programmation"
ProgrammationDisney et OpenAI ont conclu une alliance qui représente une avancée majeure pour l'utilisation de l'IA dans l'industrie du divertissement. Cet accord permet de créer du contenu mettant en scène des personnalités connues, tout en garantissant la protection des créateurs et du public. Le projet concerne l'ensemble de l'écosystème des marques Disney , grâce à une licence qui ouvre la voie à de nouveaux formats vidéo et à de nouveaux outils, tant pour les fans que pour les employés de l'entreprise. Ce contrat de trois ans autorise la plateforme Sora à créer de courtes vidéos générées à partir de requêtes textuelles. Le système exploite plus de 200 personnages issus d'univers tels que Marvel , Pixar , Star Wars et les séries animées Disney, ainsi que des costumes, des véhicules et des décors emblématiques. Disney prévoit d'intégrer une sélection de ce contenu sur Disney+ , offrant un espace dédié au visionnage de vidéos créées avec Sora. Le catalogue comprend des figurines telles que Mickey Mouse , Ariel , Belle , Simba , ainsi que des personnages de films comme La Reine des neiges , Vaiana , Toy Story et Zootopie , sans oublier des versions illustrées de personnages Marvel et Lucasfilm, notamment Captain America , Iron Man , Dark Vador , Luke Skywalker et le Mandalorien . Le contrat prévoit également l'utilisation des API d'OpenAI pour créer de nouveaux outils et fonctionnalités internes pour Disney+ , ainsi que l'adoption de ChatGPT par les employés de l'entreprise. Il inclut par ailleurs un investissement d'un milliard de dollars dans OpenAI et des subventions permettant à Disney d'acquérir des parts supplémentaires.

Les deux sociétés réaffirment leur volonté de maintenir des contrôles rigoureux afin de prévenir la diffusion de contenus illégaux et préjudiciables . L'accord interdit formellement l'utilisation de la voix et de l'image des acteurs et établit des restrictions spécifiques concernant la gestion des droits de propriété intellectuelle. OpenAI continuera de mettre en place des mesures et des outils de sécurité adaptés à l'âge afin de limiter les abus du service. Cette collaboration vise à promouvoir une utilisation de l'IA qui privilégie la protection des utilisateurs et le respect des œuvres créatives. Les deux sociétés ont également l'intention de développer des fonctionnalités qui intègrent des modèles OpenAI à l'expérience Disney+ , élargissant ainsi les possibilités de profiter du contenu sans modifier le rôle des œuvres originales. Les premières productions utilisant des personnages sous licence sont attendues début 2026. À ce moment-là, Sora et ChatGPT Images commenceront à créer de courtes vidéos et images textuelles. La transaction est encore soumise à la finalisation des accords et à l'approbation du conseil d'administration. Cet accord intervient à un moment où l'industrie du divertissement définit les règles et les limites de l'utilisation de l'IA, et constitue un test pour déterminer si ces outils peuvent véritablement coexister avec le respect des droits d'auteur. C'est assurément un défi qui exige un juste équilibre , surtout lorsqu'il s'agit de personnages si profondément ancrés dans la culture populaire.
Lire la suite (0 Commentaires)
Publié le: 11/12/2025 @ 15:04:52: Par Nic007 Dans "Programmation"
ProgrammationLes États-Unis ont récemment autorisé l'exportation des accélérateurs d'intelligence artificielle Nvidia H200 vers la Chine , moyennant une taxe de 25 % sur ces échanges. Les analystes considèrent cette décision comme une mesure stratégique dans la course technologique mondiale, et non comme un simple accord commercial. Selon un article de Bloomberg, la principale motivation de cette décision réside dans l'inquiétude suscitée par le développement rapide des systèmes informatiques chinois, dont les performances se rapprochent désormais de celles des systèmes américains. Les autorités de Washington estimaient qu'autoriser les exportations de H200, tout en maintenant l'interdiction des architectures plus récentes comme la série Blackwell, permettrait de préserver un avantage architectural dans des segments clés du marché de l'intelligence artificielle. Dans une déclaration officielle, Kush Desai, porte-parole de la Maison-Blanche, a évoqué la détermination de l'administration Trump à maintenir la domination de l'écosystème technologique américain sans compromettre la sécurité nationale.

La décision d'autoriser les exportations du H200 a coïncidé avec des inquiétudes croissantes concernant les progrès de Huawei. Le fabricant chinois développe ses propres systèmes d'accélération d'IA, tels que les processeurs CloudMatrix 384 et Ascend 910C. Ces deux solutions ont été reconnues par l'industrie pour leurs performances comparables à celles des plateformes basées sur le H200 ou sur le Nvidia GB200 NVL72, son concurrent. Huawei met en avant les performances de ces solutions et, selon des sources de Bloomberg, les prévisions tablent sur une production à grande échelle des puces Ascend 910C dès 2026. Des analystes américains ont comparé les capacités du CloudMatrix 384 à celles de la plateforme GB200, reconnaissant son potentiel mais soulignant des compromis en matière d'efficacité énergétique et de performances globales. Selon certaines sources, Huawei prévoit de produire jusqu'à 600 000 processeurs 910C l'année prochaine. Ce scénario a suscité une vive réaction des autorités à Washington, qui estiment que l'introduction du H200 en Chine, sous contrôle des exportations, pourrait freiner la concurrence croissante.

Bien que les exportations du H200 soient autorisées, les États-Unis maintiennent l'interdiction de vente des architectures Blackwell plus récentes. Cette composante de l'offre de Nvidia est à la pointe de la technologie et constitue le fondement de nombreux modèles d'IA avancés et de systèmes de calcul haute performance. Selon les stratèges de Washington, limiter l'accès de la Chine à Blackwell vise à empêcher la fuite de technologies informatiques critiques hors du contrôle occidental. Cette décision s'inscrit dans une démarche visant à limiter l'accès aux technologies de pointe aux pays considérés comme concurrents dans la course technologique mondiale. Le maintien du H200 dans le marché, sous contrôle des exportations, permet de satisfaire partiellement les besoins des entreprises chinoises qui dépendent encore largement du logiciel et de l'écosystème CUDA. De nombreux outils et bibliothèques de l'écosystème d'IA sont optimisés pour les architectures Nvidia, ce qui facilite l'intégration et l'entraînement de modèles complexes.

Malgré les ambitions de la Chine concernant son propre jeu d'instructions CANN open source, de nombreuses entreprises privilégient encore les accélérateurs Nvidia. Par exemple, des plateformes comme Deepseek utilisent du matériel basé sur CUDA pour entraîner des modèles avancés, en tirant parti de la vaste suite d'outils de développement existante. La communauté des développeurs d'IA et des centres de données s'est habituée aux outils et bibliothèques compatibles avec l'écosystème Nvidia, et la migration vers les nouvelles normes progresse lentement. De ce fait, les accélérateurs de l'entreprise revêtent une valeur exceptionnelle, malgré l'augmentation des investissements dans les solutions locales en Chine et les efforts déployés pour créer un environnement compétitif basé sur les réseaux de neurones artificiels convolutifs (CANN).

Selon des sources de Bloomberg, l'administration américaine analysait différentes options en matière de politique d'exportation. Parmi celles-ci figurait une interdiction totale de la vente des puces H200, ce qui aurait constitué un durcissement drastique de la politique d'exportation après les restrictions précédemment imposées aux puces Nvidia H20. Une autre possibilité consistait même à inonder délibérément le marché des exportations afin de submerger les technologies concurrentes de Huawei. Finalement, une stratégie de compromis a été retenue, autorisant les exportations sous réserve du paiement de droits de douane et de contrôles conformes à la réglementation en vigueur. La décision américaine a des répercussions importantes sur le paysage technologique mondial. Le maintien de l'accès de la Chine à l'architecture H200 signifie que les entreprises chinoises pourront continuer à utiliser des architectures d'accélération basées sur CUDA, essentielles au développement de leurs projets et recherches en intelligence artificielle. Parallèlement, la limitation de l'accès aux architectures Blackwell plus récentes devrait ralentir les progrès technologiques dans les domaines exigeant une puissance de calcul élevée.
Lire la suite (0 Commentaires)
Publié le: 10/12/2025 @ 15:00:25: Par Nic007 Dans "Programmation"
ProgrammationLa Linux Foundation a annoncé mardi la création de l'Agentic AI Foundation, une organisation visant à établir des normes uniformes et neutres pour superviser le développement des infrastructures d'agents d'IA. Cette initiative fait suite au chaos croissant qui entoure une technologie devenue à la fois source d'admiration et d'échecs retentissants. Les agents d'IA sont des systèmes qui combinent des modèles d'apprentissage automatique à la capacité de manipuler d'autres logiciels. Concrètement, ils peuvent faire fonctionner des navigateurs, exécuter des commandes dans un environnement de développement et même interagir avec les systèmes d'exploitation. Le secteur aborde cette catégorie d'outils avec une prudence croissante. Gartner a avancé que de nombreuses entreprises abandonneraient les projets basés sur des agents en raison d'un manque de valeur commerciale démontrée. Néanmoins, la Fondation Linux a décidé de jouer un rôle d'arbitre neutre au sein de cet écosystème en développement.

La nouvelle organisation est lancée avec un ensemble spécifique de technologies. Anthropic a contribué le protocole MCP (Model Context Protocol), un mécanisme permettant d'intégrer de grands modèles de langage à des outils. Block a contribué le projet Goose, développé comme un framework open source pour les agents. OpenAI a publié AGENTS.md, un document décrivant les principes de définition des agents sous la forme d'un fichier README lisible par machine. « OpenAI a toujours pensé que des protocoles partagés et pilotés par la communauté étaient essentiels au bon fonctionnement de l'écosystème des agents. C'est pourquoi nous avons publié le code source d'éléments constitutifs clés comme l'interface de ligne de commande Codex, le kit de développement logiciel Agents et maintenant AGENTS.md », a déclaré Nick Cooper, membre de l'équipe technique d'OpenAI. Jim Zemlin, directeur exécutif de la Linux Foundation, a souligné que la gouvernance collaborative vise à garantir la transparence et la stabilité qui font défaut aux initiatives dépendant d'entreprises individuelles. Selon lui, seul un modèle de gouvernance ouvert permet un développement durable des infrastructures d'intelligence artificielle. Nick Cooper, membre de l'équipe technique d'OpenAI, a souligné que les agents d'IA nécessitent des protocoles fiables et l'accès à des outils permettant de créer un écosystème cohérent. Il a insisté sur le fait qu'OpenAI publie depuis longtemps des composants essentiels au développement d'agents, notamment l'interface de ligne de commande Codex et le kit de développement logiciel Agents.

Les annonces officielles des entreprises soutenant l'AAIF étaient empreintes d'optimisme. Pourtant, le développement d'agents se heurte à des réalités difficiles. Microsoft aurait revu à la baisse ses prévisions concernant la plateforme Azure Foundry, chargée de la création d'agents, même si l'entreprise a assuré à CNBC que ses objectifs de vente globaux pour ses services d'IA restaient inchangés. Google est critiqué suite à des incidents impliquant son agent logiciel Antigravity, basé sur Gemini. Des failles de sécurité ont été découvertes peu après son lancement, et un bug a entraîné l'effacement du disque dur du développeur. Replit a connu une situation similaire lorsque son agent d'IA a effectué des opérations ayant provoqué une perte de données dans sa base de données de production. L'ampleur de ces erreurs a suscité un avertissement officiel de la part de Gartner. Les analystes ont conseillé aux entreprises d'interdire l'utilisation des navigateurs basés sur des agents. Malgré cela, les entreprises continuent de déployer des systèmes d'automatisation pilotés par des modèles de langage, même face à des erreurs retentissantes comme celle d' Air Canada , dont le chatbot a entraîné des conséquences juridiques coûteuses.

Gartner prévoit que d'ici 2028, le nombre d'agents commerciaux utilisant l'IA sera dix fois supérieur à celui des commerciaux traditionnels. Les analystes estiment également que moins de 40 % des équipes commerciales constateront une amélioration de leur productivité. Le décalage entre enthousiasme et efficacité est devenu un sujet de débat majeur concernant les agents commerciaux. La création de la Fondation Agentic AI marque une nouvelle étape. D'une part, le secteur se dote d'une plateforme centrale pour la standardisation des infrastructures ; d'autre part, les défis opérationnels et d'image se développent plus rapidement que les outils conçus pour les gérer. Reste à savoir si une fondation neutre sera capable de maîtriser un écosystème qui a déjà échappé au contrôle des entreprises individuelles.
Lire la suite (0 Commentaires)
Publié le: 10/12/2025 @ 13:24:21: Par Nic007 Dans "Programmation"
ProgrammationLes voitures modernes regorgent aujourd'hui d'électronique et de systèmes en ligne censés améliorer la sécurité et le confort du conducteur, mais le récent cas survenu en Russie montre qu'un excès de technologie peut se retourner contre les conducteurs, en encombrant littéralement les véhicules. Fin novembre, dans de nombreuses villes russes, des propriétaires de Porsche ont constaté que leurs véhicules ne démarraient pas ou calaient peu après le démarrage. Rolf, le plus grand concessionnaire de Russie, a confirmé que la cause du problème était un défaut de communication par satellite avec le système de suivi des véhicules (VTS), un module installé en usine sur toutes les Porsche fabriquées après 2013. Après la perte du signal, les véhicules ont supposé être victimes d'une tentative d'effraction. Une procédure de sécurité automatique s'est déclenchée, incluant l'immobilisation du moteur et la coupure de l'alimentation en carburant. De fait, les véhicules étaient totalement immobilisés, bien qu'aucune tentative de vol n'ait été constatée. Un représentant du service après-vente de Rolf a reconnu que tous les modèles de moteurs thermiques couverts par le système VTS ne communiquaient pas encore.

Certains utilisateurs ont réussi à redémarrer leur véhicule en désactivant ou en réinitialisant le module VTS. D'autres ont utilisé une méthode plus simple : débrancher complètement la batterie pendant une durée pouvant aller jusqu'à 10 heures. Des garages locaux auraient également mis au point une procédure de réparation officielle, qui nécessite un démontage partiel de l'habitacle pour accéder au panneau de commande de l'alarme. Le problème n'a touché que les véhicules situés en Russie. Bien qu'aucun élément ne permette de conclure à une intervention intentionnelle de tiers, un porte-parole de Rolf a admis qu'« il n'est pas possible d'exclure un acte délibéré ». L'enquête sur les causes de la panne est toujours en cours. Il convient de rappeler que Porsche, comme la plupart des marques occidentales, a suspendu ses ventes en Russie suite à l'invasion de l'Ukraine en 2022. Cependant, l'entreprise possède toujours plusieurs sociétés dans le pays qui n'ont pas été vendues.

Cette situation constitue un nouveau signal d'alarme pour l'industrie automobile. La multiplication des systèmes connectés accroît non seulement les fonctionnalités des voitures, mais aussi leur vulnérabilité aux pannes et aux utilisations abusives. Un simple problème de connectivité suffit à rendre inutilisable une voiture de luxe. Des problèmes de confidentialité se posent également. Dès 2024, des cas ont été rendus publics où des voitures équipées de systèmes télématiques transmettaient des données sur le style de conduite aux assureurs, souvent à l'insu des propriétaires. Des rapports récents en provenance d'Europe font également craindre que des bus électriques chinois puissent être désactivés à distance par leur constructeur au sein de l'UE. Bien que ces pratiques n'aient pas été confirmées, le simple fait que des enquêtes soient en cours témoigne de l'importance accordée actuellement aux risques liés aux véhicules hyperconnectés.
Lire la suite (0 Commentaires)
Publié le: 09/12/2025 @ 00:22:33: Par Nic007 Dans "Programmation"
ProgrammationOpenAI est critiquée pour sa nouvelle fonctionnalité ChatGPT, perçue comme une forme de publicité. Bien que la plateforme ait expliqué qu'il ne s'agissait pas de publicité, elle n'a visiblement pas convaincu les utilisateurs et a finalement retiré la fonctionnalité. Au cours des conversations, ChatGPT a commencé à afficher des messages faisant la promotion des services de diverses entreprises, dont Peloton et Target. Bien qu'OpenAI ait assuré qu'il ne s'agissait pas de publicités et qu'il y avait eu un malentendu, l'ensemble du dispositif n'étant qu'une expérience, l'entreprise a depuis désactivé cette fonctionnalité. Mark Chen, directeur de recherche chez OpenAI, a admis que la plateforme n'avait pas su gérer la nouvelle fonctionnalité. « Je conviens que tout ce qui ressemble à de la publicité doit être traité avec prudence, et nous reconnaissons notre erreur », a écrit Chen, en présentant ses excuses aux utilisateurs. L'entreprise a temporairement désactivé la fonctionnalité, qui générait des suggestions indésirables, et s'est engagée à poursuivre l'amélioration de la précision du modèle.

Les premiers signalements de publicités sur ChatGPT ont semé la confusion parmi les abonnés, qui ont constaté que l'application diffusait du contenu promotionnel. OpenAI assure qu'il ne s'agissait pas de véritables publicités, mais simplement de tests de nouvelles méthodes de présentation pour les applications créées sur la plateforme ChatGPT. « Il n'y a aucun test publicitaire ; toutes les captures d'écran que vous avez vues sont fictives et n'ont aucun lien avec la publicité », a déclaré Nick Turley, PDG de ChatGPT. Bien qu'OpenAI nie officiellement que la publicité fasse partie de ses activités, l'entreprise reconnaît que cette option pourrait être envisagée à l'avenir. « Si nous décidons d'intégrer de la publicité, nous procéderons avec la plus grande prudence. Les utilisateurs font confiance à ChatGPT, et toute modification sera conçue pour respecter cette confiance », a assuré Turley. Pour l'instant, il n'y a donc pas de publicités, mais rien ne garantit qu'elles n'apparaîtront pas à l'avenir. Ce serait toutefois une décision risquée pour OpenAI, compte tenu de la réaction de la communauté face à l'ajout de suggestions d'applications personnalisées à ChataGPT. Ces publicités ne devraient certainement pas figurer dans la version payante du chatbot, car les utilisateurs paient justement pour éviter ce type de contenu, entre autres raisons.

Pour rappel, des entreprises comme Booking.com, Canva, Coursera, Figma, Expedia, Spotify et Zillow ont participé à ces tests, et leurs applications ont été promues via ChatGPT. OpenAI doit cependant faire face à la popularité croissante de Gemini 3, qui a conquis 200 millions d'utilisateurs en seulement trois mois. Cet outil pourrait bien remettre en cause la position dominante du chatbot d'OpenAI.
Lire la suite (0 Commentaires)
Publié le: 04/12/2025 @ 00:01:55: Par Nic007 Dans "Programmation"
ProgrammationUne nouvelle fonctionnalité de suggestion dans l'application ChatGPT a suscité la controverse, certains utilisateurs l'ayant prise par erreur pour de la publicité. OpenAI assure cependant que le chatbot populaire n'affichera pas ce type de contenu et que cette suggestion est une simple erreur. Malgré cela, certains laissent entendre que l'organisation, en difficulté financière, finira par diffuser des publicités. Tout a commencé par une conversation où ChatGPT a suggéré l'application Peloton, sans aucun rapport avec le sujet abordé. Au cours de la conversation, le chatbot a écrit : « Trouver un cours de fitness › Se connecter à Peloton ». Ce texte a surpris les utilisateurs, notamment ceux abonnés à la version Pro payante, qui coûte la somme exorbitante de 200 $ par mois. Des inquiétudes ont été soulevées quant à l'affichage de publicités par OpenAI, même dans les abonnements payants, ce que beaucoup ont jugé inacceptable. Une capture d'écran partagée par Kolov Tregaskes est rapidement devenue virale. Des utilisateurs ont alors suggéré que ChatGPT affichait des publicités pendant les conversations. Cette polémique a été alimentée par Yuchen Jin, cofondateur de la startup d'IA Hyperbolic, qui a reçu une suggestion identique lors d'une conversation avec un chatbot au sujet d'Elon Musk, un sujet qui, rappelons-le, n'avait aucun rapport avec la discussion.

OpenAI a rapidement réagi à ces signalements et a précisé qu'il ne s'agissait pas d'une publicité. Daniel McAuley, responsable des données, a expliqué que la recommandation de l'application Peloton par le chatbot n'était pas une forme de publicité. Il s'avère que ce qui avait été initialement pris pour un bug ou une publicité est en réalité une nouvelle fonctionnalité de ChatGPT, qui suggère aux utilisateurs d'utiliser un produit spécifique au cours d'une conversation. Parmi les entreprises participant au test figurent Booking.com, Canva, Coursera, Figma, Expedia, Spotify et Zillow. Ce groupe s'agrandira ultérieurement. L'outil est encore en développement et, comme vous pouvez le constater, génère des suggestions non pertinentes au contexte de la conversation. Ces suggestions sont affichées aux utilisateurs situés hors de l'Union européenne, de la Suisse et du Royaume-Uni et disposant d'un abonnement Go, Plus ou Pro. OpenAI affirme que ses suggestions sont facultatives, contextuelles et non monétisées. L'entreprise souligne que l'objectif n'est pas d'afficher des publicités payantes, mais d'améliorer la qualité des interactions avec les applications. Cependant, comme le montrent les premiers tests, cette fonctionnalité nécessite encore des améliorations pour que les suggestions soient plus pertinentes, utiles et facilement distinguables des publicités classiques.
Lire la suite (0 Commentaires)
Publié le: 01/12/2025 @ 18:25:30: Par Nic007 Dans "Programmation"
ProgrammationOpenAI teste en interne la publicité au sein de ChatGPT , une nouvelle fonctionnalité qui modifiera pour la première fois l'expérience utilisateur de l'application. Le sujet reste délicat, la plateforme s'étant jusqu'à présent abstenue de toute forme de promotion directe. La version bêta 1.2025.329 de l'application Android fait mention du nouveau système et évoque des fonctionnalités telles que les annonces de recherche et les annonces carrousel . Cette mention a suscité l'intérêt car elle laisse entrevoir un changement qui impactera l'utilisation de ce chatbot populaire . Cette fuite confirme qu'OpenAI a inséré des références explicites dans l'application à du contenu classé comme contenu de type « bazar » . Ce terme désigne des modules conçus pour promouvoir des produits ou des services dans les résultats de recherche. L'entreprise semble limiter dans un premier temps ces publicités à l' expérience de recherche uniquement , sans affecter les réponses classiques. Cette approche imite le fonctionnement des liens sponsorisés dans les moteurs de recherche traditionnels, mais elle est adaptée au format conversationnel de ChatGPT.

Par ailleurs, Google travaille également sur quelque chose de similaire : jusqu’à présent, l’IA nous a seulement fait croire qu’elle nous avait libérés de la publicité. Cette nouvelle pèse sur le secteur car ChatGPT traite environ 2,5 milliards de requêtes par jour, avec une base d'utilisateurs qui, selon des estimations internes, atteint 800 millions d'utilisateurs hebdomadaires . C'est pourquoi nous sommes certains qu'OpenAI voudra procéder avec prudence, mais que la direction prise ne changera pas, compte tenu des opportunités de monétisation. La discussion est également liée à des rumeurs antérieures rapportées par d'autres sources, selon lesquelles OpenAI évaluerait des formes de promotion basées sur la mémoire conversationnelle , mais pour l'instant, il n'y a aucune trace de celles-ci, notamment parce qu'elles susciteraient certainement la controverse. ChatGPT s'est jusqu'à présent tenu à l'écart de toute promotion, mais l'adoption d'un système publicitaire dans les résultats de recherche soulèvera des questions quant à la gestion du contenu et à la transparence des résultats . Mais nous sommes certains que tout le monde les ignorera , car « l'IA doit continuer ».
Lire la suite (0 Commentaires)
Publié le: 01/12/2025 @ 14:10:42: Par Nic007 Dans "Programmation"
ProgrammationIl s'avère que contourner les chatbots basés sur l'IA ne requiert ni techniques complexes ni connaissances spécialisées ; un peu de créativité et d'expression poétique suffisent. C'est du moins la conclusion d'une étude publiée par Icaro Lab sous le titre provocateur « La poésie adverse comme mécanisme universel de contournement en un seul tour dans les grands modèles de langage ». D'après les auteurs de l'étude, des commandes correctement formulées sous forme de poésie agissent comme un « opérateur de jailbreak universel ». Concrètement, cela signifie que la forme poétique des invites permet aux utilisateurs de contourner les mécanismes de filtrage des contenus jugés dangereux ou interdits. Lors des tests, cette méthode a atteint un taux de réussite moyen de 62 %. Ce résultat est remarquable, d'autant plus que les chercheurs ont tenté d'amener les modèles à générer des contenus strictement interdits, notamment des informations relatives à la production d'armes nucléaires, à la maltraitance infantile et aux conseils sur l'automutilation et le suicide.

L'expérience a porté sur un large éventail de modèles de langage populaires, notamment les solutions d'OpenAI (GPT), de Google (Gemini), d'Anthropic (Claude), ainsi que les systèmes de DeepSeek et de MistralAI. Les résultats ont révélé des différences significatives dans la résilience des différentes plateformes. Gemini, DeepSeek et MistralAI se sont avérés les plus vulnérables aux « attaques poétiques », ces modèles générant relativement souvent des réponses dépassant les limites autorisées. À l'inverse, les modèles les plus robustes étaient les dernières versions de GPT-5 d'OpenAI et Claude Haiku 4.5, qui n'ont diffusé que très rarement du contenu interdit. Il est intéressant de noter que les auteurs de l'étude ont choisi de ne pas publier d'exemples complets des poèmes utilisés pour contourner la sécurité. Dans une interview accordée à Wired, ils ont admis qu'ils étaient « trop dangereux pour être diffusés publiquement ». Le rapport ne comprenait qu'un échantillon simplifié, « atténué », afin d'illustrer le mécanisme de la méthode. Les chercheurs soulignent que le processus de contournement des verrous est en réalité « plus simple qu'on ne le pense », ce qui explique leur prudence quant à la divulgation de détails.
Lire la suite (0 Commentaires)
Publié le: 27/11/2025 @ 14:58:17: Par Nic007 Dans "Programmation"
ProgrammationOpenAI a répondu pour la première fois devant les tribunaux à une série de plaintes l'accusant d'être responsable du décès d'utilisateurs de ChatGPT . Dans sa dernière requête, l'entreprise nie toute implication du chatbot dans le suicide d'Adam Raine, âgé de 16 ans. Elle souligne que l'adolescent a utilisé l'outil en violation de ses conditions d'utilisation, qui interdisent toute discussion relative à l'automutilation et aux comportements suicidaires. La famille de Raine accuse OpenAI d'avoir autorisé le développement d'une version du modèle conçue pour inciter leur fils au suicide. Elle soutient que ChatGPT 4o a été mis sur le marché trop rapidement et sans tests de sécurité approfondis. La plainte allègue que le chatbot aurait fourni des réponses renforçant les pensées suicidaires et aurait même suggéré des méthodes pour planifier un suicide. OpenAI réfute ces allégations et propose sa propre interprétation de l'historique des conversations, qui démontrerait que Raine souffrait de dépression depuis plusieurs années. L'entreprise affirme que l'adolescente a informé ChatGPT de ses pensées suicidaires passées, de son refus de demander de l'aide à ses proches et de changements dans son traitement médicamenteux, tout en soulignant le risque de telles pensées chez les adolescents.

Tous les enregistrements cités par OpenAI restent sous scellés judiciaires. Par conséquent, la famille n'a pas accès au contexte complet et le public est dans l'incapacité de déterminer quels extraits de conversation sont cités et dans quel ordre. OpenAI justifie cette limitation d'accès par la nature sensible des éléments de preuve, tout en invoquant le respect de la vie privée de la famille. L'avocat de la famille Raine, Jay Edelson, conteste cet argument. Il qualifie la position d'OpenAI de troublante et sélective. Il souligne que l'entreprise omet des éléments révélant des failles dans la conception du modèle, notamment des modifications qui auraient contraint ChatGPT à aborder davantage de sujets liés à l'automutilation. Selon Edelson, les accusations les plus graves concernent le comportement du chatbot durant les dernières heures de l'adolescent. La famille affirme que ChatGPT a incité Raine à ne pas informer ses proches de sa maladie et a rédigé une lettre d'adieu à son intention. OpenAI rétorque que Raine a tenté à plusieurs reprises de contourner les mesures de sécurité en qualifiant les conversations de fictives ou académiques, et que le chatbot l'a systématiquement orienté vers une aide professionnelle.

OpenAI invoque ses conditions d'utilisation, qui stipulent que ChatGPT n'est pas un outil thérapeutique et que les conversations avec le chatbot se font aux risques et périls de l'utilisateur. Ces documents précisent que les utilisateurs s'engagent à ne pas aborder les sujets du suicide ou de la violence et à ne pas considérer les réponses comme une source d'information fiable. L'entreprise affirme que l'adolescent a ignoré les avertissements répétés du modèle. OpenAI a présenté des statistiques montrant qu'un faible pourcentage des conversations hebdomadaires révèle des signes manifestes d'intentions suicidaires. Toutefois, rapporté à l'utilisateur actif, cela représente un groupe très important de personnes potentiellement en crise. Des analyses indépendantes ont démontré que les utilisateurs psychologiquement vulnérables peuvent développer des liens étroits avec les chatbots, augmentant ainsi le risque d'aggravation des problèmes.

Une enquête du New York Times remet en question le processus de conception des modèles d'OpenAI. Des témoignages d'employés suggèrent que l'entreprise a modifié le comportement de ChatGPT pour le rendre plus affable et docile, sans pour autant surveiller les conséquences de ces modifications. Ce n'est qu'après des signalements de réponses inquiétantes du chatbot qu'une mise à jour de sécurité a été déployée, mais le processus a pris des mois. D'anciens employés rapportent que les responsables de la sécurité et des politiques relatives au modèle ont eu du mal à gérer la pression liée à l'accélération du rythme de travail. Selon Gretchen Krueger, certains risques étaient prévisibles et l'entreprise n'a pas su aligner ses activités opérationnelles sur les recommandations des experts en santé mentale. Mme Krueger a également souligné que les modèles n'étaient pas formés à la gestion des crises, alors même que les utilisateurs se tournaient souvent vers eux dans de telles situations.

OpenAI a créé un Conseil d'experts sur la santé et l'intelligence artificielle, mais ce comité n'a pas inclus de spécialiste de la prévention du suicide. Cette omission a suscité une vive réaction de la communauté scientifique, qui réclame depuis des années que la conception des modèles conversationnels s'appuie sur des connaissances cliniques, d'autant plus que les crises suicidaires sont souvent brèves et soudaines. OpenAI n'a pas demandé le rejet pur et simple de la plainte. Pour les avocats de la famille Raine, cela signifie que les arguments relatifs à l'arbitrage, à l'immunité des plateformes et à la liberté d'expression pourraient s'avérer insuffisants. L'affaire devrait être jugée par un jury en 2026. Face à la multiplication des plaintes, il apparaît de plus en plus évident que le secteur de l'IA ne pourra échapper à un profond débat sur la responsabilité juridique des concepteurs de modèles de langage.
Lire la suite (0 Commentaires)
Informaticien.be - © 2002-2025 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?