Se connecter
Se connecter
Inscription
Mot de passe perdu
Connexion:
[Actualités]
Windows 11 humilié par XP dans un test comparatif
[Actualités]
Des tests préliminaires du M5 Max sont apparus
[Actualités]
Test Ultimate Zombie Defense (Xbox Series X) - Un portage console tardif amputé...
[Actualités]
Resident Evil 4 : une vidéo montre un niveau supprimé avec Ashley comme protag...
[Actualités]
Achèteriez-vous un BlackBerry en 2026 ? Click Communicator l’espère
[Actualités]
Microsoft met fin à la version allégée de Windows 11. Une date précise a ét...
[Actualités]
« Microslop » est le nouveau nom viral de Microsoft car ils imposent l'IA à t...
[Actualités]
YouTube est inondé de contenu pornographique. Les utilisateurs ont découvert u...
[Actualités]
Quand sortira la PS6 ? Sony n'a toujours pas tranché.
[Actualités]
L'activation de Windows par téléphone n'est apparemment plus possible
[Articles]
School of Villains tome 2
[Articles]
Ultimate Zombie Defense
[Articles]
Léonard tome 56 : Eclair de génie
[Articles]
Richelieu - La journée des dupes
[Articles]
37 Seconds tome 1
[Articles]
L'âge d'eau tome 2
[Articles]
Nordlys
[Articles]
The Temple of Elemental Evil
[Articles]
The Order of the Snake Scale
[Articles]
Clavier Trust GXT 872 Xyra
Actualités
Lettre d'information
Proposer une actualité
Archives
Actualités
Articles
Programmation
Press Release
Matériel
Logiciels
Livres
Interviews
Derniers commentaires
Jeux Vidéos
XBox One
XBox 360
Wii U
PSP
PS4
PS3
PC
DS
GameCube
3DS
Forum
Derniers messages
Informatique
Fun
Divers
Logithèque
Blogs
Divers
A Propos
Annonceurs
Contact
Recherche
RSS
Créer un nouveau sujet
forum_emoticons.html
[quote]ChatGPT et d'autres systèmes d'IA commettent de plus en plus d'erreurs, même s'ils deviennent en réalité de plus en plus puissants, selon la conclusion intérimaire inquiétante des développeurs. Selon les tests internes d'OpenAI, le modèle phare GPT o3 hallucine sur un tiers de toutes les questions concernant les personnalités publiques - plus de deux fois plus souvent que son prédécesseur o1. Le modèle 04-mini, plus compact, est encore moins performant avec un taux d'erreur de 48 %. Pour les questions de connaissances plus générales dans le benchmark SimpleQA, les taux d'hallucinations augmentent considérablement jusqu'à 51 % pour o3 et même 79 % pour o4-mini. Ces chiffres sont particulièrement inquiétants car les modèles les plus récents annoncent en réalité des capacités logiques et de raisonnement améliorées. Une explication possible de ce phénomène réside dans le fonctionnement des nouveaux modèles de raisonnement. Contrairement aux systèmes plus anciens qui s’appuient principalement sur des probabilités statistiques, ces modèles tentent de décomposer des problèmes complexes en étapes logiques, de manière similaire à la façon dont les humains penseraient. Comme le rapporte le New York Times , c’est précisément ce processus de réflexion étape par étape qui pourrait devenir un problème. « Les technologies les plus récentes et les plus puissantes – les systèmes de raisonnement d’entreprises comme OpenAI, Google et la start-up chinoise DeepSeek – génèrent davantage d’erreurs, et non moins », explique le journal. À chaque étape de réflexion, le système pourrait introduire de nouvelles erreurs, qui deviendraient alors plus prononcées à mesure que le processus progresse. OpenAI elle-même déclare que des recherches supplémentaires sont nécessaires pour comprendre les causes exactes. « Les hallucinations ne sont pas intrinsèquement plus courantes dans les modèles de raisonnement, bien que nous travaillions activement à réduire les taux d'hallucinations plus élevés que nous avons observés dans o3 et o4-mini », a déclaré Gaby Raila, porte-parole d'OpenAI, au New York Times. Les conséquences de cette évolution sont de grande portée. Les systèmes d’IA sont de plus en plus utilisés dans des domaines tels que l’éducation, la santé et le gouvernement, des environnements où les erreurs peuvent avoir de graves conséquences. Il existe déjà des rapports d'avocats citant des décisions judiciaires inexistantes générées par ChatGPT. Ce phénomène n’est pas entièrement nouveau dans l’histoire de l’intelligence artificielle. Dès les années 1980, les chercheurs ont observé ce qu'on appelle « l'effet Eliza », du nom d'un ancien chatbot , dans lequel les gens avaient tendance à attribuer au système plus de compréhension qu'il n'en possédait réellement. Les problèmes d’hallucinations actuels pourraient être considérés comme une variante moderne de cet effet – à la différence près que les systèmes eux-mêmes « croient » désormais en savoir plus qu’ils n’en savent réellement. %news:source%: [url=news_item-39885.html]news_item-39885.html[/url] [/quote]
Ada
CSS
Cobol
CPP
HTML
Fortran
Java
JavaScript
Pascal
Perl
PHP
Python
SQL
VB
XML
Anon URL
DailyMotion
eBay
Flickr
FLV
Google Video
Google Maps
Metacafe
MP3
SeeqPod
Veoh
Yahoo Video
YouTube
6px
8px
10px
12px
14px
16px
18px
Informaticien.be
- © 2002-2026
Akretio
SPRL - Generated via
Kelare
The Akretio Network:
Akretio
-
Freedelity
-
KelCommerce
-
Votre publicité sur informaticien.be ?