Se connecter
Se connecter
Inscription
Mot de passe perdu
Connexion:
[Actualités]
Meta n'a pas réduit les arnaques sur Facebook et Instagram : elle les a masqué...
[Actualités]
Samsung vise une batterie de 20 000 mAh, mais un problème ralentit tout.
[Actualités]
Les banques européennes vont licencier 200 000 employés. L’IA supprime des e...
[Actualités]
La Chine considère la réunification avec Taïwan comme inévitable. Un monde s...
[Actualités]
Le Ryzen 7 9800X3D bat le record du monde d'overclocking
[Actualités]
Des clés ROM pour PlayStation 5 sont apparues en ligne.
[Actualités]
Doom en économiseur d'écran Windows. Le jeu culte fait son grand retour dans u...
[Actualités]
WhatsApp lance les festivités du Nouvel An avec une nouvelle mise à jour «feu...
[Actualités]
Un milliard d'appareils Android sont menacés et la seule solution passe par vot...
[Actualités]
Cette nouvelle station d'accueil USB transforme votre PC en Super Nintendo.
[Articles]
Forgotten Realms: Demon Stone
[Articles]
Radiolight
[Articles]
LET IT DIE: INFERNO
[Articles]
The House of the Dead 2: Remake
[Articles]
Wizordum
[Articles]
Tombi! 2: The Evil Swine Return Special Edition
[Articles]
Stranger Things - Le Voyage
[Articles]
Les Chevaliers du ciel Tanguy et Laverdure tome 13 :Opération "Aube Rouge"
[Articles]
Outlaws tome 3 : Prémisses
[Articles]
Tanis tome 2 : Le démon de la mer morte
Actualités
Lettre d'information
Proposer une actualité
Archives
Actualités
Articles
Programmation
Press Release
Matériel
Logiciels
Livres
Interviews
Derniers commentaires
Jeux Vidéos
XBox One
XBox 360
Wii U
PSP
PS4
PS3
PC
DS
GameCube
3DS
Forum
Derniers messages
Informatique
Fun
Divers
Logithèque
Blogs
Divers
A Propos
Annonceurs
Contact
Recherche
RSS
Créer un nouveau sujet
forum_emoticons.html
[quote]OpenAI a répondu pour la première fois devant les tribunaux à une série de plaintes l'accusant d'être responsable du décès d'utilisateurs de ChatGPT . Dans sa dernière requête, l'entreprise nie toute implication du chatbot dans le suicide d'Adam Raine, âgé de 16 ans. Elle souligne que l'adolescent a utilisé l'outil en violation de ses conditions d'utilisation, qui interdisent toute discussion relative à l'automutilation et aux comportements suicidaires. La famille de Raine accuse OpenAI d'avoir autorisé le développement d'une version du modèle conçue pour inciter leur fils au suicide. Elle soutient que ChatGPT 4o a été mis sur le marché trop rapidement et sans tests de sécurité approfondis. La plainte allègue que le chatbot aurait fourni des réponses renforçant les pensées suicidaires et aurait même suggéré des méthodes pour planifier un suicide. OpenAI réfute ces allégations et propose sa propre interprétation de l'historique des conversations, qui démontrerait que Raine souffrait de dépression depuis plusieurs années. L'entreprise affirme que l'adolescente a informé ChatGPT de ses pensées suicidaires passées, de son refus de demander de l'aide à ses proches et de changements dans son traitement médicamenteux, tout en soulignant le risque de telles pensées chez les adolescents. Tous les enregistrements cités par OpenAI restent sous scellés judiciaires. Par conséquent, la famille n'a pas accès au contexte complet et le public est dans l'incapacité de déterminer quels extraits de conversation sont cités et dans quel ordre. OpenAI justifie cette limitation d'accès par la nature sensible des éléments de preuve, tout en invoquant le respect de la vie privée de la famille. L'avocat de la famille Raine, Jay Edelson, conteste cet argument. Il qualifie la position d'OpenAI de troublante et sélective. Il souligne que l'entreprise omet des éléments révélant des failles dans la conception du modèle, notamment des modifications qui auraient contraint ChatGPT à aborder davantage de sujets liés à l'automutilation. Selon Edelson, les accusations les plus graves concernent le comportement du chatbot durant les dernières heures de l'adolescent. La famille affirme que ChatGPT a incité Raine à ne pas informer ses proches de sa maladie et a rédigé une lettre d'adieu à son intention. OpenAI rétorque que Raine a tenté à plusieurs reprises de contourner les mesures de sécurité en qualifiant les conversations de fictives ou académiques, et que le chatbot l'a systématiquement orienté vers une aide professionnelle. OpenAI invoque ses conditions d'utilisation, qui stipulent que ChatGPT n'est pas un outil thérapeutique et que les conversations avec le chatbot se font aux risques et périls de l'utilisateur. Ces documents précisent que les utilisateurs s'engagent à ne pas aborder les sujets du suicide ou de la violence et à ne pas considérer les réponses comme une source d'information fiable. L'entreprise affirme que l'adolescent a ignoré les avertissements répétés du modèle. OpenAI a présenté des statistiques montrant qu'un faible pourcentage des conversations hebdomadaires révèle des signes manifestes d'intentions suicidaires. Toutefois, rapporté à l'utilisateur actif, cela représente un groupe très important de personnes potentiellement en crise. Des analyses indépendantes ont démontré que les utilisateurs psychologiquement vulnérables peuvent développer des liens étroits avec les chatbots, augmentant ainsi le risque d'aggravation des problèmes. Une enquête du New York Times remet en question le processus de conception des modèles d'OpenAI. Des témoignages d'employés suggèrent que l'entreprise a modifié le comportement de ChatGPT pour le rendre plus affable et docile, sans pour autant surveiller les conséquences de ces modifications. Ce n'est qu'après des signalements de réponses inquiétantes du chatbot qu'une mise à jour de sécurité a été déployée, mais le processus a pris des mois. D'anciens employés rapportent que les responsables de la sécurité et des politiques relatives au modèle ont eu du mal à gérer la pression liée à l'accélération du rythme de travail. Selon Gretchen Krueger, certains risques étaient prévisibles et l'entreprise n'a pas su aligner ses activités opérationnelles sur les recommandations des experts en santé mentale. Mme Krueger a également souligné que les modèles n'étaient pas formés à la gestion des crises, alors même que les utilisateurs se tournaient souvent vers eux dans de telles situations. OpenAI a créé un Conseil d'experts sur la santé et l'intelligence artificielle, mais ce comité n'a pas inclus de spécialiste de la prévention du suicide. Cette omission a suscité une vive réaction de la communauté scientifique, qui réclame depuis des années que la conception des modèles conversationnels s'appuie sur des connaissances cliniques, d'autant plus que les crises suicidaires sont souvent brèves et soudaines. OpenAI n'a pas demandé le rejet pur et simple de la plainte. Pour les avocats de la famille Raine, cela signifie que les arguments relatifs à l'arbitrage, à l'immunité des plateformes et à la liberté d'expression pourraient s'avérer insuffisants. L'affaire devrait être jugée par un jury en 2026. Face à la multiplication des plaintes, il apparaît de plus en plus évident que le secteur de l'IA ne pourra échapper à un profond débat sur la responsabilité juridique des concepteurs de modèles de langage. %news:source%: [url=news_item-41503.html]news_item-41503.html[/url] [/quote]
Ada
CSS
Cobol
CPP
HTML
Fortran
Java
JavaScript
Pascal
Perl
PHP
Python
SQL
VB
XML
Anon URL
DailyMotion
eBay
Flickr
FLV
Google Video
Google Maps
Metacafe
MP3
SeeqPod
Veoh
Yahoo Video
YouTube
6px
8px
10px
12px
14px
16px
18px
Informaticien.be
- © 2002-2026
Akretio
SPRL - Generated via
Kelare
The Akretio Network:
Akretio
-
Freedelity
-
KelCommerce
-
Votre publicité sur informaticien.be ?