GitHub, propriété de Microsoft, prévoit d'utiliser les données des utilisateurs pour entraîner ses modèles d'IA.
 Par Nic007
ProgrammationLa nouvelle politique entrera en vigueur le 24 avril et s'appliquera aux utilisateurs des versions gratuite, Pro et Pro+ de Copilot. La plateforme commencera à analyser les données relatives au travail quotidien des développeurs, notamment les extraits de code, les réponses générées par les modèles, le contexte des projets, et même les commentaires et la structure des dépôts. Ce changement s'applique également aux dépôts privés. Concrètement, cela signifie que le code créé dans des projets fermés peut être utilisé pour entraîner des modèles d'IA avec Copilot. La frontière entre « privé » et « traité par des algorithmes » tend à s'estomper. Les utilisateurs auront la possibilité de désactiver cette fonctionnalité, mais son fonctionnement repose sur un système d'exclusion automatique. Par défaut, le consentement est activé et son retrait nécessite une modification manuelle des paramètres. Cette approche diffère des normes européennes, qui exigent un consentement explicite et préalable de l'utilisateur. L'entreprise affirme que la participation au programme améliorera la qualité des modèles, permettra une meilleure compréhension du processus de développement logiciel et augmentera la précision des suggestions. Des tests internes menés à partir des données des employés de Microsoft étaient censés se traduire par une nette amélioration de l'efficacité de Copilot.

La communauté a accueilli ces changements avec tiédeur. Les discussions soulèvent des inquiétudes quant à la redéfinition de la confidentialité dans le contexte des dépôts de code. Jusqu'à présent, un « projet privé » impliquait un contrôle total sur le code. Désormais, un nouveau terme a émergé, modifiant ainsi la signification de cette définition. Certains utilisateurs soulignent que même si les données ne sont utilisées que lors de l'utilisation active de Copilot, elles incluent tout de même du code réel, souvent détenu par des entreprises et des clients. Cela soulève des questions de responsabilité et de sécurité lorsque les modèles apprennent à partir de ce type de données. Ce changement s'inscrit dans un contexte plus large. Les modèles d'IA, y compris ceux utilisés par OpenAI, sont entraînés depuis des années sur des bases de données publiques. Le secteur a prospéré grâce à d'immenses ensembles de données en ligne. La nouvelle décision de GitHub repousse encore les limites. Les données issues du travail actuel des utilisateurs deviennent une ressource supplémentaire pour les algorithmes. C'est le stade où l'IA analyse non seulement le passé, mais apprend aussi en temps réel.

Ces changements s'inscrivent dans le contexte de la concurrence croissante sur le marché des outils d'IA pour les développeurs. Des entreprises comme Anthropic et JetBrains développent également leurs propres solutions et expérimentent avec les données des utilisateurs. La différence réside dans l'échelle. GitHub contrôle le plus vaste écosystème de code au monde. Chaque changement de politique a des conséquences mondiales. Les développeurs sont confrontés à un choix : faire confiance aux outils et espérer leur développement continu, ou limiter l’accès aux données et accepter des fonctionnalités moins avancées. D’autres encore quittent GitHub, tandis que des alternatives comme Codebreg gagnent en popularité .
 Lire la suite
 Dernières actualités
 Archives
Informaticien.be - © 2002-2026 Akretio SRL  - Generated via Kelare Haut de page