![Apple Apple](images/news/categories/apple.png)
Sur GitHub, Apple explique que pour créer MLX les ingénieurs se sont inspirés de frameworks tels que PyTorch, Jax et ArrayFire , mais il y a une différence : la mémoire partagée. Cela signifie que toute tâche que vous exécutez sur MLX fonctionne sur les appareils pris en charge (actuellement, CPU et GPU) sans nécessiter le déplacement des données vers le cloud, ce qui est excellent pour la confidentialité . Selon Computerworld, qui a analysé l'outil, MLX est destiné aux développeurs pour créer de nouvelles applications d'IA, éventuellement pour les MacBook, mais a suffisamment de puissance pour former des modèles d'IA comme Meta's Llama et Stable Diffusion . Pour le moment, Apple n'a pas encore publié de communication officielle ni répondu aux demandes de commentaires, mais il y a deux considérations à prendre en compte. D’une part, il faut admettre qu’Apple a reconnu la nécessité de créer des environnements de développement ouverts et faciles à utiliser pour l’apprentissage automatique afin de pousser le développement dans ce domaine, mais est-ce un peu tard ?
Apple a évidemment décidé de mettre entre les mains des développeurs les meilleurs outils pour travailler sur l'intelligence artificielle : un cadre sur lequel créer des modèles et des ordinateurs avec des puces M3 sur lesquels les entraîner, ce qui en théorie fait passer le paradigme de l'IA à un IA centrée sur l’humain. Reste à savoir si c'est le bon choix (et le bon timing) pour s'imposer sur le marché, mais c'est peut-être aussi ce qu'Apple a toujours fait : aborder un problème d'un point de vue différent. Si vous êtes intéressé, vous trouverez ici la page GitHub du framework et le site MLX avec la documentation.
Envoyer une nouvelle à un ami