Exécution locale de modèles de langage simplifiée
Foundry Local est un outil puissant pour Windows qui permet l'exécution de petits modèles de langage (SLMs) sur le matériel local. Grâce à l'intégration de l'Azure AI Foundry, ce programme permet de faire fonctionner de grands modèles de langage (LLMs) tout en garantissant que le traitement des données reste sur l'appareil. Cette fonctionnalité améliore la confidentialité et la sécurité, ce qui en fait une option attrayante pour les utilisateurs soucieux de la protection des données.
Une caractéristique remarquable de Foundry Local est sa compatibilité avec l'API d'OpenAI, offrant aux utilisateurs une interface familière pour intégrer des fonctionnalités d'IA. De plus, le programme prend en charge l'accélération matérielle, optimisant ainsi les performances, que les utilisateurs disposent de processeurs standard ou de configurations avancées avec GPU et NPU. Cette combinaison de fonctionnalités fait de Foundry Local un outil polyvalent pour les développeurs et les passionnés désireux d'explorer l'apprentissage automatique et l'intelligence artificielle directement sur leurs appareils.