La start-up américaine a publié LFM2-VL, un modèle vision-langage multimodal conçu pour tourner aussi bien sur des ordinateurs et smartphones que sur des systèmes embarqués. Elle revendique une vitesse d’inférence sur GPU deux fois plus rapide que les modèles open source concurrents.
A lire aussi : L'accès aux données, axe central de la feuille de route gouvernementale de l'IA en santé