La start-up américaine a publié LFM2-VL, un modèle vision-langage multimodal conçu pour tourner aussi bien sur des ordinateurs et smartphones que sur des systèmes embarqués. Elle revendique une vitesse d’inférence sur GPU deux fois plus rapide que les modèles open source concurrents.

Lire également : Recrutements dans l'IA : Les chassés croisés de l'été