Fournir tous les outils nécessaires pour développer et déployer les bons modèles auprès des entreprises. Telle est l’ambition portée par la start-up française Giskard qui, en tant que tiers indépendant, s’attèle à déceler les hallucinations, les biais sociaux ou encore les contenus dangereux inhérents aux modèles des acteurs du marché de l’IA, qu’ils s’appellent Anthropic, Google, Meta, Mistral ou OpenAI.
Lire également : Nvidia planche sur un GPU basé sur Blackwell à destination du marché chinois