Talki Academy
Intermédiaire

Ollama : LLM Locaux en Production2 jours

Formation technique intensive pour développeurs et ops qui veulent déployer des LLM open-source en production sans dépendre d'API propriétaires. Maîtrisez Ollama, la quantization, le déploiement Docker multi-GPU, et l'intégration avec votre stack existante. Cas réel : startup ayant réduit ses coûts de 4200€/mois à 109€/mois (-97%).

Inclus dans l'abonnement — 9,99 €/mois sans engagement
2 jours
14h de formation
4 modules
Max 12 participants
OllamaLLMOpen-SourceProduction
9,99 €/mois
Acces a toutes les formations · Sans engagement
Prochaine session : Juin 2026
S'abonner — 9,99 €/mois
Acces illimite a toutes les formations
Nouveaux contenus chaque mois
Resiliable a tout moment

AI Act : la formation IA devient obligatoire avant le 2 aout 2026

Anticipez la mise en conformite de votre entreprise. Voir nos formations

Ce que vous allez construire et apprendre

Des competences immediatement applicables dans votre contexte professionnel

  • Installer et configurer Ollama sur différentes plateformes (macOS, Linux, Docker)
  • Choisir le bon modèle selon vos contraintes (latence, qualité, VRAM)
  • Comprendre la quantization (Q2, Q4, Q8) et optimiser performance/qualité
  • Déployer avec Docker Compose, load balancing multi-GPU, et Open WebUI
  • Intégrer avec l'API compatible OpenAI (migration en 2 lignes de code)
  • Implémenter monitoring (Prometheus, Grafana), rate limiting, et backups
  • Calculer le ROI et comparer coûts API vs self-hosted

Programme detaille

4 modules · 14h de formation intensive

01Fondamentaux Ollama et Sélection de Modèles
3h30
  • Installation Ollama : première prise en main
  • Comprendre la quantization : Q2, Q4, Q8, FP16
  • Sélection de modèles : Llama, Mistral, CodeLlama, DeepSeek
  • Benchmarks de performance : latence, débit, qualité
  • Cas d'usage : quel modèle pour quelle tâche ?
02Déploiement Docker et Production
3h30
  • Docker Compose : Ollama + Open WebUI
  • Load balancing multi-GPU avec NGINX
  • Model caching et optimisation latence
  • Atelier : architecture production complète
03Intégration API et Compatibilité OpenAI
3h30
  • API compatible OpenAI : migration en 2 lignes
  • Streaming : réponses token par token
  • Intégration LangChain : RAG et agents
  • Atelier : migrer une app OpenAI vers Ollama
04Patterns de Production et Monitoring
3h30
  • Monitoring avec Prometheus et Grafana
  • Rate limiting avec Redis et Celery
  • Backup automatique et disaster recovery
  • Cas réel : startup réduisant ses coûts de 94%
  • Calcul ROI : API vs self-hosted

Pour qui est cette formation ?

Profils vises

Développeurs
Intermédiaire14h · 12 personnes max

Prerequis

  • Expérience avec Python ou JavaScript (niveau intermédiaire)
  • Notions de Docker et déploiement production
  • Avoir utilisé une API LLM (OpenAI, Claude, ou équivalent)

Modalites

Format
Présentiel ou distanciel — groupe de 6 à 12 personnes
Duree
2 jours (14h)
Prochaine session
Juin 2026
Certification
Attestation de formation + code des ateliers + docker-compose production

Financement

Reste à charge potentiel : 0€

Nos formations sont éligibles à la prise en charge OPCO dans le cadre du plan de développement des compétences. Selon votre OPCO (ATLAS, OPCO2i, AFDAS, AKTO...), la formation peut être financée à 100%.

  • Nous gérons les démarches administratives OPCO
  • Convention de formation et programme fournis
  • Attestation officielle en fin de formation
  • Déductible en charges pour votre entreprise
Prochaine session : Juin 2026

Ollama : LLM Locaux en Production

9,99 €/mois
Abonnement mensuel
Acces a toutes les formations
Sans engagement, resiliable a tout moment
  • 2 jours intensifs
  • 12 participants max
  • Livrables production-ready
  • Support post-formation 30 jours

* Dans le cadre du plan de développement des compétences. Consultez votre OPCO.

Questions frequentes

Tout ce que vous devez savoir avant de vous inscrire

Quels sont les prérequis pour la formation Ollama LLM Locaux ?
Vous devez avoir Python ou JavaScript au niveau intermédiaire, des notions de Docker et de déploiement production (docker-compose, volumes, ports), et avoir déjà utilisé une API LLM (OpenAI, Claude, ou équivalent). Une expérience avec Linux en ligne de commande est un plus.
La formation Ollama est-elle éligible au financement OPCO ?
Oui, cette formation est éligible à la prise en charge OPCO dans le cadre du plan de développement des compétences. Pour les équipes tech et les développeurs, OPCO ATLAS et OPCO2i offrent généralement une bonne couverture. Nous fournissons tous les documents nécessaires pour votre dossier de financement.
Quelle économie peut-on réaliser avec Ollama en production ?
La formation s'appuie sur un cas réel : une startup ayant réduit ses coûts LLM de 4 200€/mois à 109€/mois, soit -97%. L'économie dépend de votre volume d'appels et de votre infrastructure (GPU disponible), mais la formation vous apprend à calculer précisément le ROI de l'hébergement local vs les API cloud.
Quels modèles open-source sont couverts dans la formation ?
La formation couvre les modèles les plus utilisés en production : Llama (Meta), Mistral, CodeLlama, DeepSeek, et les modèles de la famille Phi (Microsoft). Vous apprendrez à sélectionner le modèle adapté selon vos contraintes de VRAM, latence et qualité, et à comprendre les différents niveaux de quantization (Q2, Q4, Q8, FP16).
Faut-il avoir un GPU pour suivre la formation Ollama ?
Non, Ollama fonctionne aussi sur CPU (avec des performances réduites). La formation couvre les deux cas : déploiement CPU pour les modèles légers et déploiement GPU pour la production haute performance. Un environnement cloud avec GPU sera mis à disposition pendant les ateliers si vous n'avez pas de GPU local.
Que vais-je repartir avec après la formation Ollama ?
Vous repartirez avec un docker-compose production complet (Ollama + Open WebUI + load balancer NGINX), des scripts de monitoring Prometheus/Grafana, du code d'intégration LangChain, une calculatrice ROI API vs self-hosted, et une attestation de formation pour votre dossier OPCO.

Prochaine session disponible

Session en Juin 2026. Places limitees a 12 participants.

🦙
Ollama : LLM Locaux en Production
Juin 2026 · 2 jours · Inclus dans l'abonnement
S'abonner — 9,99 €/moisDemander un devis

Financement OPCO

Vérifiez votre éligibilité OPCO en 30 secondes

Nous vérifions votre éligibilité et vous rappelons sous 24h avec les démarches complètes. La formation peut être intégralement prise en charge.

Conformément au RGPD, vos données sont traitées uniquement pour la gestion de votre demande et l'envoi d'informations si vous y consentez. Vous pouvez vous désabonner à tout moment via le lien présent dans chaque email. Plus d'infos : Politique de confidentialité