Quelle IA locale choisir en 2025 ? (guide complet)
Автор: Minutora
Загружено: 2025-12-04
Просмотров: 116
Tu veux faire tourner ton IA en local sans envoyer toutes tes données chez les GAFAM (OpenAI, Claude, etc.) et sans multiplier les abonnements… mais tu es perdu dans tous les modèles LLM disponibles ?
Dans cette vidéo, je t’explique comment choisir le bon modèle local pour tes usages et ton matériel.
Video sur les IA locales • Protège ta vie privée avec une IA locale l...
Comment fonctionne un LLM (et ce que veut vraiment dire “prédire le prochain mot”)
Taille du modèle : 4B, 7B, 30B, 100B… ce que ça change vraiment pour toi
Le lien entre nombre de paramètres, qualité et ressources nécessaires
CPU vs GPU : où faire tourner ton modèle et pourquoi ça change tout
Le cas particulier des Mac Apple Silicon (M1, M2, M3, M4, M5) et de la mémoire unifiée
Les notions de VRAM, bande passante mémoire et tokens par seconde
Quantification (Q4, Q5, Q8, etc.) : comment compresser un modèle sans trop sacrifier la qualité
Le Mixture of Experts (MoE) : avoir l’intelligence d’un gros modèle avec la vitesse d’un plus petit
Le mode “thinking”
L’impact du runtime et du format (Llama.cpp, Ollama, LM Studio, GGUF, MLX…) sur les performances
Les licences : usage perso vs usage commercial
Merci aux musiques libres :
Funkorama de Kevin MacLeod fait l'objet d'une licence Creative Commons Attribution 4.0. https://creativecommons.org/licenses/by/4.0/
Source : http://incompetech.com/music/royalty-free/...
Artiste : http://incompetech.com/
Electro Cabello de Kevin MacLeod fait l'objet d'une licence Creative Commons Attribution 4.0. https://creativecommons.org/licenses/by/4.0/
Source : http://incompetech.com/music/royalty-free/...
Artiste : http://incompetech.com/
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: