DeepSeek Local com LM Studio no Windows com RTX 4060
Автор: Promovaweb Automação e IA
Загружено: 2025-01-30
Просмотров: 5521
Descobri um jeito incrível de rodar modelos de IA localmente no meu PC, usando o DeepSeek e o LM Studio. E o melhor: funciona no Windows, Mac e até no n8n!
Neste vídeo, mostro como instalar, configurar e testar esses modelos para automação de tarefas e análise de desempenho.
Os modelos open-source estão evoluindo rápido, e o DeepSeek veio para sacudir o mercado! Testei diferentes versões, analisei o consumo de memória e CPU e ainda configurei tudo para rodar no n8n como se fosse um modelo da OpenAI.
📌 Principais tópicos que você vai ver no vídeo:
Como instalar e configurar o LM Studio
Testando diferentes modelos do DeepSeek
Comparação entre DeepSeek Chat e DeepSeek R1
Analisando desempenho da RTX 4060 rodando IA local
Integração do modelo com o n8n via API da OpenAI
Como rodar IA open-source em servidores locais
Dicas para quem quer começar a testar modelos no próprio PC
📌 Minutagem do vídeo:
00:05 Instalando e rodando o DeepSeek no LM Studio
02:49 Comparação entre modelos disponíveis
03:53 Testando o DeepSeek R1 vs DeepSeek Chat
07:10 Analisando consumo de CPU e memória na RTX 4060
10:46 Integrando o LM Studio com o n8n via API da OpenAI
14:12 Configuração do servidor local no LM Studio
18:07 Dicas finais
🔗 Se curtiu o conteúdo, deixa o like, se inscreve no canal e ativa o sininho para mais testes com IA open-source!
#DeepSeek #LMStudio #IAOpenSource #n8n #Automação #Chatbots #RTX4060 #AI #LocalLLM #InteligenciaArtificial
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: