Ollama + NET Core: Kendi Bilgisayarınızda AI ile Chat Uygulaması Geliştirin!
Автор: Ahmet Bilgiç
Загружено: 2025-08-30
Просмотров: 113
🚀 NET Core ile Lokal AI Modeliyle Sohbet Etmek
Bu videoda, .NET Core kullanarak kendi lokal yapay zeka (AI) sohbet uygulamanızı nasıl geliştireceğinizi öğreneceksiniz. Adım adım rehberimizle Microsoft.Extensions.AI ve OllamaSharp kütüphanelerini kullanarak bir .NET konsol uygulaması oluşturacağız.
Bu videoda neler öğreneceksiniz:
Ollama nedir ve nasıl kurulur?
Lokal LLM (Large Language Model) çalıştırma ve yönetimi
phi3:mini modelini indirip çalıştırma
.NET konsol uygulaması oluşturma ve AI modeline bağlama
Microsoft.Extensions.AI ve OllamaSharp ile sorunsuz entegrasyon
Neden Ollama?
Ollama, OpenAI API’sine hafif bir alternatif olarak yerel model çalıştırma, daha fazla kontrol ve gizlilik sağlar.
Bulut gerektirmez, tüm modeller lokal olarak çalışır
LLaMA, Phi-3, Mistral, Gemma gibi modelleri destekler
Ücretsiz ve açık kaynaklı
Gereksinimler:
.NET 8.0 veya üzeri
Ollama (https://ollama.com/)
Visual Studio 2022
Hızlı Başlangıç:
Ollama’yı başlat:
Port Çakışırsa yeni port tanımla
$env:OLLAMA_HOST="127.0.0.1:5050"
ollama serve
phi3:mini modelini çek ve çalıştır:
ollama pull phi3:mini
ollama run phi3:mini
.NET konsol uygulamanızı oluşturun ve OllamaSharp ile bağlayın.
💡 Not: Ollama varsayılan olarak port 11434’te çalışır. AI modeline bağlarken bunu göz önünde bulundurun.
📂 Kod Örneği:
Videoda adım adım Program.cs dosyasına ekleyeceğiniz kod ve chat akışı gösterilecektir. Kullanıcı girdilerini alacak ve AI modelinden yanıt alacaktır.
👍 Eğer bu video işinize yaradıysa beğenmeyi ve kanala abone olmayı unutmayın!
💬 Sorularınızı yorumlarda paylaşabilirsiniz.
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: