Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Build Bigger With Small Ai: Running Small Models Locally

Автор: MotherDuck

Загружено: 2025-03-21

Просмотров: 63451

Описание:

It's finally possible to bring the awesome power of Large Language Models (LLMs) to your laptop. This talk will explore how to run and leverage small, openly available LLMs to power common tasks involving data, including selecting the right models, practical use cases for running small models, and best practices for deploying small models effectively alongside databases.

Bio: Jeffrey Morgan is the founder of Ollama, an open-source tool to get up and run large language models. Prior to founding Ollama, Jeffrey founded Kitematic, which was acquired by Docker and evolved into Docker Desktop. He has previously worked at companies including Docker, Twitter, and Google.

➡️ Follow Us
LinkedIn:   / small-data-sf  
X/Twitter :   / smalldatasf  
Website: https://www.smalldatasf.com/

Discover how to run large language models (LLMs) locally using Ollama, the easiest way to get started with small AI models on your Mac, Windows, or Linux machine. Unlike massive cloud-based systems, small open source models are only a few gigabytes, allowing them to run incredibly fast on consumer hardware without network latency. This video explains why these local LLMs are not just scaled-down versions of larger models but powerful tools for developers, offering significant advantages in speed, data privacy, and cost-effectiveness by eliminating hidden cloud provider fees and risks.

Learn the most common use case for small models: combining them with your existing factual data to prevent hallucinations. We dive into retrieval augmented generation (RAG), a powerful technique where you augment a model's prompt with information from a local data source. See a practical demo of how to build a vector store from simple text files and connect it to a model like Gemma 2B, enabling you to query your own data using natural language for fast, accurate, and context-aware responses.

Explore the next frontier of local AI with small agents and tool calling, a new feature that empowers models to interact with external tools. This guide demonstrates how an LLM can autonomously decide to query a DuckDB database, write the correct SQL, and use the retrieved data to answer your questions. This advanced tutorial shows you how to connect small models directly to your data engineering workflows, moving beyond simple chat to create intelligent, data-driven applications.

Get started with practical applications for small models today, from building internal help desks to streamlining engineering tasks like code review. This video highlights how small and large models can work together effectively and shows that open source models are rapidly catching up to their cloud-scale counterparts. It's never been a better time for developers and data analysts to harness the power of local AI.

Build Bigger With Small Ai: Running Small Models Locally

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

An Evolving DAG for the LLM world - Julia Schottenstein of LangChain at Small Data SF

An Evolving DAG for the LLM world - Julia Schottenstein of LangChain at Small Data SF

Большие данные мертвы: да здравствуют горячие данные 🔥

Большие данные мертвы: да здравствуют горячие данные 🔥

Mathematica: Существует ли PythonForm? для автоматизации преобразования Sin в math.sin()?

Mathematica: Существует ли PythonForm? для автоматизации преобразования Sin в math.sin()?

Превратите ЛЮБОЙ файл в знания LLM за СЕКУНДЫ

Превратите ЛЮБОЙ файл в знания LLM за СЕКУНДЫ

Программируем с ИИ в VS Code - БЕСПЛАТНО! Сможет каждый!

Программируем с ИИ в VS Code - БЕСПЛАТНО! Сможет каждый!

Программируем с Google Antigravity + Gemini 3 Pro. СМОЖЕТ КАЖДЫЙ!

Программируем с Google Antigravity + Gemini 3 Pro. СМОЖЕТ КАЖДЫЙ!

Агенты RAG в производстве: 10 уроков, которые мы усвоили — Дауве Киела, создатель RAG

Агенты RAG в производстве: 10 уроков, которые мы усвоили — Дауве Киела, создатель RAG

Understanding DuckLake: A Table Format with a Modern Architecture

Understanding DuckLake: A Table Format with a Modern Architecture

Расширение возможностей агентов ИИ: живая демонстрация сервера GitHub MCP

Расширение возможностей агентов ИИ: живая демонстрация сервера GitHub MCP

RAG vs. CAG: Solving Knowledge Gaps in AI Models

RAG vs. CAG: Solving Knowledge Gaps in AI Models

Все стратегии RAG объясняются за 13 минут (без лишних слов)

Все стратегии RAG объясняются за 13 минут (без лишних слов)

Как Клод Опус 4.5 УНИЧТОЖИЛ «Джемини-3» в день запуска

Как Клод Опус 4.5 УНИЧТОЖИЛ «Джемини-3» в день запуска

What is a Vector Database? Powering Semantic Search & AI Applications

What is a Vector Database? Powering Semantic Search & AI Applications

Foundry IQ для баз знаний ИИ из нескольких источников

Foundry IQ для баз знаний ИИ из нескольких источников

Покойся с миром, Arduino и Open Hardware... спасибо Qualcomm

Покойся с миром, Arduino и Open Hardware... спасибо Qualcomm

Claude Code: полный гайд по AI-кодингу (хаки, техники и секреты)

Claude Code: полный гайд по AI-кодингу (хаки, техники и секреты)

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Экспресс-курс RAG для начинающих

Экспресс-курс RAG для начинающих

Перестаньте изучать n8n в 2025 году... Лучше изучите ЭТО

Перестаньте изучать n8n в 2025 году... Лучше изучите ЭТО

Краткое объяснение больших языковых моделей

Краткое объяснение больших языковых моделей

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]