Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Local LLM Fine-tuning on Mac (M1 16GB)

Автор: Shaw Talebi

Загружено: 2024-07-29

Просмотров: 46079

Описание:

💡 Get 30 (free) AI project ideas: https://30aiprojects.com/

Here, I show how to fine-tune an LLM locally using an M-series Mac. The example adapts Mistral 7b to respond to YT comments in my likeness.

📰 Blog: https://medium.com/towards-data-scien...
💻 GitHub Repo: https://github.com/ShawhinT/YouTube-B...

🎥 QLoRA:    • 3 Ways to Make a Custom AI Assistant | RAG...  
🎥 Fine-tuning with OpenAI:    • 3 Ways to Make a Custom AI Assistant | RAG...  
▶️ Series Playlist:    • Large Language Models (LLMs)  

More Resources:
[1] MLX: https://ml-explore.github.io/mlx/buil...
[2] Original code: https://github.com/ml-explore/mlx-exa...
[3] MLX community: https://huggingface.co/mlx-community
[4] Model: https://huggingface.co/mlx-community/...
[5] LoRA paper: https://arxiv.org/abs/2106.09685

--
Homepage: https://www.shawhintalebi.com/

Intro - 0:00
Motivation - 0:56
MLX - 1:57
GitHub Repo - 3:30
Setting up environment - 4:09
Example Code - 6:23
Inference with un-finetuned model - 8:57
Fine-tuning with QLoRA - 11:22
Aside: dataset formatting - 13:54
Running local training - 16:07
Inference with finetuned model - 18:20
Note on LoRA rank - 22:03

Local LLM Fine-tuning on Mac (M1 16GB)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

3 способа создать собственного ИИ-помощника | RAG, инструменты и тонкая настройка

3 способа создать собственного ИИ-помощника | RAG, инструменты и тонкая настройка

The Future of AI & NVIDIA’s New Supercomputers - Jensen Huang

The Future of AI & NVIDIA’s New Supercomputers - Jensen Huang

Local UNLIMITED Memory Ai Agent | Ollama RAG Crash Course

Local UNLIMITED Memory Ai Agent | Ollama RAG Crash Course

QLoRA—How to Fine-tune an LLM on a Single GPU (w/ Python Code)

QLoRA—How to Fine-tune an LLM on a Single GPU (w/ Python Code)

Is MLX the best Fine Tuning Framework?

Is MLX the best Fine Tuning Framework?

Local LLM Challenge | Speed vs Efficiency

Local LLM Challenge | Speed vs Efficiency

Dolphin: The New King of Document Understanding and Parsing | 🤗huggingface demo

Dolphin: The New King of Document Understanding and Parsing | 🤗huggingface demo

Полный разбор БЕЛЫХ СПИСКОВ.  Как мы будем выживать в 2026

Полный разбор БЕЛЫХ СПИСКОВ. Как мы будем выживать в 2026

Доработайте свою степень магистра права за 13 минут. Вот как

Доработайте свою степень магистра права за 13 минут. Вот как

Apple MLX Fine Tuning Guide

Apple MLX Fine Tuning Guide

Fine-tuning Large Language Models (LLMs) | w/ Example Code

Fine-tuning Large Language Models (LLMs) | w/ Example Code

DeepSeek on Apple Silicon in depth | 4 MacBooks Tested

DeepSeek on Apple Silicon in depth | 4 MacBooks Tested

The ONLY Local LLM Tool for Mac (Apple Silicon)!!

The ONLY Local LLM Tool for Mac (Apple Silicon)!!

Fine-Tuning Local LLMs with Unsloth & Ollama

Fine-Tuning Local LLMs with Unsloth & Ollama

Тренды в ИИ 2026. К чему готовиться каждому.

Тренды в ИИ 2026. К чему готовиться каждому.

How to Improve LLMs with RAG (Overview + Python Code)

How to Improve LLMs with RAG (Overview + Python Code)

Fine-Tuning BERT for Text Classification (w/ Example Code)

Fine-Tuning BERT for Text Classification (w/ Example Code)

Text Embeddings, Classification, and Semantic Search (w/ Python Code)

Text Embeddings, Classification, and Semantic Search (w/ Python Code)

Подробное объяснение тонкой настройки LoRA и QLoRA

Подробное объяснение тонкой настройки LoRA и QLoRA

Забудь VS Code — Вот Почему Все Переходят на Cursor AI

Забудь VS Code — Вот Почему Все Переходят на Cursor AI

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]