Ортогональная тонкая настройка (OFT): вращайте, а не переписывайте свой ИИ
Автор: FranksWorld of AI
Загружено: 2025-10-02
Просмотров: 12
Обучение модели новым навыкам без забвения старых — вот дилемма тонкой настройки. В этом видео разбирается ортогональная тонкая настройка (OFT) — метод, основанный на вращении, который сохраняет основные знания модели (её «углы»), адаптируя её к новым задачам.
Мы расскажем, почему углы (направление) несут больше семантического значения, чем величина, как гиперсферическая энергия отражает структуру модели и почему мультипликативное вращение превосходит аддитивные обновления, такие как LoRA, в плане сохранения идентичности, управляемой генерации и стабильности.
Что вы узнаете
Взаимосвязь «угол и величина» (почему семантика существует в направлениях)
Как OFT вращает веса, сохраняя знания
Сравнение с LoRA/ControlNet и проблема коллапса модели
Практические преимущества: точность, стабильность и эффективность данных
Главы
00:00 Введение: Почему тонкая настройка нарушает работу моделей
01:06 Угол и величина: важное понимание
03:05 Объяснение гиперсферической энергии
04:28 OFT против аддитивных методов (LoRA)
06:10 Результаты: точность идентичности и управления
07:45 Эффективность и стабильность данных
09:05 Выводы и ротация мульти-навыков                
Доступные форматы для скачивания:
Скачать видео mp4
- 
                                
Информация по загрузке: