Расширяем и доводим до предела кластер с пропускной способностью 40 ГБ/с!
Автор: 45Drives
Загружено: 2025-08-14
Просмотров: 1635
🚀 Расширение кластера Ceph и бенчмарк — с 5 до 6 узлов со значительным приростом производительности!
В третьей части нашей серии «Сборка, тестирование и расширение» мы доводим наш 5-узловой кластер Ceph до абсолютного максимума… а затем увеличиваем его ещё больше. Вы увидите реальные результаты многопоточного многоклиентского бенчмарка Ceph, увидите, как мы достигаем пропускной способности сети более 40 ГБ/с, и увидите, насколько легко расширить ваш кластер до 6 полноценных узлов F16 NVMe.
Главы:
00:00 – Добро пожаловать в часть 3: Фаза расширения
00:07 – Настройка многопоточного теста для нескольких клиентов
01:12 – Обзор: этапы сборки и настройки (части 1 и 2)
02:12 – Почему однопоточных тестов недостаточно
02:33 – Тестовая среда и характеристики оборудования
03:56 – Настройка виртуальной машины, монтирование RBD и конфигурация ZFS
05:54 – Использование Ansible для одновременного запуска тестов
07:19 – Параметры теста и важность прямого ввода-вывода
09:04 – Запуск теста в режиме реального времени (более 40 ГБ/с по сети!)
11:00 – Анализ производительности: пропускная способность и IOPS
12:46 – Подготовка к расширению кластера Ceph
13:43 – Тестирование производительности в производственной среде Практические советы
15:01 – Добавление 6-го узла (сервер F16 с NVMe)
17:21 – Автоматическое определение OSD и заполнение
18:29 – Перебалансировка данных в кластере
18:49 – Ускорение восстановления с помощью профилей mClock
21:10 – Полная перебалансировка кластера – равномерное распределение данных
25:55 – Обзор панели управления после расширения
26:58 – Обзор и что нас ждёт в части 4
Занимаетесь ли вы домашними лабораториями, высокопроизводительными хранилищами или настройкой Ceph, здесь теория встречается с потрясающей производительностью.
🔥 Что вы увидите в этом видео:
Максимальная производительность кластера Ceph из 5 узлов – более 30 клиентов одновременно нагружают систему.
Впечатляющие результаты бенчмарков Ceph: среднее чтение ~40 ГБ/с, пиковая запись 11 ГБ/с и более 2 миллионов операций ввода-вывода в секунду.
Реальная конфигурация: сеть 200 Гбит/с, хосты Proxmox на базе AMD EPYC, Ceph на базе RBD и тесты прямого ввода-вывода.
Этап расширения: добавление нового узла всего несколькими щелчками мыши на панели управления Ceph.
Профессиональные советы по использованию Ceph в производстве: безопасная настройка, избегание рискованных сокращений и сохранение производительности и стабильности.
Пошаговое руководство: как Ceph автоматически перебалансирует и распределяет данные после расширения.
💡 Почему это важно:
Если вы когда-нибудь задумывались о том, как Ceph масштабируется при добавлении большего количества узлов, накопителей NVMe и увеличении пропускной способности, вот вам ответ. Ceph разработан для линейной масштабируемости, и мы покажем вам, как это работает в реальном кластере при экстремальной нагрузке.
Мы также подробно расскажем о том, как:
Использовать Ansible для одновременного многоклиентского бенчмаркинга.
Настраивать профили mClock для более быстрой перебалансировки.
Поддерживать передовые практики, готовые к использованию в производственной среде, и добиваться значительного прироста производительности.
🔥 Показатели производительности до расширения:
Последовательная запись: пиковая скорость 11 ГБ/с, средняя скорость 8 ГБ/с.
Последовательное чтение: пиковая скорость ~50 ГБ/с, средняя скорость 40 ГБ/с.
Случайная запись: пиковая скорость 408 тыс. операций ввода-вывода в секунду.
Случайное чтение: пиковая скорость 2,07 млн операций ввода-вывода в секунду, средняя скорость 1,5 млн операций ввода-вывода в секунду.
🔗 Корпоративные хранилища данных и виртуальные вычисления на базе открытой платформы с открытым исходным кодом: https://www.45drives.com/products/har...
В 45Drives мы понимаем, что корпоративные клиенты ценят решения, которые в первую очередь направлены на снижение рисков, обеспечивая при этом надежность, безопасность, производительность, масштабируемость и высокую емкость.
📲 Подпишитесь на нас, чтобы узнать больше:
LinkedIn: / 45drives
Instagram: / 45drives
Facebook: / 45drives
X: https://www.x.com/45drives
Мы публикуем советы, примеры сборки серверов и закулисные видео, которые вы не увидите на YouTube.
✅ Подпишитесь и смотрите серию:
Это третья часть нашего путешествия «Сборка, тестирование и расширение»:
ЧАСТЬ 1: • Build, Benchmark and Expand a Ceph Storage...
ЧАСТЬ 2: • Unlock MAX Performance from Your Ceph NVMe...
КРАТКОЕ ОПИСАНИЕ ЧАСТИ 2: • Ceph NVMe Cluster: 6 Key Performance Tweak...
Нажмите «Подписаться», чтобы не пропустить заключительную часть — и более подробное изучение Ceph, ZFS, Proxmox и корпоративной инфраструктуры.
#ceph #enterprisestorage #storageserver #nvme #100GbNetworking #proxmox #zfs #IOPS #ClusterExpansion #45drives #storagesolutions #techtips #networkspeed
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: