Традиционная инфраструктура разделена: серверы — отдельно, СХД — отдельно, сеть — отдельно. Результат: сложное управление, долгое развёртывание, раздельное масштабирование. Гиперконвергентная инфраструктура (HCI) объединяет вычисления, хранение и сеть на одних узлах.
Что такое HCI
HCI — архитектура, где вычислительные ресурсы и хранилище работают на одних серверах. Каждый узел содержит:
- Процессоры и память;
- Локальные диски;
- Программный слой управления хранением;
- Сетевые интерфейсы.
Все узлы объединены в кластер с единым управлением.
Архитектура HCI
[Узел 1: CPU + RAM + Диски + Гипервизор] ┐
[Узел 2: CPU + RAM + Диски + Гипервизор] ├─ Кластер
[Узел 3: CPU + RAM + Диски + Гипервизор] ┘ ↓
Виртуальные машины используют вычисления и хранение локально
Ключевое отличие от классической схемы: нет отдельной СХД, хранилище распределено по узлам, управление через один интерфейс.
Три компонента HCI
| Компонент | Реализация |
|---|---|
| Вычисления | виртуализация на узлах |
| Хранение | программно-определяемое (SDS) |
| Сеть | виртуальные сети поверх физических |
Все функции реализует ПО, а не специализированное железо.
Как работает хранилище в HCI
Локальные диски узлов объединяются программным слоем в общий пул. Механизм работы:
Запись данных ↓ Данные распределяются по узлам ↓ Создаются реплики на других узлах ↓ ВМ читает данные с локального узла (быстро)
При отказе узла виртуальные машины переносятся, данные читаются с реплик.
Масштабирование HCI
Горизонтальное — добавление узлов в кластер.
Процесс масштабирования: Кластер 3 узла (30 ТБ, 60 ядер) ↓ Добавление узла ↓ Автоматическая ребалансировка ↓ Кластер 4 узла (40 ТБ, 80 ядер)
Особенность: вычисления и хранение масштабируются совместно. Ограничение: нельзя добавить только CPU или только диски отдельно.
Преимущества HCI
- Упрощение инфраструктуры: нет отдельной СХД, нет FC-коммутаторов, меньше компонентов.
- Единое управление: один интерфейс для всей инфраструктуры, автоматизация развёртывания ВМ, централизованный мониторинг.
- Быстрое развёртывание: от распаковки до работы за часы, а не недели; предустановленное ПО; типовые конфигурации.
- Линейное масштабирование: добавил узел → получил ресурсы; без остановки кластера; автоматическая ребалансировка.
Когда HCI оправдан
Сценарии применения:
- Виртуализация средних масштабов (50-500 ВМ);
- VDI (виртуальные рабочие столы);
- Удалённые офисы и филиалы;
- Тестовые и dev-среды;
- Консолидация инфраструктуры филиалов.
HCI эффективен там, где важны простота управления, быстрое развёртывание и поэтапное масштабирование.
Когда HCI не подходит
- Критичные БД с минимальной latency (<0.5 мс);
- Несбалансированные нагрузки (много CPU, мало дисков или наоборот);
- Масштабы >1000 ВМ (традиционная инфраструктура эффективнее);
- Необходимость раздельного масштабирования вычислений и хранения.
Для высоконагруженных OLTP-БД традиционная All-Flash СХД может дать лучшую производительность.
Требования к сети
HCI критически зависит от сети — она становится шиной между узлами.
Минимальные требования
| Масштаб | Скорость сети | Latency |
|---|---|---|
| <10 узлов | 10 GbE | <1 мс |
| 10-30 узлов | 25 GbE | <1 мс |
| >30 узлов | 25-100 GbE | <0.5 мс |
Важно: сеть хранения должна быть выделенной. Совмещение с основной сетью приводит к конфликту трафика, задержкам ВМ и деградации производительности.
Сравнение HCI и традиционной инфраструктуры
| Параметр | HCI | Традиционная |
|---|---|---|
| Развёртывание | часы | недели |
| Масштабирование | добавление узлов | апгрейд СХД |
| Управление | единый интерфейс | раздельные системы |
| Сложность | низкая | высокая |
| CAPEX | ниже на старте | выше на старте |
| Производительность БД | средняя | максимальная |
| Гибкость | ограниченная | высокая |
HCI проще, традиционная инфраструктура — производительнее и гибче.
Главная ошибка внедрения HCI
Типичный сценарий: «HCI = простота, поставим везде». Реальность:
- Несбалансированные нагрузки (много CPU, мало дисков);
- Производительность БД ниже ожиданий;
- Сложности масштабирования при росте.
Правильный подход: HCI — для виртуализации общего назначения, VDI и филиалов. Для критичных БД — традиционная инфраструктура с выделенной СХД.
Типы архитектур HCI
| Тип архитектуры | Особенность |
|---|---|
| Полностью интегрированная | вычисления и хранение на каждом узле; простота, но совместное масштабирование |
| Дезагрегированная (dHCI) | вычислительные узлы отдельно; узлы хранения отдельно; гибкость масштабирования, сложнее управление |
| Композитная | часть узлов с дисками; часть только вычислительные; компромисс между гибкостью и простотой |
Выбор зависит от профиля нагрузки.
Программная основа HCI
Все HCI-платформы используют:
- Гипервизор (виртуализация серверов);
- SDS (программное хранилище);
- SDN (виртуализация сети);
- Единая система управления.
Функции ПО: распределение данных, репликация, дедупликация, автоматическая ребалансировка, миграция ВМ.
Отказоустойчивость в HCI
Сценарий отказа узла: Узел вышел из строя ↓ Кластер детектирует отказ ↓ ВМ автоматически запускаются на других узлах ↓ Данные читаются с реплик ↓ Запускается ребалансировка данных
Типичное время восстановления: 2-5 минут для перезапуска ВМ.
HCI меняет подход к построению инфраструктуры виртуализации. Ключевые принципы: объединение вычислений и хранения, программная реализация функций, линейное масштабирование, упрощение управления.
HCI оправдан для виртуализации средних масштабов, VDI, филиалов и быстрого развёртывания. Традиционная инфраструктура остаётся выбором для критичных БД, больших масштабов (>1000 ВМ) и максимальной производительности.
Частые вопросы
В чём главное отличие HCI от традиционной инфраструктуры?
HCI объединяет вычисления и хранение на одних серверах с программным управлением. Традиционная инфраструктура использует отдельную СХД. HCI проще в управлении, но масштабирует CPU и диски только совместно.
Какая сеть нужна для HCI?
Минимум 10 GbE, для кластеров >10 узлов — 25 GbE. Критично: выделенная сеть хранения, latency <1 мс. Совмещение с основной сетью приводит к конфликту трафика и задержкам ВМ.
Когда HCI не подходит?
HCI не подходит для критичных OLTP-БД с требованиями latency <0.5 мс, масштабов >1000 ВМ и несбалансированных нагрузок (много CPU при малом объёме данных). В этих случаях традиционная инфраструктура эффективнее.
