Написать это я решил, поскольку не нашел в интернете ничего вменяемого о том, как сделать на винде отказоустойчивый кластер без использования SAN. Может кому пригодится.
Поиск:
Написать это я решил, поскольку не нашел в интернете ничего вменяемого о том, как сделать на винде отказоустойчивый кластер без использования SAN. Может кому пригодится.
С учетом комментов сделаю небольшое дополнение.
Распоряжением начальства я был ограничен использованием Windows! Из доступного мне железа имелось два новых i7, купленных согласно ФЗ44, то есть, материнская плата Colorfull и память Xunix, а так же старый Xeon времен 775 сокета, диски к которому я выдирал из списанного МРТ.
Если вы сумеете рассказать, как с имеющимися ограничениями сделать более правильно, то я буду крайне признателен.
Итак.
Потребовалось мне на работе сделать отказоустойчивый кластер для виртуальной машины высокой доступности, но поскольку работаю я в областной детской больнице, то с железом у нас не очень. Поохав, начальство выделило мне две неплохих рабочих станции (i7\32Gb RAM), старый сервер (xeon e5445) и Микротик Hap AC Lite
За пару дней сложилась у меня следующая схема:
На каждой рабочей станции установлено две сетевые карты. Одна из карт на каждой машине смотрит в сеть, вторая воткнута в микротик. В тот же микротик воткнут наш старый сервер. Это сделано для того, что бы траффик ISCSI не шел через загруженную локальную сеть. У меня около 2000 компьютеров в пяти детских поликлиниках и больнице, и локалка порой несколько проседает. Не будем грузить ее еще и траффиком ISCSI.
Ставим на машины Server 2019, поднимаем на двух бывших рабочих станциях фичу Отказоустойчивая кластеризация, делаем их узлами 1 и 2. Вот инструкция, как создать. Тесты по хранилищу он у вас пока не пройдет, не парьтесь, поднимайте все без них.
На старом сервере поднимаем роли HyperV и сервера ISCSI. Создаем виртуальную машину, ставим на нее тот же server 2019, поднимаем роль отказоустойчивой кластеризации, делаем ее узлом 3 нашего кластера.
Потом на старом сервере в оснастке ISCSI сервера создаем новый виртуальный жесткий диск. Вот подробная инструкция
Указываете все три узла разрешенными для подключения к новому диску.
Дальше переходим к нашему кластеру. Подключаем через инициатор ISCSI недавно созданный диск на всех трех узлах. Теперь создаем в оснастке кластера виртуальную машину, накатываем на нее операционку. В свойствах указываем узлы 1 и 2 как доступные для размещения на них нашей виртуальной машины, делая узел 3 недоступным для размещения.
В настройках хранилища назначаем хозяином кластерного диска узел 3.
На этом создание кластера можно считать завершенным. Выключаем узел 1, наблюдаем, как срабатывает кворум, и машина переходит на узел 2. Правда в отличии от ранее создаваемых мною кластеров с использованием SAN, здесь эта процедура происходит значительно медленнее. Кластеру понадобилось около пяти минут после выключения узла 1, что бы восстановился пинг на виртуалку. Обратная динамическая миграция на узел 1 после его включения происходит значительно быстрее, примерное через пару минут, хозяином снова становится узел 1.
В дальнейшем буду просить еще один старый сервер для повышения отказоустойчивости кластерного диска. Он в этой схеме остается самым критичным местом.
Трем сыр :)
Линию открыли в качестве второй очереди производства