Вычислительные ноуды | GPU-карты | Хранение данных | Служебные сервера
Интерлинк | Интернет | Питание | Охлаждение | Задачи | Доступ
В Астрофизическом институте им. Фесенкова (АФИФ) действует компьютерный кластер, состоящий из нескольких высокопроизводительных вычислительных узлов, оснащенных многоядерными центральными и графическими процессорами. Теоретическая производительность кластера с одинарной точностью в настоящее время достигает максимума в 75 терафлопс для операций с ЦПУ (820 ядер / 1640 потоков) и 1235 терафлопс для операций на графических процессорах (304 640 ядер CUDA). Кроме того, имеется отказоустойчивое хранилище данных объемом 230 терабайт. Сервера в кластере коммутируются по 10-гигабитным каналам связи и работают под управлением ОС Linux. Планирование задач организовано с помощью диспетчера рабочей нагрузки SLURM. Проведение вычислений и хранение данных на кластере АФИФ доступно также по онлайн-заявке, после утверждения которой, заявителю открывается SSH-доступ к кластеру с согласованными разрешениями.
Кластер АФИФ непрерывно развивается, по возможности увеличивается количество вычислительных серверов, gpu-карт, накопительная емкость, скорость интерлинка.
Вычислительные ноуды
Компьютерный кластер оснащен тремя видами вычислительных серверов: кастомные на базе компьютерных компонентов потребительского класса, профессиональные на базе процессоров Intel Xeon и профессиональные сервера на базе процессоров AMD Epyc.
|
|
|
Кастомные сервера призваны обеспечивать максимального производительность на ядро, недоступную в профессиональных решениях. Для этого в них используются разогнанные high-end процессоры, такие как i7-5960X, i9-9900K, i9-10900K. Максимальная рабочая частота одновременной работы всех ядер в таких системах достигает 5.5GHz, а количество ядер 10. Объем оперативной памяти варьируется от 16 до 64 гигабайт.
Профессиональными серверами на базе процессоров Intel Xeon являются двухпроцессорные рабочие станции от компании SuperMicro, в частности GPU SuperWorkstation 7049GP-TRT и GPU SuperServer SYS-740GP-TNRT. Эти системы оснащены процессорами Xeon 6126, Xeon 6226, Xeon 6326 и Xeon 8362. Объем оперативной памяти варьируется от 80 до 256 гигабайт. Количество ядер на процессор/сервер составляет 12/24, 16/32 и 32/64. Возможна установка до 4-х полноразмерных двухслотовых GPU-карт или 2-х трехслотовых.
Профессиональные сервера на базе процессоров AMD Epyc реализованы на двухпроцессорных платформах SuperMicro GPU A+Server 4124GS-TNR и GPU A+ Server AS-4125GS-TNRT2. Системы оснащены самыми многоядерными процессорами в кластере, а именно Epyc 7763 и Epyc 9654, которые имеют 64 и 96 ядер соответственно. Объем оперативной памяти в этих серверах достигает 512 и 768 гигабайт. Возможно размещение от 8 до 10 полноразмерных GPU-карт.
Совокупная CPU-производительность всех серверов составляет 75.2 терафлопса, при условии проведения вычислений с одинарной точностью и использования векторных инструкций.
GPU-карты
В кластере активно используются несколько моделей видеокарт класса high-end, такие как Nvidia GTX 1080, Nvidia GTX 1080 Ti и Nvidia RTX 2080 Ti, а также более новые Nvidia RTX Nvidia RTX 3090 24GB и Nvidia RTX 4090 24G. Хотя данные модели относятся к потребительскому и игровому сегменту, вместе с тем они содержат большое количество универсальных вычислительных ядер (Cuda Cores, CC) позволяющих проводить массивные вычисления общего назначения.
PALIT RTX 3090 GamingPro OC |
INNO3D GeForce RTX 4090 X3 OC |
Теоретическая вычислительная мощность всех видеокарт составляет 1296 терафлопс (для вычислений с одинарной точностью).
Хранение данных
Для хранения данных используется кластер из двух идентичных NAS-серверов Synology RackStation RS4021xs+. В каждый сервер установлены 16 жестких дисков Seagate Exos X18 емкостью 18 терабайт, которые организованы в RAID6 массив. Серверы соединены выделенным 10-гигабитным каналом для синхронизации данных. Каждый сервер может пережить одновременную потерю двух дисков, а кластер в целом – полный выход из строя одного из серверов, что обеспечивает высокую надежность хранения данных. Фактическая емкость кластера составляет 230 терабайт, с возможностью расширения до 1 петабайта.
Synolgy RackStation RS4021xs+ High Availability Cluster |
Все место на NAS-кластере организовано в виде одного BTRFS-тома и доступно с каждого вычислительного сервера, а также с каждого рабочего компьютера в институте, в виде сетевой NFS-директории. Система обеспечивает хранение наблюдательных и вычислительных данных, а также рабочих данных пользователей.
Служебные сервера
Для полноценного функционирования кластера требуется работа разнообразных служб, таких как файрвол, DHCP, DNS, LDAP, Grafana, Slurm и многих других. Для этих целей в кластере АФИФ выделены два специализированных одноюнитовых сервера SuperMicro SuperServer SYS-510P-WTR с идентичными характеристиками (Intel Xeon 6314U 32C/64T, RAM 64GB). Оба сервера объединены в PROXMOX-кластер, в виртуальной среде которого выполняются все необходимые службы и сервисы. Высокие характеристики серверов позволяют заключать службы в индивидуальные контейнеры и виртуальные машины, при этом обеспечивая высокую скорость и низкие задержки в их работе. Благодаря двухсерверной архитектуре, в случае сбоя одного из серверов, все находящиеся на нем контейнеры мигрируют на рабочий сервер, обеспечивая практически бесперебойную работу всех служб.
Кластер SuperMicro SuperServer SYS-510P-WTR |
Данные сервера также обеспечивают хостинг интернет-сервисов, разрабатываемых в институте, таких как vo.fai.kz и ssa.fai.kz.
Интерлинк
Все межсерверные коммуникации в кластере осуществляются по сетевым Ethernet-каналам через два 1-гигабитных TP-Link SG1016D и TP-Link SG1024D, и два 10-гигабитных коммутатора NETGEAR XS708T и NETGEAR XS728T. Кастомные сервера имеют 1 гигабитные Ethernet-подключение и коммутируются через гигабитный коммутатор UTP-кабелями 5-ой категории, в то время как практически все профессиональные (кроме 4124GS-TNR), сетевые и служебные сервера снабжены двумя 10 гигабитными Ethernet интерфейсами и подключены к 10 гигабитным коммутаторам кабелями 6-ой категории.
Интернет
Связь кластера АФИФ с внешним миром обеспечивается двумя независимыми интернет-соединениями – основным и резервным. Основное соединение осуществляется по оптоволоконной линии с шириной канала 100 мегабит. Резервное соединение, шириной 25 мегабит, идет через радиоканал. Оба канала работают параллельно в режиме балансировки нагрузки, увеличивая эффективную ширину канала связи до 125 мегабит. В случае отказа одного из каналов, все соединения, проходящие через него, автоматически переустанавливаются через второй канал, обеспечивая высокую отказоустойчивость линии связи с кластером.
Питание
Электропитание кластера осуществляется через 6 источников бесперебойного питания (ИБП) с функцией двойного преобразования Eaton 9SX 6000iR 6000 VA / 5400 кВт общей мощностью 6 × 5.4 кВт = 32.4 кВт. При этом пиковое энергопотребление кластера составляет 12 кВт. Избыточная мощность обусловлена резервированием питания для целей отказоустойчивости, а также созданием возможности для обслуживания и замены ИБП на лету, без отключения серверов. По этой причине, все профессиональные сервера подключены одновременно к нескольким независимым ИБП. Последнее возможно благодаря наличию в серверах нескольких (от 2-х до 4-х) блоков питания и наличию достаточного количества (8-и) разъемов С14 на каждом Eaton 9SX 6000iR. В результате, отключение или выход из строя одного ИБП или блока питания не приводит к обесточиванию сервера. Функция двойного преобразования обеспечивает высокую защиту и стабильные характеристики питания, а также минимизирует использование аккумуляторных батарей, продлевая их жизнь. При отключении сетевого электричества, питание всего кластера продержится в течении 5 минут, после чего питание сохраняется только для критической нагрузки – служебных серверов, NAS-серверов, коммутаторов, интернет-модемов и интернет-антенн – вплоть до полной разрядки ИБП, что позволяет обеспечить их работу примерно в течении 3.5 часов без сетевого питания.
Охлаждение
Для охлаждения кластера используется инверторный прецизионный сплит-кондиционер Mitsubishi Electric SPLIT EVO INV IN/OUT 0071 LT холодопроизводительностью 17.3 кВт. Кондиционер снабжен функцией естественного охлаждения (free-cooling), позволяющей большую часть года охлаждать кластер наружным воздухом без использования компрессора, существенно экономя электроэнергию.
Задачи
Основные задачи, решаемые кластером, – это компьютерное моделирование, хранение и обработка данных. В частности, численное моделирование динамики звездных скоплений, галактических центров, галактик и галактических систем, а также хранение и обработка наблюдательных данных, поступающих с обсерваторий АФИФ.
Доступ
Доступ к кластеру осуществляется посредством SSH-протокола в два этапа. Вначале производится авторизация на шлюз-сервере, после чего осуществляется авторизация на внутреннем сервере, как правило, master-сервере, с которого производится запуск вычислительных задач с использованием планировщика задач SLURM. По вопросу доступа к кластеру необходимо обратиться по адресу admin@fai.kz, или оформить заявку на портале Казахстанской Виртуальной Обсерватории: vo.fai.kz/comput_sub.php.