Вернуться к списку оборудования

Центр коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В.Ломоносова


Краткое название: Суперкомпьютерный комплекс МГУ
Тип: Комплексы научного оборудования
Подразделение: Научно-исследовательский вычислительный центр
Начало эксплуатации: 21 декабря 2009
Идентификатор: 6658441

Технические характеристики: Общая характеристика Основные технические характеристики суперкомпьютерного комплекса МГУ Пиковая производительность 5,505 Пфлопс Производительность на тесте Linpack 2,478 Пфлопс Число вычислительных узлов 1 730 Основной тип процессора Intel Haswell-EP E5-2697v3, 2.6 GHz, 14 cores Тип ускорителя NVidia Tesla K40M Общее число ядер 64 384 Оперативная память на узел 64 GB Основная сеть Infiniband FDR Сеть I/O Infiniband FDR Управляющая сеть Gigabit Ethernet Операционная система CentOS 7 Производитель Т-платформы(link is external) Год выпуска 2017 г. Раздел Compute Общее число узлов 1487 Центральный процессор Intel Haswell-EP E5-2697v3, 2.6 GHz, 14 cores Графический ускоритель NVidia Tesla K40M Объем оперативной памяти на узле 64 GB Основная сеть Infiniband FDR Сеть I/O Infiniband FDR Управляющая сеть Gigabit Ethernet Операционная система CentOS 7 Раздел Test Общее число узлов 32 Центральный процессор Intel Haswell-EP E5-2697v3, 2.6 GHz, 14 cores Графический ускоритель NVidia Tesla K40M Объем оперативной памяти на узле 64 GB Основная сеть Infiniband FDR Сеть I/O Infiniband FDR Управляющая сеть Gigabit Ethernet Операционная система CentOS 7 Раздел Pascal Общее число узлов 160 Центральный процессор Intel Xeon Gold 6126 (12 ядер, 2.6 ГГц) Графический ускоритель 2 x Nvidia P100 (3584 cuda ядер, 16 ГБ памяти) Объем оперативной памяти на узле 96 ГБ Основная сеть Infiniband FDR Сеть I/O Infiniband FDR Управляющая сеть Gigabit Ethernet Операционная система CentOS 7 Раздел Phi Общее число узлов 4 Центральный процессор Intel(R) Xeon Phi(TM) CPU 7230, 1.30GHz, 64 cores Графический ускоритель нет Объем оперативной памяти на узле 112 ГБ Основная сеть Infiniband FDR Сеть I/O Infiniband FDR Управляющая сеть Gigabit Ethernet Операционная система CentOS 7 Раздел Volta1 Общее число узлов 16 Центральный процессор Intel Xeon Gold 6142, 16 ядер, 2.60GHz - 1331.2 GFlop/s Графический ускоритель 2x Nvidia Tesla V100 900‐2G503‐0010‐000, 1246 MHz, 7 TFlop/s Объем оперативной памяти на 1 GPU 32 ГБ Объем оперативной памяти на узле 96 ГБ Основная сеть Infiniband FDR Сеть I/O Infiniband FDR Управляющая сеть Gigabit Ethernet Операционная система CentOS 7 Раздел Volta2 Общее число узлов 18 Центральный процессор 2x Intel Xeon Gold 6240, 18 ядер, 2.60GHz - 1497.6 GFlop/s Графический ускоритель 2x Nvidia Tesla V100 900-2G500-0010-000, 1246 MHz, 7 TFlop/s Объем оперативной памяти на 1 GPU 32 ГБ Объем оперативной памяти на узле 1536 ГБ Основная сеть Infiniband FDR Сеть I/O Infiniband FDR Управляющая сеть Gigabit Ethernet Операционная система CentOS 7 Раздел NEC Общее число узлов 8 Центральный процессор NEC SX-Aurora Tsubasa A300-2 Объем оперативной памяти на узле 192 ГБ Основная сеть Infiniband EDR Операционная система CentOS 7 Система хранения Хранилище домашних каталогов 290 ТБ Хранилище рабочих файлов 1400 ТБ Служебное хранилище 246 ТБ Раздел узлов / тип память диски max ядро-часов max/default время (часов на задачу) max задач max запущенных задач max узлов на задачу, не более compute 1504/K40 64 ГБ (4,5 ГБ/ядро) нет нет 48/24 6 3 50 pascal 160/P100 64 ГБ (5,3 ГБ/ядро) нет нет 20/20 8 4 30 test 32/K40 64 ГБ (4,5 ГБ/ядро) нет нет 15 минут 3 1 15 Current rank in Top50 rating - #2 (March 2021). Current rank in Top500 rating - #199 (June 2021).
Расписание:

План работы центра

2024.01.01-2024.03.15 - расчёты пользователей
2024.03.16-2024.03.22 - профилактические работы
2024.03.21-2024.08.23 - расчёты пользователей
2024.08.24-2024.08.30 - профилактические работы
2024.08.31-2024.11.22 - расчёты пользователей
2024.11.23-2024.11.29 - профилактические работы
2024.11.30-2025.02.14 - расчёты пользователей

https://parallel.ru/cluster/rules - условия доступа

Жуматий Сергей Анатольевич, вед.н.с. НИВЦ МГУ
8(495)939-23-47, support@parallel.ru

Адрес:

Москва, ул. Ломоносовский проспект, д. 27, кор. 1

Список ответственных за данное оборудование: В состав комплекса входит следующее оборудование:
Тип Название
Другие типы оборудования (указать какие именно) Суперкомпьютер "Ломоносов-2"

Прикрепленные файлы


Имя Описание Имя файла Размер Добавлен
1. Иллюстрация Зал с подсистемами энергообеспечения суперкомпьютера МГУ "Ломоносов-2" IMG_4590.JPG 3,2 МБ 26 июля 2017 [SidorovI]
2. Иллюстрация Общий вид суперкомпьютера МГУ "Ломоносов" lomonosov_11.jpg 327,9 КБ 26 июля 2017 [SidorovI]
3. Иллюстрация Суперкомпьютер "Ломоносов" Lomonosov.jpg 1,5 МБ 19 июля 2017
4. Иллюстрация Вычислительные узлы суперкомпьютера МГУ "Ломоносов-2" IMG_4604.JPG 3,1 МБ 26 июля 2017 [SidorovI]
5. Иллюстрация Зал с подсистемами охлаждения суперкомпьютера МГУ "Ломоносов-2" IMG_4577.JPG 3,6 МБ 26 июля 2017 [SidorovI]
6. Иллюстрация Вычислительная стойка суперкомпьютера МГУ "Ломоносов-2" IMG_4599.JPG 3,3 МБ 26 июля 2017 [SidorovI]
7. Иллюстрация Макет суперкомпьютерного центра МГУ IMG_4596.JPG 3,0 МБ 26 июля 2017 [SidorovI]
8. Иллюстрация Зал с подсистемами энергообеспечения суперкомпьютера МГУ "Ломоносов" lomonosov_46.jpg 254,2 КБ 26 июля 2017 [SidorovI]
9. Иллюстрация Система охлаждения суперкомпьютера "Ломоносов" lomonosov_32s.jpg 54,0 КБ 19 июля 2017
10. Методика Особенности работы с многоуровневой системой хранения данных (СХД) на СК "Ломоносов" Tiered_storage_Lomonosov_.pdf 145,1 КБ 19 июля 2017
11. Методика В методике рассматриваются вопросы компиляции, запуска, использования готовых пакетов на суперкомпьютерном комплексе. Byistryij_start.doc 70,5 КБ 19 июля 2017
12. Методика Основная информация по работе на суперкомпьютере "Ломоносов" Osnovnaya_informatsiya_po_rabote_na_superkompyutere.doc 29,0 КБ 19 июля 2017

Научные работы: