К-100 (суперкомпьютер): различия между версиями
w>Editor27 |
In.wiki (комментарии | вклад) м (25 версий импортировано: Импорт из Руниверсалис) |
||
(не показано 15 промежуточных версий 1 участника) | |||
Строка 1: | Строка 1: | ||
− | |||
'''К-100''' — гибридный [[суперкомпьютер]] разработанный и созданный совместно [[ИПМ им. М.В. Келдыша РАН|ИПМ им.М.В.Келдыша РАН]] и [[НИИ «Квант»|ФГУП НИИ “Квант”]]<ref name=":0">[http://www.isa.ru/jitcs/images/documents/2016-02/5_12.pdf ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ И ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ 2/2016] | '''К-100''' — гибридный [[суперкомпьютер]] разработанный и созданный совместно [[ИПМ им. М.В. Келдыша РАН|ИПМ им.М.В.Келдыша РАН]] и [[НИИ «Квант»|ФГУП НИИ “Квант”]]<ref name=":0">[http://www.isa.ru/jitcs/images/documents/2016-02/5_12.pdf ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ И ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ 2/2016] | ||
Строка 5: | Строка 4: | ||
==Конфигурация и параметры.== | ==Конфигурация и параметры.== | ||
− | В состав суперкомпьютера входят 64 вычислительных узла, объединённых одновременно четырьмя вычислительными сетями - двумя сервисными, построенными на технологии [[Gigabit Ethernet]] и двумя вычислительными — [[InfiniBand|Infiniband]] на платах компании [[QLogic]] и [[МВС-Экспресс]], разработанной совместно ИПМ и НИИ "Квант"<ref>Г.С. Елизаров, В.С. Горбунов, В.К. Левин, В.В. Корнеев, А.О. Лацис, А.А. Соколов, Д. В. Андрюшин, Ю.А. Климов. Коммуникационная сеть МВС-Экспресс. «Вычислительные методы и программирование» т. 13 (2012г) ISSN 1726-3522 Раздел 2, С. 103-109</ref>. Последняя оптимизирована для тяжелых нагрузок, связанных с вычислениями в гибридных средах<ref name=":0" />. | + | В состав суперкомпьютера входят 64 вычислительных узла, объединённых одновременно четырьмя вычислительными сетями - двумя сервисными, построенными на технологии [[Gigabit Ethernet]] и двумя вычислительными — [[InfiniBand|Infiniband]] на платах компании [[QLogic]] и [[МВС-Экспресс]], разработанной совместно ИПМ и НИИ "Квант"<ref>Г.С. Елизаров, В.С. Горбунов, В.К. Левин, В.В. Корнеев, А.О. Лацис, А.А. Соколов, Д. В. Андрюшин, Ю.А. Климов. Коммуникационная сеть МВС-Экспресс. «Вычислительные методы и программирование» т. 13 (2012г) ISSN 1726-3522 Раздел 2, С. 103-109</ref> на базе технологии [[PCI Express]]<ref>{{Cite web|lang=ru|url=https://www.kiam.ru/MVS/research/mvse/|title=Вычислительная система МВС–Экспресс|website=Сайт ИПМ им. М.В.Келдыша РАН.}}</ref>. Последняя оптимизирована для тяжелых нагрузок, связанных с вычислениями в гибридных средах<ref name=":0" />. |
− | Каждый из вычислительных узлов первоначально включала в себя 2 шестиядерных процессора [[Intel Xeon|Intel Xeon X5670]], 96 Gb [[Оперативная память|оперативной памяти]] [[DDR3 SDRAM]], и 3 графических ускорителя [[Fermi (микроархитектура)|nVidia Fermi C2050]], некоторые из которых во время эксплуатации были заменены на С2075/М2075<ref name=":1">{{Cite web|lang=ru|url=https://www.kiam.ru/MVS/resourses/k100.html|title=Гибридный вычислительный кластер K-100|website=Сайт ИПМ им. М.В.Келдыша РАН}}</ref>. | + | Каждый из вычислительных узлов первоначально включала в себя 2 [[Ядро процессора|шестиядерных]] процессора [[Intel Xeon|Intel Xeon X5670]], 96 Gb [[Оперативная память|оперативной памяти]] [[DDR3 SDRAM]], и 3 графических ускорителя [[Fermi (микроархитектура)|nVidia Fermi C2050]], некоторые из которых во время эксплуатации были заменены на С2075/М2075<ref name=":1">{{Cite web|lang=ru|url=https://www.kiam.ru/MVS/resourses/k100.html|title=Гибридный вычислительный кластер K-100|website=Сайт ИПМ им. М.В.Келдыша РАН}}</ref>, по состоянию на 2025 год на 4 узлах графические ускорители выведены из эксплуатации<ref name=":2">{{Cite web|lang=ru|url=https://www.kiam.ru/MVS/resourses/|title=Вычислительные ресурсы|website=Сайт ИПМ им. М.В.Келдыша РАН.}}</ref>. |
В состав комплекса также входят управляющая машина, и два внешних дисковых хранилища - 22Tb для обычных счетных задач и 128Tb для задач с большими объёмами<ref name=":1" />. | В состав комплекса также входят управляющая машина, и два внешних дисковых хранилища - 22Tb для обычных счетных задач и 128Tb для задач с большими объёмами<ref name=":1" />. | ||
+ | Суммарное энергопотребление К-100 — около 80 кВт, пиковая производительность — 107 [[FLOPS|TFLOPS]]. Стоимость установки составила около 65 млн. рублей<ref name=":0" />. | ||
− | + | Сервер работает под управлением операционной системы [[Linux]] (SLES 11 SP1 / [[CentOS]] 5.5), для загрузки задач используется разработанная в ИПМ Система Управления Прохождением Пользовательских Задач (СУППЗ)<ref name=":0" /><ref name=":1" />. | |
+ | |||
+ | Пользователям предоставляется удалённый доступ по [[SSH]]/[[SCP]]. Для компиляции ПО могут быть использованы [[Си (язык программирования)|С]]/[[C++]], [[Fortran]] с библиотеками [[Параллельные вычисления|распараллеливания вычислений]] [[Message Passing Interface|MPI]], [[OpenMP]], [[SHMEM]], [http://dvm-system.org/ru/ DVM,] [[CUDA]]<ref name=":0" /><ref name=":1" />. | ||
+ | |||
+ | Суперкомпьютер имеет сетевые подключения для доступа из Интернет и сети ИПМ. | ||
+ | |||
+ | К-100 — не единственный суперкомпьютер, находящийся в распоряжении ИПМ, наряду с ним работают вычислительные комплексы МВС-Экспресс, К-10, К-60 и К-120<ref name=":2" />. | ||
+ | |||
+ | ==Научное значение системы== | ||
+ | Среди вычислительных задач, решавшихся на суперкомпьютере, можно перечислить следующие: | ||
+ | |||
+ | *[[Вычислительный эксперимент|Вычислительные эксперименты]] по [[Резонатор|резонаторам]] и [[Звукопоглощение|звукопоглощающим конструкциям]], по [[Моделирование|моделированию]] [[Лопасть|лопастей]] [[Несущий винт|несущего]] и [[Рулевой винт|рулевого винта]] [[Вертолёт|вертолета]]<ref>Абалакин И.В., Бахвалов П.А., Бобков В.Г., Козубская Т.К., Аникин В.А., Численное моделирование аэродинамических и акустических характеристик винта в кольце // Математическое моделирование. 2015. том 27. No 10. С. 125-144.</ref>; | ||
+ | |||
+ | *Моделирование [[Аэродинамический шум|аэродинамического шума]] для европейского проекта VALIANT, моделирование [[Турбулентное течение|турбулентных течений]] в различных конфигурациях<ref>Дубень А.П. Вычислительные технологии для моделирования сложных пристеночных турбулентных течений на неструктурированных сетках // Математическое моделирование. 2013. том 25. No 9. С. 4-16.</ref>; | ||
+ | *Разработка способов моделирования задач механики сплошной среды в виде переносимых [[OpenCL]]-реализаций для расчетов сжимаемых течений на гибридных неструктурированных сетках<ref>Суков С.А., Горобец А.В., Богданов П.Б. Адаптация и оптимизация базовых операций газодинамического алгоритма на неструктурированных сетках для расчетов на массивно-параллельных ускорителях // Журнал вычислительной математики и математической физики. 2013. том 53. No 8. С. 1360–1373.</ref> и несжимаемых течений на структурированных разнесенных сетках. | ||
+ | *Произведена разработка специализированного [[Диспетчер операционной системы|планировщика]] OpenCL-заданий<ref>Богданов П.Б., Ефремов А.А., Горобец А.В., Суков С.А. Применение планировщика для эффективного обмена данным и насуперкомпьютерах гибридной архитектуры с массивно-параллельными ускорителями // Вычислительные методы и программирование. 2013. т.14. С. 122-134</ref>. | ||
+ | *Разработка программного комплекса NOISETTE, предназначенного для решения задач [[Аэродинамика|аэродинамики]] и [[Акустика|аэроакустики]]<ref>[https://num-meth.ru/index.php/journal/article/view/568/575 Вычислительные методы и программирование. 2012. Т. 13] | ||
+ | |||
+ | [https://num-meth.ru/index.php/journal/article/view/568/575 ПАРАЛЛЕЛЬНЫЙ ПРОГРАММНЫЙ КОМПЛЕКС NOISETTEДЛЯ КРУПНОМАСШТАБНЫХ РАСЧЕТОВ ЗАДАЧА ЭРОДИНАМИКИ И АЭРОАКУСТИКИ] | ||
− | + | [https://num-meth.ru/index.php/journal/article/view/568/575 И.В.Абалакин, П.А.Бахвалов, А.В.Горобец, А.П. Дубень, Т.К. Козубская] </ref>; | |
+ | *Ряд других научных задач<ref>А.В. Березин, А.С. Воронцов, М.Е. Жуковский, М.Б. Марков, С.В. Паротькин. Метод частиц для электронов в рассеивающей среде. ЖВМИМФ, 2015, том 55, No 9, С. 1566–1578.</ref><ref>Л.П.Басс, Н.И.Коконков, О.В.Николаева, В.С. Кузнецов. Решение задач радиационной защиты на неструктурированных тетраэдрических сетках. Сборник докладов 10-й Юбилейной Российской научной конференции «Радиационная защита и радиационная безопасность в ядерных технологиях», 22-25 сентября 2015 г. Москва, Обнинск.</ref>. | ||
==Примечания== | ==Примечания== | ||
<references /> | <references /> | ||
[[Категория:Суперкомпьютеры России]] | [[Категория:Суперкомпьютеры России]] |
Текущая версия от 00:54, 7 сентября 2025
К-100 — гибридный суперкомпьютер разработанный и созданный совместно ИПМ им.М.В.Келдыша РАН и ФГУП НИИ “Квант”[1].
Конфигурация и параметры.[править | править код]
В состав суперкомпьютера входят 64 вычислительных узла, объединённых одновременно четырьмя вычислительными сетями - двумя сервисными, построенными на технологии Gigabit Ethernet и двумя вычислительными — Infiniband на платах компании QLogic и МВС-Экспресс, разработанной совместно ИПМ и НИИ "Квант"[2] на базе технологии PCI Express[3]. Последняя оптимизирована для тяжелых нагрузок, связанных с вычислениями в гибридных средах[1].
Каждый из вычислительных узлов первоначально включала в себя 2 шестиядерных процессора Intel Xeon X5670, 96 Gb оперативной памяти DDR3 SDRAM, и 3 графических ускорителя nVidia Fermi C2050, некоторые из которых во время эксплуатации были заменены на С2075/М2075[4], по состоянию на 2025 год на 4 узлах графические ускорители выведены из эксплуатации[5].
В состав комплекса также входят управляющая машина, и два внешних дисковых хранилища - 22Tb для обычных счетных задач и 128Tb для задач с большими объёмами[4].
Суммарное энергопотребление К-100 — около 80 кВт, пиковая производительность — 107 TFLOPS. Стоимость установки составила около 65 млн. рублей[1].
Сервер работает под управлением операционной системы Linux (SLES 11 SP1 / CentOS 5.5), для загрузки задач используется разработанная в ИПМ Система Управления Прохождением Пользовательских Задач (СУППЗ)[1][4].
Пользователям предоставляется удалённый доступ по SSH/SCP. Для компиляции ПО могут быть использованы С/C++, Fortran с библиотеками распараллеливания вычислений MPI, OpenMP, SHMEM, DVM, CUDA[1][4].
Суперкомпьютер имеет сетевые подключения для доступа из Интернет и сети ИПМ.
К-100 — не единственный суперкомпьютер, находящийся в распоряжении ИПМ, наряду с ним работают вычислительные комплексы МВС-Экспресс, К-10, К-60 и К-120[5].
Научное значение системы[править | править код]
Среди вычислительных задач, решавшихся на суперкомпьютере, можно перечислить следующие:
- Вычислительные эксперименты по резонаторам и звукопоглощающим конструкциям, по моделированию лопастей несущего и рулевого винта вертолета[6];
- Моделирование аэродинамического шума для европейского проекта VALIANT, моделирование турбулентных течений в различных конфигурациях[7];
- Разработка способов моделирования задач механики сплошной среды в виде переносимых OpenCL-реализаций для расчетов сжимаемых течений на гибридных неструктурированных сетках[8] и несжимаемых течений на структурированных разнесенных сетках.
- Произведена разработка специализированного планировщика OpenCL-заданий[9].
- Разработка программного комплекса NOISETTE, предназначенного для решения задач аэродинамики и аэроакустики[10];
- Ряд других научных задач[11][12].
Примечания[править | править код]
- ↑ 1,0 1,1 1,2 1,3 1,4 ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ И ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ 2/2016 Опыт эксплуатации суперкомпъютера К-100 в Институте прикладной математики им. М.В. Келдыша РАН. Л.П. Басс, С.А. Дбар, А.О. Лацис, М.Б. Марков, Г.П. Савельев, Ю.П. Смольянов, М.Ю. Храмцов.
- ↑ Г.С. Елизаров, В.С. Горбунов, В.К. Левин, В.В. Корнеев, А.О. Лацис, А.А. Соколов, Д. В. Андрюшин, Ю.А. Климов. Коммуникационная сеть МВС-Экспресс. «Вычислительные методы и программирование» т. 13 (2012г) ISSN 1726-3522 Раздел 2, С. 103-109
- ↑ Вычислительная система МВС–Экспресс . Сайт ИПМ им. М.В.Келдыша РАН..
- ↑ 4,0 4,1 4,2 4,3 Гибридный вычислительный кластер K-100 . Сайт ИПМ им. М.В.Келдыша РАН.
- ↑ 5,0 5,1 Вычислительные ресурсы . Сайт ИПМ им. М.В.Келдыша РАН..
- ↑ Абалакин И.В., Бахвалов П.А., Бобков В.Г., Козубская Т.К., Аникин В.А., Численное моделирование аэродинамических и акустических характеристик винта в кольце // Математическое моделирование. 2015. том 27. No 10. С. 125-144.
- ↑ Дубень А.П. Вычислительные технологии для моделирования сложных пристеночных турбулентных течений на неструктурированных сетках // Математическое моделирование. 2013. том 25. No 9. С. 4-16.
- ↑ Суков С.А., Горобец А.В., Богданов П.Б. Адаптация и оптимизация базовых операций газодинамического алгоритма на неструктурированных сетках для расчетов на массивно-параллельных ускорителях // Журнал вычислительной математики и математической физики. 2013. том 53. No 8. С. 1360–1373.
- ↑ Богданов П.Б., Ефремов А.А., Горобец А.В., Суков С.А. Применение планировщика для эффективного обмена данным и насуперкомпьютерах гибридной архитектуры с массивно-параллельными ускорителями // Вычислительные методы и программирование. 2013. т.14. С. 122-134
- ↑ Вычислительные методы и программирование. 2012. Т. 13 ПАРАЛЛЕЛЬНЫЙ ПРОГРАММНЫЙ КОМПЛЕКС NOISETTEДЛЯ КРУПНОМАСШТАБНЫХ РАСЧЕТОВ ЗАДАЧА ЭРОДИНАМИКИ И АЭРОАКУСТИКИ И.В.Абалакин, П.А.Бахвалов, А.В.Горобец, А.П. Дубень, Т.К. Козубская
- ↑ А.В. Березин, А.С. Воронцов, М.Е. Жуковский, М.Б. Марков, С.В. Паротькин. Метод частиц для электронов в рассеивающей среде. ЖВМИМФ, 2015, том 55, No 9, С. 1566–1578.
- ↑ Л.П.Басс, Н.И.Коконков, О.В.Николаева, В.С. Кузнецов. Решение задач радиационной защиты на неструктурированных тетраэдрических сетках. Сборник докладов 10-й Юбилейной Российской научной конференции «Радиационная защита и радиационная безопасность в ядерных технологиях», 22-25 сентября 2015 г. Москва, Обнинск.