ОмСКЦКП
(Омский региональный суперкомпьютерный центр коллективного пользования
СО РАН и государственных образовательных учреждений г. Омска)
Общая информация
Предпосылки организации
Потребности в использовании мощных ЭВМ для решения фундаментальных задач, стоящих перед сотрудниками ОНЦ СО РАН, включающих:
- разработку и практическое применение математических моделей сложных систем в задачах физики, химии, экологии, биологии, медицины;
- проблемы обработки, хранения и передачи больших потоков информаци;
- адаптацию имеющегося программного обеспечения и взаимодействия с центром мониторинга СО РАН для организации мониторинга Омского региона.
Список задач, требующих высокопроизводительных вычислений
На этапе формирования потребности ОНЦ в суперкомпьютере различные организации и специалисты ОНЦ и ВУЗов города высказались в необходимости суперкомпьютера для решения следующих задач:ОФ ИМ СО РАН
Компьютерное моделирование новых классов ветвящихся случайных процессов и изучение переходных и предельных режимов (д.ф.-м.н. Топчий В.А.).
Разработка индивидуально-ориентированных моделей живых систем и их применение к изучению динамики социально-значимых инфекционных заболеваний (туберкулез, СПИД) (д.ф.-м.н. Перцев Н.В.).
Стохастическое моделирование сложных логико-алгебраических структур и поиск новых закономерностей (д.ф.-м.н. Ремесленников В.Н.).
Разработка высокоэффективных численных методов и алгоритмов решения задач дискретной оптимизации (д.ф.-м.н. Еремеев А.В.).
Математическое моделирование распространения загрязнений в атмосфере с учетом погоды и топографии района (д.ф.-м.н. Задорин А.И., к.ф.-м.н. Паничкин А.В).
Разработка и эксплуатация больших информационных систем, использующих реляционные базы данных (д.т.н. Зыкин С.В.).ИППУ СО РАН
Численное моделирование колебательных и электронных спектров многоатомных молекул и комплексов в адсорбированном состоянии и поверхностном слое гетерогенных носителей и катализаторов (чл.-корр. РАН В.А. Лихолобов).
Численные эксперименты с применением метода Монте-Карло большого канонического ансамбля (МК БКА) для расчета изотерм адсорбции-десорбции в пористых телах с целью получения более точной и достоверной информации о характеристиках пористой структуры исследуемых наноматериалов. (к.х.н. А.В. Лавренов).ОЦКП СО РАН
Применение компьютерных расчетов для уточнения структуры кристаллических дисперсных наноматериалов методом рентгеноструктурного полнопрофильного анализа; для расчета межатомных расстояний в сферической окрестности заданных атомов и координационных полиэдров и расчет функций атомной и электронной плотности в аморфных наноматериалах (к.х.н. В.А. Дроздов).ОмГУ
Применение численных методов Монте-Карло для исследования влияния структурного беспорядка на поведение сложных систем с развитыми флуктуациями (проф. Прудников В.В.).
Компьютерное моделирование физико-механических процессов, реализующихся в технологиях получения наноматериалов и покрытий (проф. Прудников В.В.).ОмГТУ
Применение математического моделирования в задачах химии и химической технологии (проф. Мышлявцев А.В.).
Разработка численных методов для решения задач нанотехнологий в химической промышленности (проф. Мышлявцев А.В).
Разработка численных методов, алгоритмов и компьютерных программ для моделирования сложных технических систем (теплосети крупных городов, многоветочные нефтепроводы) (проф. Файзуллин Р.Т.).Технологический задел:
- Создание и эксплуатация в 1978-1992 годах Вычислительного Центра
Коллективного Пользования на базе Омских лабораторий Вычислительного
центра СО РАН (в рамках проекта ВЦКП-А СО РАН).
Построение в г. Омске специализированной кабельной сети, охватывающей лаборатории Омского комплексного отдела ВЦ, лаборатории ОмГУ и имеющей выход на Вычислительный центр ННЦ. - Создание и эксплуатация (с 1994 г. по настоящее время) Компьютерной
Сети Образования, Культуры и Науки Омска (КС ОКНО).
КС ОКНО имеет канал пропускной способности 30 Мбит/с c Центром управления сети СО РАН в ИВТ СО РАН. - В Омске, так же, как и в Новосибирске, на базе имеющихся
телекоммуникационных структур возрождается практика создания центров
коллективного пользования высокопроизводительными ЭВМ.
- Создание и эксплуатация в 1978-1992 годах Вычислительного Центра
Коллективного Пользования на базе Омских лабораторий Вычислительного
центра СО РАН (в рамках проекта ВЦКП-А СО РАН).
Хронология событий:
- Работы по созданию суперкомпьютерного центра начаты
в конце 2007 г.
- Осенью 2008 г. по решению расширенного Бюро Совета СО РАН по
супервычислениям ОФ ИМ СО РАН получил от ИВМ и МГ СО РАН во временное
безвозмездное пользование кластерный суперкомпьютер МВС-1000/128.
- Зимой 2008 г. по гранту РФФИ приобретён прецизионный кондиционер
UNIFLAIR SDA0601A для обеспечения работы оборудования МВС-1000/128 и
системы бесперебойного питания Symmetra.
- 17 марта 2009 г. Президиумом ОНЦ было утверждено Положение о региональном
суперкомпьютерном центре.
- Весна 2009 г. подготовка помещения для размещения СКЦентра ОНЦ,
перепланировка, замена системы электроснабжения и климат-контроля.
- Осень 2009 г. запуск в опытную эксплуатацию суперкомпьютера
МВС-1000/128.
- 9 февраля 2010 г. в ОФ ИМ СО РАН торжественно
открылся ОмСКЦКП.
В церемонии открытия участвовали председатель СО РАН академик Александр Асеев и министр экономики Омской области Игорь Мураев.
Первой задачей для ОмСКЦКП стал расчет математической модели распространения туберкулеза среди двухмиллионного населения города с точностью до одного человека.
В дальнейшем приоритетным направлением работы ОмСКЦКП станут расчеты в интересах фундаментальных исследований.
- Работы по созданию суперкомпьютерного центра начаты
в конце 2007 г.
Контакты
Наш адрес:
ОмСКЦКП, ОФ ИМ СО РАН,
644043, г. Омск,
ул. Певцова, 13, 8 этаж
Контактная информация:
Ресурсы
Техническая база:
- Телекоммуникационные возможности компьютерной сети, созданной
по проекту КС «ОКНО»
- Вычислительный сервер AMD EPYC
Два центральных процессора AMD EPYC 7502: 32 ядра на процессор; hyper-threading; базовая частота 2.5 ГГц; максимальная частота 3.35 ГГц. ОЗУ: общий объем 512 ГБ; частота 3200 МГц; суммарная пропускная способность 409.6 ГБ/с.
Читать подробнее о сервере AMD EPYC - Суперкомпьютерный кластер на базе вычислителей
NVIDIA Tesla K20. Кластер состоит из 4 узлов,
каждый из которых содержит по 2 вычислителя NVIDIA. Каждый из вычислителей
– это массивно-параллельная система. Таким образом, для вычислений доступно
11776 потоковых процессоров, объём системного ОЗУ составляет 48 ГБ,
ОЗУ на вычислителях - 38 ГБ. Пиковая производительность от 6,74 Tflop/s (при
вычислениях с двойной точностью) до 18,2 Tflop/s (при вычислениях с одинарной
точностью).
Возможно расширение кластера путём увеличения числа узлов. Кластер имеет в своем составе управляющий узел, который не предназначен для проведения вычислений и не оборудован вычислителями Tesla. Основное его назначение – управление заданиями и поддержка очередей. Кластер оборудован высокопроизводительной дисковой подсистемой, на базе которой реализована общая для всех узлов дисковая память суммарной форматированной емкостью 2,8 Tb.
Читать подробнее о Cуперкомпьютере “Tesla”
- Телекоммуникационные возможности компьютерной сети, созданной
по проекту КС «ОКНО»
Программное обеспечение
Программное обеспечение вычислительного сервера
AMD EPYC
ОС: Ubuntu 20.04 Server.
Компиляторы: g++ (версия 9.3.0); gcc (версия 9.3.0).
Система контроля версий: git (версия 2.25.1).
Система сборки: cmake (версия 3.16.3).
Мультиплексор терминалов: tmux (версия 3.0a).
Программное обеспечение суперкомпьютерного кластера Компилятор С/C++: GCC 4.1.2
Набор интерфейсов для программирования вычислителей Tesla: CUDA Toolkit 4.1
Библиотека обеспечения связи между отдельными процессами параллельной задачи: OpenMPI 1.6.5
Библиотека для программирования многопоточных приложений: OpenMP 3.0. Система управления заданиями: Torque 2.4.4
Специализированное ПО CULA, предоставляющее в распоряжение разработчика набор функций линейной алгебры, оптимизированных для вычислителей nVidia Tesla/Fermi.
Список функций CULA и их LAPACK-эквивалентов.
Для работы с кластером минимально необходима квалификация в следующих вопросах:
- ОС Unix и правила работы в ней;
- Язык C/C++;
- Массивно-параллельные системы и CUDA Toolkit;
- Программирование многопоточных приложений с помощью OpenMP 3.0.;
- Интерфейс передачи сообщений MPI;
- Работа с системами управления заданиями Torque, OpenPBS.Параллельное программирование
В рамках аспирантуры ОФ ИМ СО РАН начата подготовка специалистов по параллельному программированию.
Доступ
Порядок доступа
- Правила работы пользователей на оборудовании ОмСКЦКП
- Положение о предоставлении доступа к ресурсам ОмСКЦКП (Образец гарантийного письма здесь).
- Режим работы
Ответственный за предоставление информации С.А. Хрущев.
Страница была обновлена в последний раз 25.01.2021