ОмСКЦКП
(Омский региональный суперкомпьютерный центр коллективного пользования СО РАН и государственных образовательных учреждений г. Омска)

Общая информация

  • Предпосылки организации

    Потребности в использовании мощных ЭВМ для решения фундаментальных задач, стоящих перед сотрудниками ОНЦ СО РАН, включающих:

    1. разработку и практическое применение математических моделей сложных систем в задачах физики, химии, экологии, биологии, медицины;
    2. проблемы обработки, хранения и передачи больших потоков информаци;
    3. адаптацию имеющегося программного обеспечения и взаимодействия с центром мониторинга СО РАН для организации мониторинга Омского региона.
  • Список задач, требующих высокопроизводительных вычислений

    На этапе формирования потребности ОНЦ в суперкомпьютере различные организации и специалисты ОНЦ и ВУЗов города высказались в необходимости суперкомпьютера для решения следующих задач:

    ОФ ИМ СО РАН
    Компьютерное моделирование новых классов ветвящихся случайных процессов и изучение переходных и предельных режимов (д.ф.-м.н. Топчий В.А.).
    Разработка индивидуально-ориентированных моделей живых систем и их применение к изучению динамики социально-значимых инфекционных заболеваний (туберкулез, СПИД) (д.ф.-м.н. Перцев Н.В.).
    Стохастическое моделирование сложных логико-алгебраических структур и поиск новых закономерностей (д.ф.-м.н. Ремесленников В.Н.).
    Разработка высокоэффективных численных методов и алгоритмов решения задач дискретной оптимизации (д.ф.-м.н. Еремеев А.В.).
    Математическое моделирование распространения загрязнений в атмосфере с учетом погоды и топографии района (д.ф.-м.н. Задорин А.И., к.ф.-м.н. Паничкин А.В).
    Разработка и эксплуатация больших информационных систем, использующих реляционные базы данных (д.т.н. Зыкин С.В.).

    ИППУ СО РАН
    Численное моделирование колебательных и электронных спектров многоатомных молекул и комплексов в адсорбированном состоянии и поверхностном слое гетерогенных носителей и катализаторов (чл.-корр. РАН В.А. Лихолобов).
    Численные эксперименты с применением метода Монте-Карло большого канонического ансамбля (МК БКА) для расчета изотерм адсорбции-десорбции в пористых телах с целью получения более точной и достоверной информации о характеристиках пористой структуры исследуемых наноматериалов. (к.х.н. А.В. Лавренов).

    ОЦКП СО РАН
    Применение компьютерных расчетов для уточнения структуры кристаллических дисперсных наноматериалов методом рентгеноструктурного полнопрофильного анализа; для расчета межатомных расстояний в сферической окрестности заданных атомов и координационных полиэдров и расчет функций атомной и электронной плотности в аморфных наноматериалах (к.х.н. В.А. Дроздов).

    ОмГУ
    Применение численных методов Монте-Карло для исследования влияния структурного беспорядка на поведение сложных систем с развитыми флуктуациями (проф. Прудников В.В.).
    Компьютерное моделирование физико-механических процессов, реализующихся в технологиях получения наноматериалов и покрытий (проф. Прудников В.В.).

    ОмГТУ
    Применение математического моделирования в задачах химии и химической технологии (проф. Мышлявцев А.В.).
    Разработка численных методов для решения задач нанотехнологий в химической промышленности (проф. Мышлявцев А.В).
    Разработка численных методов, алгоритмов и компьютерных программ для моделирования сложных технических систем (теплосети крупных городов, многоветочные нефтепроводы) (проф. Файзуллин Р.Т.).

  • Технологический задел:

    1. Создание и эксплуатация в 1978-1992 годах Вычислительного Центра Коллективного Пользования на базе Омских лабораторий Вычислительного центра СО РАН (в рамках проекта ВЦКП-А СО РАН).
      Построение в г. Омске специализированной кабельной сети, охватывающей лаборатории Омского комплексного отдела ВЦ, лаборатории ОмГУ и имеющей выход на Вычислительный центр ННЦ.
    2. Создание и эксплуатация (с 1994 г. по настоящее время) Компьютерной Сети Образования, Культуры и Науки Омска (КС ОКНО).
      Стойки_серверная Супер_комп
      КС ОКНО имеет канал пропускной способности 30 Мбит/с c Центром управления сети СО РАН в ИВТ СО РАН.
    3. В Омске, так же, как и в Новосибирске, на базе имеющихся телекоммуникационных структур возрождается практика создания центров коллективного пользования высокопроизводительными ЭВМ.
  • Хронология событий:

    1. Работы по созданию суперкомпьютерного центра начаты в конце 2007 г.
    2. Осенью 2008 г. по решению расширенного Бюро Совета СО РАН по супервычислениям ОФ ИМ СО РАН получил от ИВМ и МГ СО РАН во временное безвозмездное пользование кластерный суперкомпьютер МВС-1000/128.
    3. Зимой 2008 г. по гранту РФФИ приобретён прецизионный кондиционер UNIFLAIR SDA0601A для обеспечения работы оборудования МВС-1000/128 и системы бесперебойного питания Symmetra. Супер_комп_Конд Супер_комп_Symmetra
    4. 17 марта 2009 г. Президиумом ОНЦ было утверждено Положение о региональном суперкомпьютерном центре.
    5. Весна 2009 г. подготовка помещения для размещения СКЦентра ОНЦ, перепланировка, замена системы электроснабжения и климат-контроля.
    6. Осень 2009 г. запуск в опытную эксплуатацию суперкомпьютера МВС-1000/128.
    7. 9 февраля 2010 г. в ОФ ИМ СО РАН торжественно открылся ОмСКЦКП.
      В церемонии открытия участвовали председатель СО РАН академик Александр Асеев и министр экономики Омской области Игорь Мураев.
      Первой задачей для ОмСКЦКП стал расчет математической модели распространения туберкулеза среди двухмиллионного населения города с точностью до одного человека.
      В дальнейшем приоритетным направлением работы ОмСКЦКП станут расчеты в интересах фундаментальных исследований.

Контакты

Наш адрес:
ОмСКЦКП, ОФ ИМ СО РАН,
644043, г. Омск,
ул. Певцова, 13, 8 этаж

Контактная информация:

  • Научный руководитель - д.ф.-м.н., профессор Н.В. Перцев
  • Ответственный исполнитель - к.ф.-м.н., доцент C.А. Хрущев
  • Консультацию по итересующим вопросам относительно ОмСКЦКП можно получить у сотрудников Информационно-вычислительного центра
  • Ресурсы

    • Техническая база:

      1. Телекоммуникационные возможности компьютерной сети, созданной по проекту КС «ОКНО»
      2. Многопроцессорная вычислительная система кластерного типа МВС-1000/128 производства ФГУП «НИИ Квант» на базе 64-разрядных процессоров DEC Alpha 21264 (667 МHz) в составе 64 двухпроцессорных модулей (128 процессоров). Суммарный объем разделяемой оперативной памяти составляет 128 Гбайта (по 2 Гбайта в модуле). Коммуникационная сеть состоит из 2–х коммутаторов: Myrinet М3-Е128 (128 портов со скоростью 2,56 Gb/с) для обмена данными между модулями и HP Procurve 8000М (64 порта FastEthernet и 2 порта GigabitEthernet) для передачи команд управления, исходных данных и результатов расчётов. Пиковая производительность составляет около 196 Gflops.
        Супер_комп_Центр
        Читать подробнее о МВС-1000

      3. Суперкомпьютерный кластер на базе вычислителей NVIDIA Tesla K20. Кластер состоит из 4 узлов, каждый из которых содержит по 2 вычислителя NVIDIA. Каждый из вычислителей – это массивно-параллельная система. Таким образом, для вычислений доступно 11776 потоковых процессоров, объём системного ОЗУ составляет 48 ГБ, ОЗУ на вычислителях - 38 ГБ. Пиковая производительность от 6,74 Tflop/s (при вычислениях с двойной точностью) до 18,2 Tflop/s (при вычислениях с одинарной точностью).
        Супер_комп_Tesla Супер_комп_Tesla
        Возможно расширение кластера путём увеличения числа узлов. Кластер имеет в своем составе управляющий узел, который не предназначен для проведения вычислений и не оборудован вычислителями Tesla. Основное его назначение – управление заданиями и поддержка очередей. Кластер оборудован высокопроизводительной дисковой подсистемой, на базе которой реализована общая для всех узлов дисковая память суммарной форматированной емкостью 2,8 Tb.
        Читать подробнее о Cуперкомпьютере “Tesla”
    • Программное обеспечение

      Программное обеспечение МВС-1000
      На кластере установлена операционная система RedHat LINUX Alpha 7.2 и библиотека MPI (библиотеку функций передачи сообщений MPICH с драйверами для коммуникационной среды Myrinet gm-1.6.5_Linux).
      Установлены компиляторы Compaq Fortran, Compaq C/C++ и библиотека Compaq Extended Math Library (CXML).
      Для организации пакетной обработки применяется Система управления прохождением заданий, разработанная в ИПМ им. Келдыша РАН.

      Программное обеспечение суперкомпьютерного кластера Компилятор С/C++: GCC 4.1.2
      Набор интерфейсов для программирования вычислителей Tesla: CUDA Toolkit 4.1
      Библиотека обеспечения связи между отдельными процессами параллельной задачи: OpenMPI 1.6.5
      Библиотека для программирования многопоточных приложений: OpenMP 3.0. Система управления заданиями: Torque 2.4.4
      Специализированное ПО CULA, предоставляющее в распоряжение разработчика набор функций линейной алгебры, оптимизированных для вычислителей nVidia Tesla/Fermi: http://www.culatools.com/.
      Список функций CULA и их LAPACK-эквивалентов: http://www.culatools.com/features/lapack/.
      Для работы с кластером минимально необходима квалификация в следующих вопросах:
      - ОС Unix и правила работы в ней;
      - Язык C/C++;
      - Массивно-параллельные системы и CUDA Toolkit;
      - Программирование многопоточных приложений с помощью OpenMP 3.0.;
      - Интерфейс передачи сообщений MPI;
      - Работа с системами управления заданиями Torque, OpenPBS.
    • Параллельное программирование

      В рамках аспирантуры ОФ ИМ СО РАН начата подготовка специалистов по параллельному программированию.

    Доступ

    Порядок доступа

    1. Правила работы пользователей на оборудовании ОмСКЦКП
    2. Положение о предоставлении доступа к ресурсам ОмСКЦКП (Образец гарантийного письма здесь).
    3. Режим работы

    Ответственный за предоставление информации С.А. Хрущев.

    Страница была обновлена в последний раз 03.04.2017