Своими руками построили два десятка суперкомпьютеров в России
Знаем все нюансы железа и специализированного ПО в области кластерных технологий и высокопроизводительных вычислений
Своими руками построили два десятка суперкомпьютеров
в России
Знаем все нюансы железа
и специализированного ПО
в области кластерных технологий
и высокопроизводительных вычислений
2023 год
54 вычислительных узлов двух типов

  • Разработка проекта
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Тестирование производительности по LINPACK
  • Разработка пакета документации
  • Разработка вычислительного конвейера совместно со специалистами заказчика
  • Обучение персонала работе с комплексом
Высокопроизводительный кластер для ДНК-анализа компании «Биотехнологический кампус»
2022 год
4 вычислительных узла

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Тестирование производительности LINPACK
  • Разработка пакета документации
Расширение вычислительного комплекса «ОКБМ Африкантов»
20 вычислительных узлов на базе NVIDIA DGX, 160 GPU A100, высокопроизводительная сеть Mellanox EDR InfiniBand и 100 Gb/s Ethernet

  • Доработка изначального проекта
  • Монтаж сети (более 400 оптических кабелей)
  • Пусконаладочные работы ПО кластера
  • Тестирование LINPACK и NCCL
  • Документация
  • Обучение персонала работе с комплексом
  • Сервисное обслуживание
Суперкомпьютер Christofari mini ПАО «Сбербанк»
9 вычислительных узлов, распределенное хранилище на базе Aerodisk и Lustre

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Построение параллельной СХД Lustre
  • Тестирование производительности по LINPACK
  • Документация
  • Обучение персонала работе с комплексом
Расширение вычислительного комплекса «ОКБМ Африкантов»
2021 год
88 вычислительных узла на базе NVIDIA DGX, 704 GPU A100, высокопроизводительная сеть MellanoxEDR InfiniBand и 100 Gb/sEthernet

  • Доработка проекта
  • Монтаж сети Infinibandи Ethernet (более 2500 оптических кабелей)
  • Сервисное обслуживание кластера
Суперкомпьютер Christofari neo ПАО «Сбербанк»
52 вычислительных узла, высокопроизводительная сеть MellanoxEDR InfiniBand

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Установка и настройка ПО tNavigator
Вычислительный кластер ПАО «Татнефть»
20 вычислительных узлов на базе NVIDIA DGX, 160 GPU A100, высокопроизводительная сеть MellanoxEDR InfiniBand и 100 Gb/sEthernet

  • Доработка проекта
  • Монтаж сети InfiniBandи Ethernet
  • Запуск и тестирование серверного оборудования
  • Сервисное обслуживание кластера
Суперкомпьютер MTS GROM
2020 год
20 вычислительных узлов, распределенное хранилище на базе Lustre, ZFS и Raidix

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Построение параллельной СХД Lustre
  • Тестирование производительности LINPACK
Вычислительный комплекс для инженерных расчетов АО «НПО Лавочкина»
  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы Citrix VDI
Пилотный проект VDI для инженерных расчетов Института Гипростроймост
42 узла, 1152 ядра, 53.4 TFlops, распределенное хранилище данных

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Построение параллельной СХД на базе BeeGFS
  • Тестирование производительности LINPACK
  • Установка и настройка ПО Logos
Высокопроизводительный вычислительный комплекс для математического моделирования ФГБУ «МАИ»
2019 год
83 узла, распределенное хранилище на базе Ceph

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО виртуализации OpenStack
  • Установка и настройка СХД на базе Ceph
  • Обучение персонала работе с комплексом
Центр анализа и хранения больших данных
«МГУ» им. М.В. Ломоносова
28 узлов, 936 ядер, 48 GPU, 437 TFlops, распределенная СХД на базе Ceph

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Тестирование производительности LINPACK
  • Настройка СХД на базе Ceph
Вычислительный комплекс для решения задач искусственного интеллекта
ФГБУ «МФТИ»
21 вычислительный узел, СХД на базе Radix

  • Разработка проекта системы мониторинга
  • Пусконаладочные работы прикладного ПО tNavigator, Schlumberger, Roxarи T-Схема
  • Обучение персонала работе с комплексом
Вычислительный комплекс для расчетов гидродинамических моделей ПАО «Сургутнефтегаз»
2018 год
80 узлов, 1052 ядра, 912 TFlops

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Тестирование LINPACK
  • Документация
  • Обучение персонала работе с комплексом
Вычислительный комплекс «Жорес» Сколтех
2017 год
21 вычислительный узел, СХД на базе Radix

  • Разработка проекта системы мониторинга
  • Пусконаладочные работы прикладного ПО tNavigator, Schlumberger, Roxarи T-Схема
  • Обучение персонала работе с комплексом
Суперкомпьютер «Константинов» Петербургского Института Ядерной Физики им. Б.П. Константинова
Свяжитесь с нами
Готовы ответить на любые ваши вопросы
Адрес: Москва, Пресненская наб., д. 12, 64 этаж, офис 11
E-mail: info@clustegra.com
Центральный офис
E-mail: support@clustegra.com
E-mail: sales@clustegra.com
Служба технической поддержки
Отдел продаж
+7 (499) 136-46-86 (доб. 300)
+7 (499) 136-46-86 (доб. 200)