Своими руками построили два десятка суперкомпьютеров в России
Знаем все нюансы железа и специализированного ПО в области кластерных технологий и высокопроизводительных вычислений
Своими руками построили два десятка суперкомпьютеров
в России
Знаем все нюансы железа
и специализированного ПО
в области кластерных технологий
и высокопроизводительных вычислений
2023 год
54 вычислительных узлов двух типов

  • Разработка проекта
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Тестирование производительности по LINPACK
  • Разработка пакета документации
  • Разработка вычислительного конвейера совместно со специалистами заказчика
  • Обучение персонала работе с комплексом
Высокопроизводительный кластер для ДНК-анализа компании «Биотехнологический кампус»
2022 год
4 вычислительных узла

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Тестирование производительности LINPACK
  • Разработка пакета документации
9 вычислительных узлов, распределенное хранилище на базе Aerodisk и Lustre

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Построение параллельной СХД Lustre
  • Тестирование производительности по LINPACK
  • Документация
  • Обучение персонала работе с комплексом
20 вычислительных узлов на базе NVIDIA DGX, 160 GPU A100, высокопроизводительная сеть Mellanox EDR InfiniBand и 100 Gb/s Ethernet

  • Доработка изначального проекта
  • Монтаж сети (более 400 оптических кабелей)
  • Пусконаладочные работы ПО кластера
  • Тестирование LINPACK и NCCL
  • Документация
  • Обучение персонала работе с комплексом
  • Сервисное обслуживание
Расширение вычислительного комплекса «ОКБМ Африкантов»
Расширение вычислительного комплекса «ОКБМ Африкантов»
Суперкомпьютер Christofari mini ПАО «Сбербанк»
2021 год
88 вычислительных узла на базе NVIDIA DGX, 704 GPU A100, высокопроизводительная сеть MellanoxEDR InfiniBand и 100 Gb/sEthernet

  • Доработка проекта
  • Монтаж сети Infinibandи Ethernet (более 2500 оптических кабелей)
  • Сервисное обслуживание кластера
20 вычислительных узлов на базе NVIDIA DGX, 160 GPU A100, высокопроизводительная сеть MellanoxEDR InfiniBand и 100 Gb/sEthernet

  • Доработка проекта
  • Монтаж сети InfiniBandи Ethernet
  • Запуск и тестирование серверного оборудования
  • Сервисное обслуживание кластера
52 вычислительных узла, высокопроизводительная сеть MellanoxEDR InfiniBand

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Установка и настройка ПО tNavigator
Суперкомпьютер Christofari neo ПАО «Сбербанк»
Суперкомпьютер MTS GROM
Вычислительный кластер ПАО «Татнефть»
2020 год
20 вычислительных узлов, распределенное хранилище на базе Lustre, ZFS и Raidix

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Построение параллельной СХД Lustre
  • Тестирование производительности LINPACK
42 узла, 1152 ядра, 53.4 TFlops, распределенное хранилище данных

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Построение параллельной СХД на базе BeeGFS
  • Тестирование производительности LINPACK
  • Установка и настройка ПО Logos
  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы Citrix VDI
Вычислительный комплекс для инженерных расчетов АО «НПО Лавочкина»
Высокопроизводительный вычислительный комплекс для математического моделирования ФГБУ «МАИ»
Пилотный проект VDI для инженерных расчетов Института Гипростроймост
2019 год
83 узла, распределенное хранилище на базе Ceph

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО виртуализации OpenStack
  • Установка и настройка СХД на базе Ceph
  • Обучение персонала работе с комплексом
21 вычислительный узел, СХД на базе Radix

  • Разработка проекта системы мониторинга
  • Пусконаладочные работы прикладного ПО tNavigator, Schlumberger, Roxarи T-Схема
  • Обучение персонала работе с комплексом
28 узлов, 936 ядер, 48 GPU, 437 TFlops, распределенная СХД на базе Ceph

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Тестирование производительности LINPACK
  • Настройка СХД на базе Ceph
Центр анализа и хранения больших данных
«МГУ» им. М.В. Ломоносова
Вычислительный комплекс для расчетов гидродинамических моделей ПАО «Сургутнефтегаз»
Вычислительный комплекс для решения задач искусственного интеллекта
ФГБУ «МФТИ»
2018 год
80 узлов, 1052 ядра, 912 TFlops

  • Разработка проекта
  • Монтаж комплекса
  • Пусконаладочные работы ПО кластера и системы мониторинга
  • Тестирование LINPACK
  • Документация
  • Обучение персонала работе с комплексом
Вычислительный комплекс «Жорес» Сколтех
2017 год
21 вычислительный узел, СХД на базе Radix

  • Разработка проекта системы мониторинга
  • Пусконаладочные работы прикладного ПО tNavigator, Schlumberger, Roxarи T-Схема
  • Обучение персонала работе с комплексом
Суперкомпьютер «Константинов» Петербургского Института Ядерной Физики им. Б.П. Константинова
Свяжитесь с нами
Готовы ответить на любые ваши вопросы
Адрес: Москва, Пресненская наб., д. 12, 64 этаж, офис 11
E-mail: info@clustegra.com
Центральный офис
E-mail: support@clustegra.com
E-mail: sales@clustegra.com
Служба технической поддержки
Отдел продаж
+7 (499) 136-46-86 (доб. 300)
+7 (499) 136-46-86 (доб. 200)