Пленарные доклады

Понедельник, 24 сентября, 9:00-10:40
Зал «Сокольники»

Открытие конференции
Владимир Воеводин, МГУ имени М.В. Ломоносова

Criteria, Challenges and Solutions for Exascale Computing
Thomas Lippert, Juelich Supercomputing Centre, Germany

Future exascale supercomputers will be engines for cross-sectoral digital transformations in many scientific, economic and social fields. Exascale supercomputers are expected to advance automotive, aerospace, chemical and energy industries and to strengthen specific European competences in materials science, molecular biology, personalised medicine, neuroscience/AI or climate and Earth system sciences, etc. However, with Exascale Computing scientific and industrial research will enter a completely new area of scalability, reliability requirements of supercomputing and demands on processor efficiency. Thus it it is expected that we must leave traditional paths, still being followed by international extreme scale projects, in order to achieve high application efficiency with respect to nominal Exaflop performance for our important key applications.
In this talk, I introduce key design criteria that are essential for cost-effective, energy-efficient, versatile and scalable Exascale supercomputing: (i) Reliability – the complex machines will comprise millions of error-prone components; (ii) Processor Efficiency - it is critical to improve data transport capabilities, including memory bandwidth, in a cost-effective way, as they limit performance for a large class of scientific applications; (iii) Scalability – the gigantic parallelism of Exascale applications makes it imperative to adapt code portions flexibly to appropriate hardware types and to comply with Amdahl’s Law closely for actual implementations.
Besides proposing solutions for (i) and (ii), I will focus my considerations on (iii). I will introduce the concept of modular supercomputing, motivate it by considering a Generalized Amdahl's Law and present a proof of concept and first promising use cases for this new approach. In particular, I will argue that Modular Supercomputing enables a significant cost reduction in scaling to effectively usable Exaflop performance.

Performance Evaluation of a Vector Supercomputer SX-Aurora TSUBASA
Hiroaki Kobayashi, Tohoku University, Japan

A new SX-Aurora TSUBASA vector supercomputer has been released, and it features a new system architecture and a new execution model to achieve high sustained performance, especially for memory-intensive applications. In SXAurora TSUBASA, the vector host (VH) of a standard x86 Linux node is attached to the vector engine (VE) of the newly developed vector processor. An application is executed on the VE, and only system calls are offloaded to the VH. This new execution model can avoid redundant data transfers between the VH and VE that can easily become a bottleneck in the conventional execution model. This paper examines the potential of SX-Aurora TSUBASA. First, the basic performance is clarified by evaluating benchmark programs. Then, the effectiveness of the new execution model is examined by using a microbenchmark. Finally, the potential of SX-Aurora TSUBASA is clarified through evaluations of practical applications.

Прогресс в использовании суперкомпьютерных технологий в судостроении
М.П. Лобачев, ФГУП "Крыловский государственный научный центр"

Понедельник, 24 сентября, 11:10-13:00
Зал «Сокольники»

On the ROI of Parallel Performance Optimization
Bernd Mohr, Juelich Supercomputing Centre, Germany

Developers and users of HPC applications can count on free advice from European experts to analyse the performance of their scientific codes. The Performance Optimization and Productivity (POP) Centre of Excellence, funded by the European Commission under H2020, gathers together experts from Barcelona Supercomputing Center, Juelich Supercomputer Centre, High-Performance Computing Center Stuttgart (HLRS), RWTH Aachen University, NAG and Ter@tec. It ran from October 2015 to March 2018. The objective of POP was to provide performance measurement and analysis services to the industrial and academic HPC community, help them to better understand the performance behaviour of their codes and suggest improvements to increase their efficiency. Training and user education regarding application tuning was also provided. Further information can be found at https://www.pop-coe.eu/. The talk will briefly introduce the POP CoE, its objectives, and its performance analysis and optimization services provided to the community. Details about the tools, methods, and metrics used for the services will also be given. The main part of presentation will report on statistics, outcomes, and success stories from the over 150 performance assessments already performed during the project. The talk will conclude with lessons learned from providing performance analysis and optimization in a service-oriented professional setting.

NVIDIA для искусственного интеллекта и HPC
А.Р.  Джораев, NVIDIA

Диверсификация вычислительных платформ и оборудования для обработки данных суперкомпьютерных центров
А.В. Мурашов, Т-Платформы

Путь в Экзаскейл: проблематика и новые решения
Н.С. Местер, Intel

Summit - самый умный суперкомпьютер в мире
А.С. Солуковцев, IBM

Для создания Summit IBM разработала совершенно новую гетерогенную архитектуру, которая интегрирует надежный анализ данных мощных процессоров IBM Power с возможностями глубокого обучения графических процессоров. В Summit IBM очень осмысленно и эффективно соединил свои самые передовые технологии, идеи и разработки. Технологии и инструменты, которые IBM создает с их помощью, способны создавать и менять будущее.

Вторник, 25 сентября, 9:00-10:40
Зал «Сокольники»

Применение ПЛИС Xilinx для ускорения математических алгоритмов и нейросетей
А.С. Кочетов, Xilinx

Дата центры меняются. Сегодня процессоры не способны справится с высоконагруженными приложениями такими как: машинное обучение, анализ больших данных и видеопроцессинг. Сталкиваясь с ограничениями в таких задачах как телекоммуникации и хранение данных, облачные сервисы рассматривают ускорители для увеличения общей пропускной способности и эффективности. Мировые владельцы дата центров такие как Amazon, Baidu и Microsoft объявили о развертывании технологии программируемых логических интегральных схем( ПЛИС ) на своем оборудовании для того, чтобы получить конкурентное преимущество на быстроменяющимся рынке. ПЛИС Xilinx идеальное дополнение к  высокоскоростным облачным вычислениям, потому что они программируемы и оптимизируемы на аппаратном уровне для любых новых приложений и алгоритмов. Данный доклад раскрывает вопрос применения ПЛИС Xilinx в дата центрах для ускорения вычислений на конкретных примерах.

Нейронные гиперсети: максимальный вычислительный потенциал головного мозга
К.В. Анохин, НИЦ "Курчатовский институт", МГУ имени М.В. Ломоносова

Despite impressive advances in neuroscience, the nature of higher brain functions still eludes satisfactory understanding. What is missing is not just more facts, but rather a theoretical framework that could make sense of them and relate brain functions to mental phenomena. Hypernetwork brain theory (HBT) adresses this challenge and argues that each brain at its maximal causal power is not just a neural network, but the neuronal hypernetwork with emergent cognitive properties. Vertices of such cognitive hypernetwork called COGs (GOgnitive Groups) are subsets of neurons that encode a unique common experience. Edges between COGs are called LOCs (Links of Cogs), they encode associations and are derived from the vertices of the underlying neuronal network. HBT argues that only the causal neuronal hypernetworks can possess true mind and intelligence.

Большие данные: задачи, результаты и перспективы
А.И. Аветисян, ИСП им. В.П. Иванникова РАН

Суперкомпьютерные технологии в изучении элементарных процессов в динамике биомакромолекулярных систем
С.Д. Варфоломеев, МГУ имени М.В. Ломоносова

Вторник, 25 сентября, 11:10-13:00
Зал «Сокольники»

Опыт применения технологий суперкомпьютерного инжиниринга в деятельности Инжинирингового центра  «Центр компьютерного инжиниринга»
М.В. Алешин, Ю.Я. Болдырев, А.И. Боровков, И.С. Давыдов, О.И. Клявин, А.Ю. Тамм, А.П. Петкова

Архитектура интеллектуального интерконнекта для суперкомпьютеров следующего поколения
Gil Bloch, Mellanox

Экспоненциальный рост данных и постоянно растущий спрос на растущую производительность для удовлетворения потребностей новейших научных приложений требуют быстрого и эффективного подключения тысяч гетерогенных вычислительных узлов. Интерконнект стал эффективным средством в работе с данными и их моделированием. Помимо высокой пропускной способности и низкой латентности, интерконнект должен быть способен разгружать процессоры от задач обмена сообщениями, таким образом обеспечивая достижение требуемых эффективности и масштабируемости. В докладе будет рассмотрена необходимость в скорости, новые модели использования и то, как интерконнект играет важнейшую роль на пути к экзафлопной производительности.

HPC Platform Efficiency and Challenges for a System Builder
Martin Hilgeman, Dell EMC

With all the advances in massively parallel and multi-core computing with CPUs and accelerators, it is often overlooked whether the computational work is being done in an efficient manner. This efficiency is largely being determined at the application level and therefore puts the responsibility of sustaining a certain performance trajectory into the hands of the user. It is observed that the adoption rate of new hardware capabilities is decreasing and lead to a feeling of diminishing returns. At the same time, the well-known laws of parallel performance are limiting the perspective of a system builder. The presentation tries gives an overview of these challenges and what can be done to overcome them. The overview will be amended by a few case studies and optimization strategies on real applications.

Через тернии к звёздам - процессор ARM в высокопроизводительных вычислениях
В.В. Елагин, HPE

Каков облик суперкомпьютера Экзафлопсной производительности? Существует ли альтернатива архитектуре x86 в вычислительных кластерах? Возможно ли применение процессоров архитектуры ARM для высокопроизводительных вычислений? Какие инструменты есть для создания кластерных программных продуктов для ARM-систем? Кто-нибудь в мире уже попробовал другие архитектурные системы в НРС? Новая система HPE Apollo 70 на базе процессора ARM, программный стек и суперкомпьютер HPE Astra помогают в ответах на эти вопросы.

Технический комитет №700. Математическое моделирование и высокопроизводительные вычислительные технологии
Е.П. Ходаева

Суперкомпьютерные технологии в промышленности
А.В. Мурашов, Т-Платформы