Гонку за терафлопсами пора заканчивать

Александр Андреев, администратор сайта BOINC.RU
Александр Андреев, сайт BOINC.RU

Вот уже в третий раз российские специалисты, работающие в области высокопроизводительных вычислений, завершили год в красивом старинном городе Переславле-Залесском, где в конце 2014 года на базе Института программных систем имени А.К. Айламазяна РАН [1] прошел Третий национальный суперкомпьютерный форум [2].

Мне довелось поучаствовать в работе как этого, так и прошлогоднего, Второго форума (о нем см. [3]). Есть с чем сравнивать. И в этом году можно было заметить существенные отличия как в целом, так и в работе интересующей меня секции. Во-первых, программа форума расширилась за счет проведения двух дополнительных мероприятий: научно-практической конференции «Посткремниевые вычисления» и мини-симпозиума «Прикладная математика в эпоху суперкомпьютеров». Во-вторых, несмотря на некоторое снижение числа участников (449 в 2013 году и 300 в 2014-м), выросло количество докладов на форуме (127 против 110). Изменилась и тематика докладов, которая сместилась от вопросов проектирования суперкомпьютеров к более прикладным вопросам применения высокопроизводительных вычислений в различных областях науки, техники и производства.

В-третьих, форум от формата обычной площадки для обмена мнениями и информацией перешел к непосредственной поддержке исследований в области высокопроизводительных суперкомпьютерных вычислений, учредив собственную отраслевую премию, которая так и называется — премия Национального суперкомпьютерного форума. Ближе к следующему форуму в результате заочного тайного голосования среди специалистов отрасли будет определено 30 участников второго тура. И уже в ходе проведения НСКФ-2015 тайным рейтинговым голосованием изберут трех лауреатов премии.

В-четвертых, на форуме неоднократно и явно прозвучало, что гонку за «попугаями» в виде гига- и терафлопсов пора заканчивать. Конечно, сравнивать различные суперкомпьютерные системы каким-то образом нужно, но это сравнение должно базироваться на основе не искусственных тестов, а реальных задач и приложений, решаемых на высокопроизводительных системах.

Традиционным для форума осталось широкое представительство научных и производственных организаций, занимающихся созданием и исследованием суперкомпьютерных систем.

Уже второй год на форуме была представлена и такая специфичная технология высокопроизводительных вычислений, как грид-системы из персональных компьютеров. Причем в этом году кроме секционных были представлены и два пленарных доклада. С одним из них — «Концепция многозадачной грид-системы с гибким управлением свободными вычислительными ресурсами суперкомпьютеров» –выступил директор Института динамики систем и теории управления СО РАН, академик РАН Игорь Бычков [5].

В целом от Третьего национального суперкомпьютерного форума осталось двойственное впечатление. С одной стороны, явно видно, что в области программных и конечных аппаратных высокопроизводительных систем в нашей стране есть интересные и конкурентоспособные разработки, с другой — все они базируются на импортных составляющих и комплектующих, которым в настоящее время нет отечественной замены. И здесь перед нашей наукой и производством имеется огромный как социальный, так и политический заказ. Хотелось бы увидеть положительные тенденции в развитии именно этого направления.

Будущее персональных грид-систем

Публикуем также комментарии экспертов о роли и месте грид-систем, основанных на использовании персональных компьютеров.

Михаил ПосыпкинМихаил Посыпкин, вед. науч. сотр. Центра распределенных вычислений ИППИ РАН, председатель Российского отделения IDGF:

Многих, вероятно, может удивить то, что на мероприятии, посвященном суперкомпьютерным вычислениям, поднимается тема организации высокопроизводительных расчетов с использованием персональных компьютеров. Однако это не случайно. Нередки случаи, когда на суперкомпьютерах решаются задачи, не требующие интенсивного обмена данными. При этом дорогостоящее сетевое оборудование («интерконнект») кластеров фактически не используется. Подобные задачи целесообразно решать на более дешевых ресурсах, таких как, например, грид-системы персональных компьютеров. Развитием и популяризацией этой технологии мы и пытаемся заниматься.

Несмотря на то что мы участвуем в Национальном суперкомпьютерном форуме уже во второй раз и на этот раз кроме проведения секции нам дали возможность выступить с двумя пленарными докладами, есть ощущение, что представители научной сферы вообще и суперкомпьютерной отрасли в частности недооценивают возможности распределенных вычислений на базе персональных компьютеров. Причиной этого, на наш взгляд, является недостаточная информированность о существовании и особенностях подобной технологии.

В этой связи хотелось бы упомянуть, что в ЦЕРНе, имеющем как собственные огромные вычислительные ресурсы, так и доступ ко многим мировым суперкомпьютерным центрам, тем не менее не только продолжают, но и расширяют использование персональных грид-систем. И более того, у них запущено уже три проекта добровольных распределенных вычислений как для решения технических вопросов функционирования Большого адронного коллайдера, так и для моделирования и обработки данных конкретных физических экспериментов.

На наш взгляд, тормозит внедрение этой удобной технологии и боязнь специалистов-предметников вникать в тонкости информационных технологий, разбираться с работой серверного и клиентского ПО. Поэтому на круглом столе, прошедшем в рамках секционной работы форума, было решено заняться организацией «BOINC-инкубатора», постаравшись организовать поиск потенциально перспективных идей, способных быть решенными в рамках этой компьютерной технологии и максимально облегчить реализацию таких проектов.

С этой целью отобранным в ходе предстоящего конкурса проектам будет оказана серьезная техническая помощь в виде предоставления вычислительных ресурсов и консультационной помощи высококвалифицированных специалистов по адаптации имеющегося расчетного приложения для работы в рамках персонального грида. В результате, как ожидается, будет существенно снижена «стоимость входного билета» в мир высокопроизводительных грид-технологий на базе персональных компьютеров.

Кроме того, на этом форуме был представлен доклад, в котором мы попытались показать, как грид-системы из персональных компьютеров можно успешно интегрировать с суперкомпьютерами, создавая мощные комбинированные распределенные комплексы. Одним из инструментов для такой интеграции может служить совместная разработка команд из Института динамики систем и теории Управления СО РАН и ИППИ РАН — система CluBoRun (Cluster for BOINC Run). Достоинством данной системы является то, что она может использовать простаивающие ресурсы суперкомпьютеров, которые неизбежно образуются при использовании систем пакетной обработки, применяемых на кластерах коллективного доступа.

Хотел бы еще сказать, что Российское отделение IDGF (Международной федерации грид-систем из персональных компьютеров) стало официальным членом Национальной суперкомпьютерной технологической платформы (НСТП). Это открывает нам доступ к информационным ресурсам платформы и позволяет использовать площадку НСТП для налаживания эффективного взаимодействия с представителями российской суперкомпьютерной отрасли.

Олег Заикин

Олег Заикин, науч. сотр. ИДСТУ СО РАН, координатор проекта SAT@home и один из создателей CluBoRun:

Хотел бы прежде всего поддержать высказанную Михаилом мысль о том, что необходимо помогать заинтересованным исследователям в освоении технологии персональных грид-систем и, возможно, в создании и развитии добровольных проектов. Действенность такой поддержки показывает пример нашего проекта SAT@home, работающего уже более трех лет. И на начальном этапе, и даже сейчас большую помощь нам оказывают специалисты Центра распределенных вычислений ИППИ РАН. Собственно, и сам сервер проекта с самого начала работы и до настоящего момента находится на их площадке. Не могу не сказать о той помощи, которую нашему проекту оказывают и добровольные помощники — волонтеры-кранчеры. Причем некоторые из них превратились в реальных помощников в развитии проекта, вошли в команду разработчиков. Один из них, Максим Манзюк, стал одним из основных создателей программы CluBo-Run и полноправным соавтором доклада, с которым выступал на НСКФ И.В. Бычков.

1. Сайт Института программных систем имени А.К. Айламазяна РАН: http://skif.pereslavl.ru/psi-info

2. Сайт Национального суперкомпьютерного форума (НСКФ-2014): http://2014.nscf.ru

3. Андреев А. Суперкомпьютерный Переславль-Залесский // ТрВ-Наука. № 11 февраля 2014 года.

4. Сайт Российского отделения IDGF: http://desktopgrid.ru

5. Видеозапись доклада академика РАНИ.В. Бычкова на НСКФ-2014: http://www.youtube.com/watch?&v=6Gn8tl1515U

6. Сайт Национальной суперкомпьютерной технологической платформы: www.hpc-platform.ru

Подписаться
Уведомление о
guest

8 Комментария(-ев)
Встроенные отзывы
Посмотреть все комментарии
Evgueni
9 года (лет) назад

IMHO упомянутые проекты ЦЕРН для разворачивания моделирования экспериментов на частных ПК рассматривать имеет смысл исключительно с точки зрения популяризации. Никакого смысла для использования в качестве “продакшн” у этого пути нет и никто этого делать и не планирует.

— это обмен времени квалифицированных исследователей на ресурсы, которое на поверку гороздо дороже выходит, чем получаемые взамен возможности. Смысл исключительно в популяризации (и в конференциях) и к науке это имеет весьма слабое отношение. Только если денег на покупку настольного кластера нет совсем и не предвидится, а времени дофига — то бишь от полной безнадёги. IMHO проще договориться с соседним университетом в котором кластер почти гарантированно простаивает или купить подержанную теслу и оптимизировать свою задачу под CUDA. И да, быстрый интерконнект, не нужен только в определённом классе задач, а кое-где без него никак

Андреев Александр
9 года (лет) назад

Насчет популяризации – однозначно соглашусь. Насчет противопоставления кластера и персональных ГРИД-систем лучше Олег Заикин скажет (и то и то успешно использует). А вот насчет ЦЕРНовских проектов лучше всего из организаторы могут сказать. Я их, кстати, спрашивал. Процитирую кое что: Eric Mcintosh (LHC@Boris) ” CERN has a very large computing power in different countries. Why is actively developing projects Volunteer computing? CERN never has enough computing power and never has had….the GRID was developed to allow computing to be carried out world wide and the LHC data is distributed to regional centres and can then be accessed from institutes and universities. The amount of data generated and to be processed is huge and this processing is not well suited to volunteer computing. However I see at least one experiment asking/allowing volunteers to look at a few events. There is also a huge amount of event simulation to be performed and this can probably be done to some extent on volunteer systems. Now CERN has been working for three projects: LHC@Boris Classic, vLHCathome, ATLAS@Boris. There are benefits of these projects for scientists? Well LHC@Boris is easy for me….once again there was never enough computing capacity to carry out all the LHC design studies. In fact I became heavily involved more than twenty years ago when the LHC external review committee recommended that CERN perform many more simulations. As a amatter of record these studies were well worthwhile and the results validated by the measured results from the actual LHC operation. Today we can study only a relatively small number of particles in a bunch (a bunch is over 100 billion protons). Howwver volunteer computing allows us to use a larger sample of particles at different initial amplitudes and angles in phase space improving the quality of the results. For the experiments… Подробнее »

Evgueni
9 года (лет) назад

При всём уважении к людям, которые двигают распределённые проекты в CERN — это бла-бла-бла, презентации, но в продакшен они _никому_ не нужны и никто в здравом уме при реальной обработке хоть чего-нибудь не выберет этот ресурс в качестве основного. Это просто разные весовые категории. В случае обработки экспериментальных данных в ФЭЧ “постоянная загрузка” не очень-то на самом деле и нужна, но необходим мощный, постоянно готовый к работе и абсолютно надёжный кластер для обработки массива данных в разумный промежуток времени. Прока от системы, где условно “99% событий был обработан за два часа, а оставшийся процент завис на месяц” нет никакого. То есть тут надёжность и предсказуемость выходит на первое место в силу итерационности процесса, а также в силу модели всегда для каких-то немэйнстримовых расчётов найдётся минутка. И да, следует понимать, что в случае ФЭЧ данные параллелятся на уровне событий, правда для обработки одного события требуется условно не меньше гигабайта оперативки, так что нужны именно “сферические в вакууме полноценные компьютеры”, но даже в этом случае распределённые вычисления уступают по всем параметрам (вклад в рост энтропии вселенной, потребление электричества, число администраторов, предсказуемость и надёжность) стойкам, набитых блейдами. Я слышал доклады на эту тему в CERN как и доклады наших энтузиастов на тему того же SAT. Пока это любительщина — интересная, но в большинстве своём бесполезная, типа “школьной физики”, которая бесконечно важна для обучения, но к физике не имеет почти никакого отношения. И перспектив особых уйти с этого пути не видно А сказки, что за эти ресурсы “extra computing resources that it does not have to pay” рассказывать не нужно — спецы за эти ресурсы платят _своим_ временем (в основном на форумах разъясняя геймерам зачем им загружать их геймерские мощные компьютеры непонятной деятельностью), которое на самом деле _очень_ дорого. Если им нравится тратить на это время, то это замечательно — мало ли хобби… Подробнее »

Андреев Александр
9 года (лет) назад

Evgueni, почему все пытаются противопоставлять? НА НСКФ тоже слышал фразы, типа “призывают кластеры на ГРИДы менять”. Никто к этому не призывает. Не идет речь о том, чтобы “сделать его основным”. Но ведь это рабочий инструмент, который вполне можно применять (с учетом его особенностей и ограничений, но и достоинств тоже). Может ли каждый получить доступ к суперкомпьютеру? Как показывает практика к Ломоносову в МГУ аспиранты и даже студенты – могут. А вот сотрудники других институтов (даже по просьбам академиков) далеко не всегда. И многие ли могут арендовать большой кластер монопольно под себя на месяцы и годы?
Ведь есть пример подобного сравнения – решение задачи Sudoku. Одну и ту же задачу разные группы на мощном кластере (и не одном) почти год и в проекте РВ, чуть дольше, но с тем же конечным итогом. Вопрос: настолько ли важна для общества подобная (безусловно интересная) задача, чтобы расходовать мощности супервычислительных монстров?
Ну это как один из примеров.
Просто где-то без экскаватора не обойдешься, а где-то проще парой лопат обойтись. :)

Evgueni
9 года (лет) назад

> Evgueni, почему все пытаются противопоставлять?

а) Цитирую тут заголовок этого текста: “Гонку за терафлопсами пора заканчивать” — именно этот (вполне допускаю, что просто неудачный заголовок) и сподвигнул меня на написание комментария. Я не считаю, что эту гонку пора заканчивать — более того я говорю “ура домашним кластерам”.

б) Противопоставлять действительно смысла нет, так как распределённые вычисления для целей упомянутого CERNа не годятся ни сейчас, ни в перспективе (если не случится упомянутого мной AI).

> Может ли каждый получить доступ к суперкомпьютеру?

Зависит от задачи и от нужности. Я утверждаю, что сейчас с России проблемы с доступом к суперкомпьютерам стоят в череде проблем реальной науки на столько далеко по сравнению с проблемами обветашания парка (да и людей, точнее проблемы обветшания людей давно уже перешли все самые разумные пределы) фундаментальных экспериментальных установок, что даже в телескоп с вершины этой горы эту проблему разглядеть не получается. Когда мне этот доступ понадобился — я его организовал (да, в конце концов потребовались для этого и академики, но не они были инициаторами — ими воспользовались) и эти мощности превышают то, что имеют ребята из SAT, несмотря на свой героический в полном смысле этого слова квест. И да, мне до МГУ три тысяч километров лететь, так что МГУ очевидно не мой случай.

> Просто где-то без экскаватора не обойдешься, а где-то проще парой лопат обойтись. :)

Ога — тесла на персональном компьютере и _такая_ проблема решена. Ребята из Гидродинамики не дадут соврать.

Олег Заикин
Олег Заикин
9 года (лет) назад

> @Boris — это обмен времени квалифицированных исследователей на ресурсы, которое на поверку гораздо дороже выходит, чем получаемые взамен возможности. Частично согласен. Но Вы упомянули идеальный вариант, а на практике бывает совсем по-другому. > Смысл исключительно в популяризации (и в конференциях) и к науке это имеет весьма слабое отношение. Совершенно не согласен. Я разворачивал проект SAT@Boris и до сих пор в нем основной программист. И развернуть его мы решили не из-за популяризации (SAT – это не медицина, не астрономия и не CERN, здесь популяризация почти бесполезна) и не из-за конференций. Нужно было решить задачу, а ресурсов не хватало. Развернули проект, задачу решили. И еще много задач решили после этого. > Только если денег на покупку настольного кластера нет совсем и не предвидится, а времени дофига — то бишь от полной безнадёги. IMHO проще договориться с соседним университетом в котором кластер почти гарантированно простаивает Может Вам проще договориться, а мне оказалось проще развернуть проект. Вот у нас в ИДСТУ СО РАН в Иркутске в 2010 году кластер был довольно слабый. Надо было решить задачу, но его ресурсов не хватало. Попытались получить доступ к Московским кластерам – не получилось. Два раза пытались, не дали нам ресурсы. В соседних университетах кластеры были еще слабее. А ведь на попытки (зачастую безрезультатные) договориться тоже время уходит, между прочим. А мы развернули проект @Boris и решили задачу. И я не считаю что я потратил время зря. Сейчас то в ИДСТУ кластер довольно мощный, но тогда его не было. Получается, что если бы у меня был тогда мощный кластер, я бы проект SAT@Boris не развернул. Но в итоге я продолжаю им пользоваться, даже получив доступ (с 2013 года) к мощному кластера. > или купить подержанную теслу и оптимизировать свою задачу под CUDA. Отличный вариант, но только если алгоритм решения хорошо “ляжет” на GPU. Основной алгоритм решения… Подробнее »

Evgueni
9 года (лет) назад

Олег, прежде всего: я ни в коем случае не нападаю на вашу работу. Я прекрасно помню как это было в 2010 году: ситуация когда одна итерация моей обработки данных длилась три недели (вместо 3-4 часов сейчас), а для публикации статьи потребовалось около сотни таких итераций. Но сейчас вы же сами подтверждаете, что доступ к разумному объёму вычресурсов у вас есть. А проблемы с ними в 2010 году были от, скажем так, неприличной бедности.

В тутошних же комментариях я в основном излагаю своё резкое неприятие заголовку к статье “Гонку за терафлопсами пора заканчивать”, потому что эту гонку мы так и не начали по хорошему и вряд ли в обозримом будущем начнём. С помощью же эту гонку не выиграть даже близко.

Андреев Александр
9 года (лет) назад

Я понял в чем причина. По сути эта статья состоит из 2-х частей. 1-я – краткая информация и впечатление о самом Форуме и вторая – рассказ о работе секции.
Заголовок, относится к первой части и смысл его в том, о чем говорил, в частности Норман Г.Э.: что показатели “чистых” флопсов, ТОПы и Линпаки” мало что показывают для реальных приложений. И что производительность суперкомпбютеров нужно проверять не на искусственных тестах. Собствено вот в этом и был смысл заголовка. Возможно не совсем корректный.
А рассказ о работе ГРИД-секции, к названию вообще отношения не имеет.
Спасибо за то, что “ткнули носом” :), учтем на будущее.

Оценить: 
Звёзд: 1Звёзд: 2Звёзд: 3Звёзд: 4Звёзд: 5 (Пока оценок нет)
Загрузка...