1. Система керування
суперкомп'ютером з підтримкою
роботи у гріді SCMS 4.0
Андрій Головинський, Андрій Маленко
Інститут кібернетики ім. В.М. Глушкова НАНУ
HPC-UA 2011, 14 жовтня, Київ
2. Основні проблеми використання HPC для науковців
Недружній інтерфейс доступу.
Необхідно знання непотрібних технічних деталей.
Робота у командному рядку Unix.
Додаткова складність при роботі з грід-технологіями.
Складності адміністрування суперкомп’ютера.
4. Властивості
Встановлення на майже будь-який кластер.
Веб-додаток для доступу до суперкомп’ютера.
Простий доступний багатомовний інтерфейс, розрахований на початківців та
досвідчених користувачів.
Підтримка ARC (NorduGrid).
Прозора робота в гріді, аналогічна роботі на локальному кластері.
Докладні звіти про використання суперкомп’ютера.
Швидкий доступ до важливої інформації про роботу кластера.
Термінові повідомлення про критичні помилки за допомогою SMS та електронної
пошти.
5. Вхід до системи
Для доступу до SCMS 4.0 користувач повинен ввести своє SSH ім’я користувача та
пароля. Користувач також обирає бажану мову інтерфейсу.
6. Інтерфейс користувача
Інтерфейс призначений для виконання усіх звичайних операцій:
роботи з файлами;
запуску задач;
відстеження виконання задач;
зв’язку між користувачами та адміністраторами;
роботи у гріді.
7. Налаштування
Вікно Налаштування дозволяє користувачеві змінити власні дані та
налаштування інтерфейсу.
Після встановлення грід-сертифікату активуються відповідні грід-сервіси.
Користувач з вимкненим сертифікатом або без такого працює як звичайни
користувач кластера.
9. Підготовка до запуску задачі
Менеджер файлів має звичайні функції.
Редактор вихідних текстів програм з підсвічуванням синтаксису.
Зручна форма запуску.
Перегляд обчислювальних ресурсів та черг задач.
13. Керування виконанням задач
Після запуску задачі відповідна віддалена директорія з’являється у менеджері файлів.
Перелік файлів під час виконання грід-задачі
18. Можливості адміністратора
Керування користувачами.
Діагностика та моніторинг стану обладнання кластера.
Керування чергами задач.
Аналіз статистики використання ресурсів.
Повідомлення про небезпечні ситуації.
22. Технічні деталі
Операційна система кластера: Linux.
Підтримка основних менеджерів ресурсів: Torque, SLURM.
Підтримка грід-технологій: ARC (NorduGrid).
Моніторинг температури та стану обладнання: IPMI.
Веб сервер: Apache, PHP, MySQL.
GSM/CDMA модем (додатково).
23. У процесі розробки
Підтримка грід технологій gLite та Unicore.
Підтримка інших менеджерів ресурсів: PBS-Pro.
Нові можливості контролю та керування обладнанням.
Розширення можливостей обліку ресурсів, облік грід задач.
Полегшена версія для мобільних пристроїв.
24. Інсталяції
Національний ресурсний центр грід
Інститут кібернетики імені В.М. Глушкова НАНУ, Київ
Північно-східний ресурсний центр грід
Інститут сцинтиляційних матеріалів НАНУ, Харків
Фізико-технічний інститут низьких температур ім. Б.І. Вєркіна НАНУ, Харків
Інститут механіки суцільних середовищ РАН, Перм, Росія
25. Дякуємо за увагу!
Андрій Головинський
E-mail: golovinsky.andriy@gmail.com
Андрій Маленко
E-mail: malenko.andrii@gmail.com
Демонстраційна система
http://scms.melkon.com.ua/
login: demo
password: cluster