Настільний кластер. Настільний кластер Установка Active Directory

Жарознижуючі засоби для дітей призначаються педіатром. Але бувають ситуації невідкладної допомоги при лихоманці, коли дитині потрібно дати ліки негайно. Тоді батьки беруть на себе відповідальність і застосовують жарознижуючі препарати. Що дозволено давати дітям грудного віку? Чим можна збити температуру у дітей старшого віку? Які ліки найбезпечніші?

В першу чергу визначитеся з тим, які компоненти і ресурси будуть потрібні.Вам потрібен буде один головний вузол, мінімум десяток ідентичних обчислювальних вузлів, свитч Ethernet, блок розподілу харчування і стійка. Визначте потужність проводки і охолодження, а також площа простору, які вам будуть потрібні. Також визначіться, які IP адреси ви хочете використовувати для вузлів, яке ПЗ ви поставите і які технології будуть потрібні для створення паралельних обчислювальних потужностей (докладніше про це нижче).

  • Хоча «залізо» коштує дорого, все наведені в статті програми розповсюджуються безкоштовно, і більшість з них - з відкритим вихідним кодом.
  • Якщо ви хочете дізнатися, наскільки швидким теоретично може бути ваш суперкомп'ютер, використовуйте цей інструмент:

Змонтуйте Ноди.Вам потрібно буде зібрати вузли мережі або придбати попередньо зібрані сервери.

  • Вибирайте рами для серверів з максимально раціональним використанням простору і енергії, а також з ефективним охолодженням.
  • абови можете «утилізувати» десяток або близько того б / у серверів, кілька застарілих - і нехай їх вага перевищує сумарний вага комплектуючих, зате ви заощадите пристойну суму. Всі процесори, мережеві адаптери і материнські плати повинні бути однакові, щоб комп'ютери добре працювали разом. Звичайно, не забудьте про RAM і жорсткі диски для кожної ноди, а також як мінімум про один оптичному приводі для головного вузла.
  • Встановіть сервери в стійку.Починайте знизу, щоб стійка не була перевантажена зверху. Вам знадобиться допомога друга - зібрані сервери можуть бути дуже важкими, і ставити їх в осередки, на яких вони тримаються в стійці, досить складно.

    Встановіть світч Ethernet поруч зі стійкою.Варто відразу ж конфігурувати свитч: встановіть розмір джамбо-кадрів 9000 байт, встановіть статичний IP адреса, який ви вибрали на кроці 1 і вимкніть непотрібні протоколи, такі як SMTP.

    Встановіть розподільник харчування (PDU, або Power Distribution Unit).Залежно від того, яку максимальну навантаження видають Ноди в вашій мережі, вам може знадобитися 220 вольт для високопродуктивного комп'ютера.

  • Коли все встановлено, переходите до конфігурації. Linux за фактом є основною системою для високопродуктивних (HPC) кластерів - він не тільки ідеально підходить в якості оточення для наукових обчислень, але вам ще й не доведеться платити за установку системи на сотні і навіть тисячі вузлів. Уявіть, у скільки обійшлася б установка Windows на всі ноди!

    • Почніть з установки останньої версії BIOS для материнської плати і ПО від виробника, яке повинно бути однаковим для всіх серверів.
    • Встановіть бажаний дистрибутив Linux на всі ноди, а на головний вузол - дистрибутив з графічним інтерфейсом. Популярні системи: CentOS, OpenSuse, Scientific Linux, RedHat і SLES.
    • Автор дуже рекомендує використовувати Rocks Cluster Distribution. На додаток до установки всіх необхідних для кластера програм та інструментів, Rocks реалізує відмінний метод для швидкого "перенесення" безлічі копій системи на аналогічні сервера з використанням PXE boot і процедури "Kick Start" від Red Hat.
  • Встановіть інтерфейс передачі повідомлень, менеджер ресурсів та інші необхідні бібліотеки.Якщо ви не поставили Rocks на попередньому кроці, вам доведеться вручну встановлювати необхідне програмне забезпечення, щоб налаштувати логіку паралельних обчислень.

    • Для початку вам знадобиться портативна система для роботи з bash, наприклад, Torque Resource Manager, який дозволяє розділяти і розподіляти завдання на кілька машин.
    • Додайте до Torque ще Maui Cluster Scheduler, щоб закінчити установку.
    • Далі вам потрібно встановити інтерфейс передачі повідомлень, який необхідний для того, щоб індивідуальні процеси в кожній окремій ноді використовували загальні дані. OpenMP - найпростіший варіант.
    • Не забудьте про багатопоточних математичних бібліотеках і компіляторах, які будуть «збирати» ваші програми для розподілених обчислень. Я вже говорив, що вам варто просто поставити Rocks?
  • З'єднайте комп'ютери в мережу.Головна нода посилає завдання для обчислення на підлеглі Ноди, які в свою чергу повинні повернути результат назад, а також відправляти повідомлення один одному. І чим швидше все це відбувається, тим краще.

    • Використовуйте приватну Ethernet мережу, щоб з'єднати всі ноди в кластер.
    • Головна нода може також працювати в якості NFS, PXE, DHCP, TFTP і NTP сервера при підключенні до Ethernet.
    • Ви повинні відокремити цю мережу від публічних, щоб бути впевненим, що пакети не перекриваються іншими в LAN.
  • Протестуйте кластер.Останнє, що вам варто зробити перед тим, як дати доступ користувачам до комп'ютерних потужностей - протестувати продуктивність. HPL (High Performance Lynpack) benchmark - популярний варіант для вимірювання швидкості обчислень в кластері. Вам потрібно скомпілювати ПО з початкових кодів з найвищим ступенем оптимізації, яку дозволяє ваш компілятор для тієї архітектури, яку ви вибрали.

    • Ви повинні, звичайно, компілювати з усіма можливими настройками оптимізації, які доступні для платформи, яку ви вибрали. Наприклад, при використанні AMD CPU компілюйте в Open64 і рівнем оптимізації -0.
    • Порівняйте отримані результати з TOP500.org, щоб зіставити свій кластер з 500 найшвидшими суперкомп'ютерами в світі!
  • Свій перший "кластер" з одноплатних комп'ютерів я побудував майже відразу після того, як мікрокомп'ютер Orange Pi PC почав набирати популярність. "Кластером" це можна було назвати з великою натяжкою, бо з формальної точки зору це була всього лише локальна мережа з чотирьох плат, які "бачили" один одного і могли виходити в Інтернет.

    Пристрій брало участь в проекті [Email protected]і навіть встигло щось нарахувати. Але, на жаль, ніхто не прилетів забрати мене з цієї планети.
    Однак, за весь час метушні з проводами, роз'ємами і microSD-картами я багато чому навчився. Так, наприклад, я з'ясував, що не варто довіряти заявленої потужності блоку живлення, що було б непогано розподіляти навантаження в плані споживання, так і переріз проводу має значення.

    І так, довелося "колгоспів" систему управління живленням, бо одночасний старт п'яти одноплатніков може зажадати стартовий струм порядку 8-10а (5 * 2)! Це немало, особливо для БП, зроблених в підвалах країни, де ми так любимо замовляти всякі ... цікаві гаджети.

    Почну, мабуть, з неї. Завдання звелася до відносно простим діям - через заданий проміжок часу послідовно включити 4 канали, по яких подається 5 вольт. Найпростіший спосіб реалізувати задумане - Arduino (яких у кожного поважаючого себе гику в надлишку) і ось така диво-плата з Алі з 4-ма реле.

    І знаєте, воно навіть запрацювало.

    Однак, "холодильник-style" клацання при старті викликали деяке відторгнення. По-перше при натисканні пробігала перешкода по харчуванню і потрібно було ставити конденсатори, а по-друге вся конструкція була досить великою.

    Так що в один прекрасний день я просто замінив блок реле на транзисторні ключі на основі IRL520.

    Це вирішило питання з перешкодами, але оскільки mosfet управляє "нулем", довелося відмовитися від латунних ніжок в стійці, щоб не з'єднати випадково землю плат.

    І ось, рішення відмінно тиражується і вже два кластери працюють стабільно без всяких сюрпризів. Just as planned.

    Але, повернемося до тиражовані. Навіщо купувати блоки живлення за відчутну суму, коли буквально під ногами є багато доступних ATX?
    Мало того, на них є все напруги (5,12,3.3), зачатки самодіагностики і можливість програмного управління.

    Ну тут я особливо розпинатися не буду - стаття про управління ATX через Ардуіно.

    Ну що, все таблетки під'їду, марки теж наклеєні? Пора об'єднати це все докупи.

    Буде один головний вузол, який з'єднується з зовнішнім світом по WiFi і віддає "інтернети" в кластер. Він буде живитися від чергової напруги ATX.

    Фактично, за роздачу инета відповідає TBNG.
    Так що при бажанні вузли кластера можна заховати за TOR.

    Також, буде хитра плата, підключена по i2c до цього головному вузлу. Вона зможе вмикати-вимикати кожен з 10 робочих вузлів. Плюс, буде вміти управляти трьома вентиляторами 12в для охолодження всієї системи.

    Сценарій роботи такої - при включенні ATX в 220в стартує головний вузол. Коли система готова до роботи - він послідовно включає всі 10 вузлів і вентилятори.
    Коли процес включення закінчений - головний вузол буде обходити кожен робочий вузол і питати мовляв, як ми себе почуваємо, яка мовляв температура. Якщо одна зі стійок гріється - збільшимо обдув.
    Ну і при команді відключення кожен з вузлів буде акуратно погашений і знеструмлений.

    Схему плати я малював сам, тому виглядає вона моторошно. Однак, за трасування і виготовлення взявся добре навчена людина, за що йому велике спасибі.

    Ось вона в процесі складання

    Ось один з перших ескізів розташування компонент кластера. Зроблено на листку в клітинку і увічнений через Office Lens телефоном.

    Вся конструкція поміщається на аркуші текстоліту, купленого з нагоди.

    Приблизно так виглядає розташування вузлів всередині. Дві стійки по п'ять плат.

    Тут проглядається керуюча Arduino. Вона з'єднана з головним Orange Pi Pc по i2c через конвертер рівнів.

    Ну а ось фінальний (поточний варіант).

    Отже, все що потрібно - це написати кілька утиліт на Python, які б всієї цієї музикою диригували - включали, включали, регулювали швидкість вентилятора.

    Не буду втомлювати технічними подробицями - виглядає приблизно так:

    1
    2
    3
    4
    5
    6
    7
    8
    #! / Usr / bin / env sh

    echo "Starting ATX board ..."
    /home/zno/i2creobus/i2catx_tool.py --start
    echo "Setting initial fan values ​​..."
    /home/zno/i2creobus/i2creobus_tool.py --fan 0 --set 60
    /home/zno/i2creobus/i2creobus_tool.py --fan 1 --set 60
    /home/zno/i2creobus/i2creobus_tool.py --fan 2 --set 60

    Оскільки вузлів у нас вже цілих 10, беремо на озброєння Ansible, який допоможе, наприклад, правильно вимкнути всі вузли. Або запустити на кожному монітор температури.

    1
    2
    3
    4
    5
    6
    7
    8
    ---

    - hosts: workers
    roles:
    - webmon_stop
    - webmon_remove
    - webmon_install
    - webmon_start

    Мене часто в зневажливому тоні звинувачують, мовляв це просто локальна мережа одноплатніков (як я вже згадував на самому початку). Мені, в цілому, насрати на чужу думку, але мабуть, додамо гламуру і організуємо docker swarm cluster.
    Завдання досить проста і виконується менше ніж за 10 хвилин. Потім запустимо на головний ноді екземпляр Portainer, і вуаля!

    Тепер можна реальномасштабувати завдання. Так, в даний момент в кластері працює майнер криптовалюта Verium Reserve. І, досить успішно. Сподіваюся, найближчий туземун окупить з'їдене електрику;) Ну або скоротити кількість залучених вузлів і Майн що-небудь ще типу Turtle Coin.

    Якщо хочеться корисного навантаження - в кластер можна закинути Hadoop або влаштувати балансування веб-серверів. Готових образів в інтернеті багато, та й навчає матеріалу достатньо. Ну а якщо образ (docker image) відсутня - завжди можна зібрати свій.

    Чому мене це навчило? В цілому, "стек" технологій дуже широкий. Судіть самі - Docker, Ansible, Python, прокачування Arduino (прости господи, ні до ночі буде сказано), ну і шелл звичайно ж. А так же KiCad і робота з підрядником :).

    Що можна зробити краще? Багато що. За софтової частини було б непогано переписати керуючі утиліти на Go. За залізною - make it more steampunkish - КДПВ на початку відмінно задирає планку. Так що є, над чим працювати.

    Ролі виконували:

    • Головний вузол - Orange Pi PC з usb wifi.
    • Робочі вузли - Orange Pi PC2 x 10.
    • Мережа - 100 Мбіт [Email protected]
    • Мозок - Клон Arduino на базі Atmega8 + конвертер рівнів.
    • Серце - контролер живлення АТХ з блоком живлення.
    • Софт (душа) - Docker, Ansible, Python 3, трохи шелла і чуть чуть ліні.
    • Витрачений час - безцінне.

    В процесі експериментів постраждала пара плат Orange Pi PC2 через переплутав харчування (дуже красиво горять), ще одна PC2 позбулася Ethernet (це окрема історія, в якій я не розумію фізики процесу).

    Ось начебто і вся історія "по верхах". Якщо хтось вважає її цікавою - задавайте питання в коментарях. І голосуйте там же за питання (плюсуйте - у кожного коммента є кнопка для цього). Найбільш цікаві питання будуть висвітлені в нових нотатках.
    Спасибі, що дочитали до кінця.

    Прес-центр

    Створення кластера на базі Windows 2000/2003. Крок за кроком

    Кластер - це група з двох або більше серверів, що діють спільно для забезпечення безвідмовної роботи набору додатків або служб і сприймаються клієнтом як єдиний елемент. Вузли кластера об'єднуються між собою за допомогою апаратних мережевих засобів, спільно використовуваних ресурсів, що розділяються і серверного програмного забезпечення.

    Microsoft Windows 2000/2003 підтримує дві технології кластеризації: кластери з балансуванням навантаження (Network Load Balancing) і кластери серверів.

    У першому випадку (кластери з балансуванням навантаження) служба Network Load Balancing надає служб і додатків властивості високого рівня надійності і масштабованості за рахунок об'єднання до 32 серверів в єдиний кластер. Запити від клієнтів в даному випадку розподіляються серед вузлів кластера прозорим чином. При відмові вузла кластер автоматично змінює свою конфігурацію і перемикає клієнта на будь-який з доступних вузлів. Цей режим конфігурації кластера також називається active-active режимом, коли один додаток працює на декількох вузлах.

    Кластер серверів розподіляє свою навантаження серед серверів кластера, причому кожен сервер несе свою власну навантаження. Якщо відбувається відмова вузла в кластері, то додатки і служби, налаштовані на роботу в кластері, прозорим чином перезапускати на будь-якому з вільних вузлів. Кластери серверів використовують колективні диски для обміну даними всередині кластера і для забезпечення прозорого доступу до додатків і службам кластера. Для них потрібне спеціальне обладнання, але дана технологія забезпечує дуже високий рівень надійності, оскільки сам кластер не має будь-якої єдиної точки відмови. Цей режим конфігурації кластера також називається active-passive режимом. Додаток в кластері працює на одному вузлі з загальними даними, розташованими на зовнішньому сховищі.

    Кластерний підхід до організації внутрішньої мережі дає наступні переваги:

    Високий рівень готовності Тобто, якщо відбувається збій служби або програми на якомусь вузлі кластера, настроєного на спільну роботу в кластері, кластерне програмне забезпечення дозволяє перезапустити цей додаток на іншому вузлі. Користувачі при цьому відчують короткочасну затримку при проведенні якоїсь операції або взагалі не помітять серверного збою. Масштабованість Для програм, які потребують кластері, додавання серверів до кластеру означає збільшення можливостей: відмовостійкості, розподіл навантаження і т. Д. Керованість Адміністратори, використовуючи єдиний інтерфейс, можуть керувати програмами та службами, встановлювати реакцію на збій в вузлі кластера, розподіляти навантаження серед вузлів кластера і знімати навантаження з вузлів для проведення профілактичних робіт.

    У цій статті я спробую зібрати свій досвід по створенню кластерних систем на базі Windows і дати невелике покрокове керівництво по створенню двовузлового кластера серверів з розділяються сховищем даних.

    Вимоги до програмного забезпечення

    • Microsoft Windows 2000 Advanced (Datacenter) Server або Microsoft Windows 2003 Server Enterprise Edition, встановлені на всіх серверах кластера.
    • Встановлена ​​служба DNS. Трохи поясню. Якщо ви будуєте кластер на основі двох контролерів домену, то набагато зручніше використовувати службу DNS, яку ви в будь-якому випадку встановлюєте при створенні Active Directory. Якщо ви створюєте кластер на основі двох серверів, членів Windows NT домену, то вам доведеться використовувати або службу WINS, або заносити відповідність імен і адрес машин в файл hosts.
    • Terminal Services для віддаленого управління серверами. Не обов'язково, але при наявності Terminal Services зручно управляти серверами зі свого робочого місця.

    Вимоги до апаратного забезпечення

    • Апаратне забезпечення для вузла кластера краще підбирати, грунтуючись на Cluster Service Hardware Compatible List (HCL). За рекомендаціями Microsoft апаратне забезпечення має бути протестовано на сумісність з Cluster Services.
    • Відповідно вам знадобляться два сервера, що мають по два мережевих адаптера; SCSI-адаптер, що має зовнішній інтерфейс для підключення зовнішнього масиву даних.
    • Зовнішній масив, який має два зовнішніх інтерфейсу. Кожен з вузлів кластера підключається до одного з інтерфейсів.

    зауваження:для створення двовузлового кластера зовсім не обов'язково мати два абсолютно однакових сервера. Після збою на першому сервері у вас буде небагато часу, щоб проаналізувати і відновити роботу основного вузла. Другий же вузол буде працювати на безвідмовність системи в цілому. Однак це не означає, що другий сервер буде простоювати. Обидва вузла кластера можуть спокійно займатися своїми справами, вирішувати різні завдання. А ось якийсь критичний ресурс ми і можемо налаштувати на роботу в кластері, збільшивши його (цього ресурсу) відмовостійкість.

    Вимоги до мережевих налаштувань

    • Унікальне NetBIOS ім'я для кластера.
    • П'ять унікальних статичних IP-адрес. Два для мережевих адаптерів на кластерну мережу, два для мережевих адаптерів на загальну мережу і один для кластера.
    • Доменний обліковий запис для кластерного сервісу (Cluster service).
    • Всі вузли кластера повинні бути або member server в домені, або контролерами домена.
    • Кожен сервер повинен мати два мережевих адаптера. Один для підключення до загальної мережі (Public Network), другий для обміну даними між вузлами кластера (Private Network).

    зауваження:за рекомендаціями Microsoft ваш сервер повинен мати два мережевих адаптера, один для загальної мережі, другий для обміну даними всередині кластера. Чи можна будувати кластер на одному інтерфейсі - напевно, так, але я не пробував.

    установка кластера

    При проектуванні кластера ви повинні розуміти, що, використовуючи одну фізичну мережу як для кластерного обміну, так і для локальної мережі, ви збільшуєте відсоток відмови всієї системи. Тому вкрай бажано для кластерного обміну даними використовувати одну підмережу, виділену в окремий фізичний елемент мережі. А для локальної мережі варто використовувати іншу підмережу. Тим самим ви збільшуєте надійність всієї системи в цілому.

    У разі побудови двовузлового кластера один комутатор використовується загальною мережею. Два сервера кластера можна зв'язати між собою крос-кабелем безпосередньо, як показано на малюнку.

    Установка двовузлового кластера може бути розділена на 5 кроків

    • Установка і настройка вузлів в кластері.
    • Установка і настройка розділяється ресурсу.
    • Перевірка дискової конфігурації.
    • Конфігурація першого вузла кластера.
    • Конфігурація другого вузла в кластері.

    Це покрокове керівництво дозволить вам уникнути помилок під час установки і заощадити масу часу. Тож почнемо.

    Установка і настройка вузлів

    Ми трохи спростимо задачу. Оскільки всі вузли кластера повинні бути або учасниками домену, або контролерами домену, то кореневих власником каталогу AD (Active Directory) зробимо 1-й вузол кластера, на ньому ж буде працювати DNS-служба. 2-й вузол кластера буде повноправним контролером домену.

    Установку операційної системи я готовий пропустити, вважаючи, що в цьому у вас не повинно бути якихось проблем. А ось конфігурацію мережевих пристроїв хочеться пояснити.

    Мережеві налаштування

    Перед початком установки кластера і Active Directory необхідно виконати мережеві настройки. Всі мережеві настройки хочеться розділити на 4 етапи. Для розпізнавання імен в мережі бажано мати DNS-сервер з уже існуючими записами про серверах кластера.

    Кожен сервер має по дві мережеві карти. Одна мережева карта буде служити для обміну даними між вузлами кластера, друга буде працювати на клієнтів в нашій мережі. Відповідно перший назвемо Private Cluster Connection, другий назвемо Public Cluster Connection.

    Налаштування мережевих адаптерів для одного і для іншого сервера ідентичні. Відповідно я покажу, як налаштувати мережевий адаптер і дам табличку з мережевими настройками всіх 4 мережевих адаптерів на обох вузлах кластера. Для настройки мережевого адаптера необхідно виконати наступні кроки:

    • My Network Places → Properties
    • Private Cluster Connection → Properties → Configure → Advanced

      Цей пункт вимагає пояснень. Справа в тому, що за наполегливими рекомендаціями Microsoft на всіх мережевих адаптерах вузлів кластера повинна бути встановлена ​​оптимальна швидкість роботи адаптера, як показано на наступному малюнку.

    • Internet Protocol (TCP / IP) → Properties → Use the following IP: 192.168.30.1

      (Для другого вузла використовуйте адресу 192.168.30.2). Введіть маску підмережі 255.255.255.252. В якості адреси DNS-сервера для обох вузлів використовуйте адресу 192.168.100.1.

    • Додатково на вкладці Advanced → WINS виберіть пункт Disabled NetBIOS over TCP / IP. Для налаштувань мережевих адаптерів загальної (Public) мережі цей пункт опустіть.
    • Виконайте те ж саме з мережевою картою для локальної мережі Public Cluster Connection. Використовуйте адреси, наведені в таблиці. Єдина різниця в конфігурації двох мережевих плат полягає в тому, що для Public Cluster Connection не потрібно вимикання режиму WINS - NetBIOS over TCP / IP.

    Для конфігурації всіх мережевих адаптерів на вузлах кластера використовуйте наступну табличку:

    вузол Мережеве ім'я IP address MASK DNS Server
    1 Public Cluster Connection 192.168.100.1 255.255.255.0 192.168.100.1
    1 Private Cluster Connection 192.168.30.1 255.255.255.252 192.168.100.1
    2 Public Cluster Connection 192.168.100.2 255.255.255.0 192.168.100.1
    3 Private Cluster Connection 192.168.30.2 255.255.255.252 192.168.100.1

    Установка Active Directory

    Оскільки моя стаття не має на меті розповісти про встановлення Active Directory, то цей пункт я опущу. Всіляких рекомендацій, книг про це написано чимало. Виберете доменне ім'я, на кшталт mycompany.ru, встановіть Active Directory на першому вузлі, додайте другий вузол в домен в якості контролера домену. Коли все зробите, перевірте конфігурації серверів, Active Directory.

    Установка Cluster User Account

    • Start → Programs → Administrative Tools → Active Directory Users and Computers
    • Додайте нового користувача, наприклад, ClusterService.
    • Встановіть прапорці на: User Can not Change Password і Password Never Expires.
    • Також додайте цього користувача в групу адміністраторів і дайте йому права Log on as a service (права призначаються в Local Security Policy і Domain Controller Security Policy).

    Налаштування зовнішнього масиву даних

    Для настройки зовнішнього масиву даних в кластері необхідно пам'ятати, що перед установкою Cluster Service на вузлах ви повинні спочатку настроїти диски на зовнішньому масиві, тільки потім встановлювати службу кластера спочатку на першому вузлі, тільки потім на другому. У разі порушення порядку встановлення у вас станеться збій, і ви не досягнете мети. Чи можна буде виправити - напевно, так. Коли з'явиться помилка, у вас буде час, щоб поправити настройки. Але Microsoft настільки загадкова штука, що зовсім не знаєш, на які граблі наступити. Простіше мати перед очима покрокову інструкцію і не забувати натискати на кнопки. По кроках конфігурація зовнішнього масиву виглядає так:

    1. Обидва сервера повинні бути вимкнені, зовнішній масив включений, приєднаний до обох серверів.
    2. Включаємо перший сервер. Отримуємо доступ до дискового масиву.
    3. Перевіряємо, щоб зовнішній дисковий масив був створений як Basic. Якщо це не так, то переведемо диск за допомогою опції Revert to Basic Disk.
    4. Створюємо на зовнішньому диску через Computer Management → Disk Management невеликий розділ. За рекомендаціями Microsoft він повинен бути не менше 50 Мб. Я рекомендую створити розділ в 500 Мб. або трохи більше. Для розміщення кластерних даних цього цілком достатньо. Розділ повинен бути відформатований в NTFS.
    5. На обох вузлах кластера цей розділ буде названий однією буквою, наприклад, Q. Відповідно при створенні розділу на першому сервері виберемо пункт Assign the following drive letter - Q.
    6. Частину диска ви можете розмітити за своїм бажанням. Звичайно, вкрай бажано використовувати файлову систему NTFS. Наприклад, під час налаштування служб DNS, WINS основні бази служб будуть перенесені на загальний диск (не системний тому Q, а другий, створений вами). І поміркуванню безпеки вам буде зручніше використовувати саме NTFS-томи.
    7. Закриваємо Disk Management і перевіряємо доступ до новоствореного розділу. Наприклад, можна створити на ньому текстовий файл test.txt, записати і видалити. Якщо все пройшло нормально, то з конфігурацією зовнішнього масиву на першому вузлі ми закінчили.
    8. Тепер вимикаємо перший сервер. Зовнішній масив повинен бути включений. Включаємо другий сервер і перевіряємо доступ до створеного розділу. Також перевіримо, щоб буква, призначена першого розділу, була ідентична обраної нами, тобто Q.

    На цьому конфігурація зовнішнього масиву завершена.

    Установка Cluster Service Software

    Конфігурація першого вузла кластера

    Перед початком установки Cluster Service Software всі вузли кластера повинні бути вимкнені, все зовнішні масиви повинні бути включені. Перейдемо до конфігурації першого вузла. Зовнішній масив включений, перший сервер включений. Весь процес установки відбувається з використанням Cluster Service Configuration Wizard:


    Конфігурація другого вузла кластера

    Для установки і конфігурації другого вузла кластера необхідно, щоб перший вузол був включений, всі мережеві диски були включені. Процедура настройки другого вузла дуже нагадує ту, що я описав вище. Однак є невеликі зміни. Для цього використовуйте наступну інструкцію:

    1. У діалоговому вікні Create or Join a Cluster виберіть The second or next node in the clusterі натисніть далі.
    2. Введіть ім'я кластера, яке ми поставили раніше (у прикладі це MyCluster), і натисніть далі.
    3. Після підключення другого вузла до кластеру Cluster Service Configuration Wizard автоматично забере все установки з основного вузла. Для запуску служби Cluster Service використовуйте ім'я, які ми створювали раніше.
    4. Введіть пароль вашого облікового запису та натисніть далі.
    5. У наступному діалоговому вікні натисніть Finish для завершення установки.
    6. Cluster service буде запущено на другому вузлі.
    7. Закрийте вікно Add / Remove Programs.

    Для установки додаткових вузлів кластера використовуйте цю ж інструкцію.

    Постскриптум, подяки

    Щоб вам не заплутатися з усіма етапами установки кластера, наведу невелику табличку, в якій відображені всі основні етапи.

    крок вузол 1 вузол 2 зовнішній масив

    Вступ

    Кластер серверів - це група незалежних серверів під управлінням служби кластерів, які працюють спільно як єдина система. Кластери серверів створюються шляхом об'єднання кількох серверів на базі Windows® 2000 Advanced Server і Windows 2000 Datacenter Server для спільної роботи, забезпечуючи тим самим високий рівень доступності, масштабованості і керованості для ресурсів і додатків.

    Завданням кластера серверів є забезпечення безперервного доступу користувачів до додатків і ресурсів у випадках апаратних або програмних збоїв або планових зупинках устаткування. Якщо один з серверів кластера виявляється недоступний через збій або його зупинки для виконання технічного обслуговування, інформаційні ресурси і додатки перерозподіляються між іншими доступними вузлами кластера.

    Для кластерних систем використання терміна « висока доступність »є кращим, ніж використання терміна « відмовостійкість », Оскільки технології забезпечення відмовостійкості передбачають більш високий рівень стійкості обладнання до зовнішніх впливів і механізмів відновлення. Як правило, відмовостійкі сервери використовують високу ступінь апаратної надмірності, плюс в додаток до цього спеціалізоване програмне забезпечення, що дозволяє практично негайно відновити роботу в разі будь-якого окремого збою програмного чи апаратного забезпечення. Ці рішення обходяться значно дорожче в порівнянні з використанням кластерних технологій, оскільки організації змушені переплачувати за додаткове апаратне забезпечення, яке простоює весь основний час, і використовується лише в разі виникнення збоїв. Відмовостійкі сервери використовуються для додатків, які обслуговують інтенсивний потік дорогих транзакцій в таких сферах діяльності, як центри обробки платіжних засобів, банкомати або фондові біржі.

    Хоча служба кластерів і не гарантує безперервної роботи, вона надає високий рівень доступності, достатній для роботи більшості критично важливих додатків. Служба кластерів може відстежувати роботу додатків і ресурсів, автоматично розпізнаючи стан збоїв і відновлюючи роботу системи після їх усунення. Це забезпечує більш гнучке управління робочим навантаженням всередині кластера, і підвищує доступність системи в цілому.

    Основні переваги, одержувані при використанні служби кластерів:

    • Висока доступність.У разі відмови будь-якого вузла служба кластерів передає управління ресурсами, такими як, наприклад, жорсткі диски і мережеві адреси, чинному вузлу кластера. Коли відбувається програмний або апаратний збій, програмне забезпечення кластера перезапускає завершилося з помилкою додаток на діючому вузлі, або переміщує всю навантаження відмовив вузла на решту діючі вузли. При цьому користувачі можуть помітити лише короткочасну затримку в обслуговуванні.
    • Повернення після відмови.Служба кластерів автоматично перерозподіляє робоче навантаження в кластері, коли відмовив вузол знову стає доступним.
    • Керованість.Адміністратор кластера - це оснащення, яку Ви можете використовувати для управління кластером як єдиною системою, а також для управління додатками. Адміністратор кластера забезпечує прозоре уявлення роботи додатків так, як якщо б вони виконувалися на одному сервері. Ви можете переміщати програми на різні сервери в межах кластера, перетягуючи об'єкти кластера мишею. Таким же чином можна переміщати дані. Цей спосіб може використовуватися для ручного розподілу робочого навантаження серверів, а також для розвантаження сервера і його подальшої зупинки з метою проведення планового технічного обслуговування. Крім того, Адміністратор кластера дозволяє віддалено проводити спостереження за станом кластера, всіх його вузлів і ресурсів.
    • Масштабованість.Для того щоб продуктивність кластера завжди могла відповідати зростаючим вимогам, служба кластерів у своєму розпорядженні можливості масштабування. Якщо загальна продуктивність кластера стає недостатньою для обробки навантаження, створюваної кластерними додатками, в кластер можуть бути додані додаткові вузли.

    Цей документ містить інструкції по установці служби кластерів на серверах, що працюють під управлінням Windows 2000 Advanced Server і Windows 2000 Datacenter Server, і описує процес установки служби кластерів на сервери кластерних вузлів. Даний посібник не описує установку і настройку групових застосунків, а лише допомагає Вам пройти через весь процес установки простого двовузлового кластера.

    Системні вимоги для створення кластера серверів

    Наступні контрольні списки допоможуть Вам зробити підготовку до установки. Покрокові інструкції по установці будуть представлені далі після цих списків.

    Вимоги до програмного забезпечення

    • Операційна система Microsoft Windows 2000 Advanced Server або Windows 2000 Datacenter Server, встановлена ​​на всіх серверах кластера.
    • Встановлена ​​служба дозволу імен, така як Domain Naming System (DNS), Windows Internet Naming System (WINS), HOSTS і т. Д.
    • Сервер терміналів для віддаленого адміністрування кластера. Дана вимога не є обов'язковим, а рекомендується лише для забезпечення зручності управління кластером.

    Вимоги до апаратного забезпечення

    • Вимоги, що пред'являються до апаратного забезпечення вузла кластера, аналогічні вимогам для установки операційних систем Windows 2000 Advanced Server або Windows 2000 Datacenter Server. Ці вимоги можна знайти на сторінці пошуку каталогу Microsoft.
    • Устаткування кластера повинна бути сертифікована і зазначено в списку сумісного апаратного забезпечення (HCL) каталогу Microsoft для служби кластерів. Останню версію цього списку можна на сторінці пошуку Windows 2000 Hardware Compatibility Listкаталогу Microsoft, вибравши категорію пошуку «Cluster».

    Два комп'ютери, які відповідають вимогам списку HCL, кожен з яких має:

    • Жорсткий диск з завантажувальним системним розділом і встановленою операційною системою Windows 2000 Advanced Server або Windows 2000 Datacenter Server. Цей диск не повинен бути підключений до шини загального пристрою, що запам'ятовує, розглянутого нижче.
    • Окремий PCI-контролер пристроїв оптичного каналу (Fibre Channel) або SCSI для підключення зовнішнього загального пристрою, що запам'ятовує. Цей контролер повинен бути присутнім на додаток до контролера завантажувального диска.
    • Два мережевих PCI адаптера, встановлених на кожному комп'ютері кластеру.
    • Перераховане в списку HCL зовнішнє дисковий пристрій, підключений до всіх вузлів кластера. Воно буде виступати в якості диска кластера. Рекомендується конфігурація з використанням апаратних RAID-масивів.
    • Кабелі для підключення загального пристрою, що запам'ятовує до всіх комп'ютерів. Для отримання інструкцій по конфігурації запам'ятовуючих пристроїв зверніться до документації виробника. Якщо підключення проводиться до шини SCSI, Ви можете звернутися до додатка А для додаткової інформації.
    • Все обладнання на комп'ютерах кластера має бути повністю ідентичним. Це спростить процес конфігурації і позбавить Вас від потенційних проблем з сумісністю.

    Вимоги до налаштування мережевої конфігурації

    • Унікальне NetBIOS ім'я для кластера.
    • П'ять унікальних статичних IP-адрес: дві адреси для мережевих адаптерів приватної мережі, два - для мережевих адаптерів публічної мережі, і один адреса для кластера.
    • Доменний обліковий запис для служби кластерів (всі вузли кластера повинні бути членами одного домену)
    • Кожен вузол повинен мати два мережевих адаптера - один для підключення до публічної мережі, один - для внутрікластерного взаємодії вузлів. Конфігурація з використанням одного мережевого адаптера для одночасного підключення до публічній і приватній мережі не підтримується. Наявність окремого мережевого адаптера для приватної мережі необхідно для відповідності вимогам HCL.

    Вимоги до дисків загального пристрою, що запам'ятовує

    • Всі диски загального пристрою, що запам'ятовує, включаючи диск кворуму, повинні бути фізично підключені до загальної шини.
    • Всі диски, підключені до загальної шини, повинні бути доступні для кожного вузла. Це можна перевірити на етапі установки і конфігурації хост-адаптера. Для детальних інструкцій зверніться до документації виробника адаптера.
    • Пристроїв SCSI повинні бути призначені цільові унікальні номери SCSI ID, крім цього на шині SCSI повинні бути правильно встановлені термінатори, відповідно до інструкцій виробника. 1
    • Всі диски загального пристрою, що запам'ятовує повинні бути налаштовані як базові диски (НЕ динамічні)
    • Всі розділи дисків загального пристрою, що запам'ятовує повинні бути відформатовані в файлову систему NTFS.

    Вкрай рекомендується об'єднувати всі диски загального пристрою, що запам'ятовує в апаратні RAID-масиви. Хоча це і не є обов'язковим, створення відмовостійких конфігурацій RAID є ключовим моментом в забезпеченні захисту від дискових збоїв.

    установка кластера

    Загальний огляд установки

    Під час процесу установки деякі вузли будуть вимкнені, а деякі перезавантажувались. Це необхідно для того, щоб забезпечити цілісність даних, розташованих на дисках, підключених до загальної шині зовнішнього накопичувача. Пошкодження даних може статися в той момент, коли кілька вузлів одночасно спробують зробити запис на один і той же диск, що не захищений програмним забезпеченням кластера.

    Таблиця 1 допоможе Вам визначити, які вузли і пристрої, що запам'ятовують повинні бути включені на кожному етапі установки.

    Це керівництво описує створення двовузлового кластера. Проте, якщо Ви встановлюєте кластер з більш ніж двома вузлами, Ви можете використовувати значення стовпця «Вузол 2»для визначення стану інших вузлів.

    Таблиця 1. Послідовність включення пристроїв при установці кластера

    крок вузол 1 вузол 2 пристрій зберігання коментар
    Установка параметрів мережі Увімкнути. Увімкнути. Викл. Переконайтеся, що всі пристрої зберігання, підключені до загальної шини, вимкнені. Додайте всі вузли.
    Налаштування загальних дисків Увімкнути. Викл. Увімкнути. Вимкніть всі вузли. Увімкніть загальне пристрій, після чого увімкніть перший вузол.
    Перевірка конфігурації загальних дисків Викл. Увімкнути. Увімкнути. Вимкніть перший вузол, включите другий вузол. При необхідності повторіть для вузлів 3 і 4.
    Конфігурація першого вузла Увімкнути. Викл. Увімкнути. Вимкніть всі вузли; включите перший вузол.
    Конфігурація другого вузла Увімкнути. Увімкнути. Увімкнути. Після успішної конфігурації першого вузла включите другий вузол. При необхідності повторіть для вузлів 3 і 4.
    завершення установки Увімкнути. Увімкнути. Увімкнути. До цього моменту всі вузли повинні бути включені.

    Перед установкою програмного забезпечення кластерів необхідно виконати наступні кроки:

    • Встановити на кожен комп'ютер кластера операційну систему Windows 2000 Advanced Server або Windows 2000 Datacenter Server.
    • Налаштувати параметри мережі.
    • Налаштувати диски загального пристрою, що запам'ятовує.

    Виконайте ці кроки на кожному вузлі кластера перш, ніж приступати до установки служби кластерів на першому вузлі.

    Для конфігурації служби кластерів на сервері під керуванням Windows 2000 Ваш обліковий запис повинна мати права адміністратора на кожному вузлі. Всі вузли кластера повинні бути одночасно або рядовими серверами, або контролерами одного і того ж домена. Змішане використання рядових серверів і контролерів домену в кластері неприпустимо.

    Установка операційної системи Windows 2000

    Для установки Windows 2000 на кожному вузлі кластера зверніться до документації, яку Ви отримали в комплекті з операційною системою.

    У цьому документі використовується структура імен з керівництва "Step-by-Step Guide to a Common Infrastructure for Windows 2000 Server Deployment". Однак, Ви можете використовувати будь-які імена.

    Перш, ніж починати установку служби кластерів, Ви повинні виконати вхід систему під обліковим записом адміністратора

    Налаштування мережевих параметрів

    Примітка:На цьому етапі установки вимкніть всі загальні пристрої, що запам'ятовують, а потім увімкніть всі вузли. Ви повинні виключити можливість одночасного доступу декількох вузлів до загального пристрою зберігання даних до того моменту, коли служба кластерів буде встановлена, по крайней мере, на одному з вузлів, і цей вузол буде включений.

    На кожному вузлі має бути встановлено як мінімум два мережевих адаптера - один для підключення до публічної мережі, і один для підключення до приватної мережі, що складається з вузлів кластера.

    Мережевий адаптер приватної мережі забезпечує взаємодію між вузлами, передачу відомостей про поточний стан кластера і управління кластером. Мережевий адаптер публічної мережі кожного вузла з'єднує кластер з публічної мережею, що складається з клієнтських комп'ютерів.

    Переконайтеся, що всі мережеві адаптери правильно підключені фізично: адаптери приватної мережі підключені тільки до інших адаптерів приватної мережі, і адаптери публічної мережі підключені до комутаторів публічної мережі. Схема підключення зображена на рисунку 1. Виконайте таку перевірку на кожному вузлі кластера, перш ніж переходити до налаштування дисків загального пристрою, що запам'ятовує.

    Малюнок 1: Приклад двовузлового кластера

    Конфігурація мережевого адаптера приватної мережі

    Виконайте ці кроки на першому вузлі Вашого кластера.

    1. Моє мережне оточенняі виберіть команду властивості.
    2. Клацніть правою кнопкою миші на значку.

    Примітка:Який мережевий адаптер буде обслуговувати приватну мережу, а який публічну, залежить від фізичного підключення мережевих кабелів. В даному документі ми будемо припускати, що перший адаптер (Підключення по локальній мережі) підключений до публічної мережі, а другий адаптер (Підключення по локальній мережі 2) підключений до приватної мережі кластера. У Вашому випадку це може бути не так.

    1. Стан.вікно Стан Підключення по локальній мережі 2показує стан підключення і його швидкість. Якщо підключення знаходиться в відключеному стані, перевірте кабелі та правильність з'єднання. Усуньте проблему, перш ніж продовжити. Натисніть кнопку Закрити.
    2. Знову клацніть правою кнопкою миші на значку Підключення по локальній мережі 2, Виберіть команду властивостіі натисніть кнопку налаштувати.
    3. Виберіть вкладку Додатково.З'явиться вікно, зображене на рисунку 2.
    4. Для мережевих адаптерів приватної мережі швидкість роботи повинна бути виставлена ​​вручну замість значення, який використовується за умовчанням. Вкажіть швидкість Вашої мережі в списку. Не використовуйте значення «Auto Sense»або «Auto Select»для вибору швидкості, оскільки деякі мережеві адаптери можуть скидати пакети під час визначення швидкості з'єднання. Для завдання швидкості мережевого адаптера вкажіть фактичне значення для параметра Тип підключенняабо швидкість.

    Малюнок 2: Додаткові налаштування мережевого адаптера

    Всі мережеві адаптери кластера, підключені до однієї мережі, повинні бути однаково налаштовані і використовувати однакові значення параметрів двобічний режим, управління потоком, Тип підключення, І т. Д. Навіть якщо на різних вузлах використовується різне мережеве обладнання, значення цих параметрів повинні бути однаковими.

    1. Оберіть Протокол Інтернету (TCP / IP)в списку компонентів, що використовуються підключенням.
    2. Натисніть кнопку властивості.
    3. Виберіть пункт Використовувати наступний IP-адресаі введіть адресу 10.1.1.1 . (Для другого вузла використовуйте адресу 10.1.1.2 ).
    4. Задайте маску підмережі: 255.0.0.0 .
    5. Натисніть кнопку додатковоі виберіть вкладку WINS.Встановіть значення перемикача в положення Відключити NetBIOS через TCP / IP. натисніть OKдля повернення до попереднього меню. Виконуйте цей крок тільки для адаптера приватної мережі.

    Ваше діалогове вікно повинно виглядати, як зображено на рисунку 3.

    Малюнок 3: IP-адреса підключення до приватної мережі

    Конфігурація мережевого адаптера публічної мережі

    Примітка:Якщо в публічній мережі працює DHCP-сервер, IP-адреса для мережевого адаптера публічної мережі може призначатися автоматично. Однак для адаптерів вузлів кластера цей спосіб використовувати не рекомендується. Ми настійно рекомендуємо призначати постійні IP-адреси для всіх публічних і приватних мережевих адаптерів вузлів. В іншому випадку при відмові DHCP-сервера доступ до вузлів кластера може виявитися неможливим. Якщо ж Ви змушені використовувати DHCP для мережевих адаптерів публічної мережі, використовуйте тривалі терміни оренди адрес - це дасть гарантію того, що динамічно призначений адреса залишиться дійсним, навіть якщо DHCP-сервер виявиться тимчасово недоступним. Адаптерів приватної мережі завжди призначайте постійні IP-адреси. Пам'ятайте, що служба кластерів може розпізнавати тільки один мережевий інтерфейс в кожній підмережі. Якщо Вам потрібна допомога в питаннях призначення мережевих адрес в Windows 2000, зверніться до вбудованої довідці операційної системи.

    Перейменування здійснювати підключення до мережі

    Для ясності ми рекомендуємо змінити назви мережевих підключень. Наприклад, Ви можете змінити назву підключення Підключення по локальній мережі 2на . Такий метод допоможе Вам простіше ідентифікувати мережі і правильно призначати їх ролі.

    1. Клацніть правою кнопкою миші на значку 2.
    2. У контекстному меню виберіть команду перейменувати.
    3. Введіть Підключення до приватної мережі кластерав текстовому полі та натисніть клавішу ВВЕДЕННЯ.
    4. Повторіть кроки 1-3 та змініть назву підключення Підключення до локальної мережіна Підключення до публічної мережі.

    Малюнок 4: Перейменовані мережеві підключення

    1. Перейменовані мережеві підключення повинні виглядати, як показано на рисунку 4. Закрийте вікно Мережа і віддалений доступ до мережі. Нові назви мережевих підключень автоматично реплицируются на інші вузли кластера при їх включенні.

    Перевірка мережевих з'єднань і дозволів імен

    Для перевірки роботи налаштованого мережевого обладнання, виконайте наступні кроки для всіх мережевих адаптерів кожного вузла. Для цього Ви повинні знати IP-адреси всіх мережевих адаптерів в кластері. Ви можете отримати цю інформацію, виконавши команду ipconfigна кожному вузлі:

    1. Натисніть кнопку Пуск,виберіть команду виконатиі наберіть команду cmdв текстовому вікні. натисніть OK.
    2. наберіть команду ipconfig / allі натисніть клавішу ВВЕДЕННЯ. Ви побачите інформацію про налаштування IP-протоколу для кожного мережевого адаптера на локальній машині.
    3. У разі, якщо у Вас ще не відкрито вікно командного рядка, виконайте крок 1.
    4. наберіть команду ping ipaddressде ipaddress- це IP-адреса відповідного мережевого адаптера на іншому вузлі. Припустимо для прикладу, що мережеві адаптери мають наступні IP-адреси:
    номер вузла Ім'я мережевого підключення IP-адреса мережевого адаптера
    1 Підключення до публічної мережі 172.16.12.12
    1 Підключення до приватної мережі кластера 10.1.1.1
    2 Підключення до публічної мережі 172.16.12.14
    2 Підключення до приватної мережі кластера 10.1.1.2

    У цьому прикладі Вам потрібно виконати команди ping 172.16.12.14і ping 10.1.1.2з вузла 1, і виконати команди ping 172.16.12.12і ping 10.1.1.1 з вузла 2.

    Щоб перевірити дозвіл імен, виконайте команду ping, Використовуючи як аргумент ім'я комп'ютера замість його IP-адреси. Наприклад, щоб перевірити дозвіл імені для першого вузла кластера з ім'ям hq-res-dc01, виконайте команду ping hq-res-dc01з будь-якого комп'ютера клієнта.

    Перевірка приналежності до домену

    Всі вузли кластера повинні бути членами одного домену і мати можливості мережевої взаємодії з контролером домену та DNS-сервером. Вузли можуть бути налаштовані як рядові сервера домена або як контролери одного і того ж домена. Якщо Ви вирішите зробити один з вузлів контролером домену, то всі інші вузли кластера також повинні бути налаштовані як контролери цього ж домена. У цьому керівництві передбачається, що всі вузли є контролерами домена.

    Примітка:Для отримання посилань на додаткову документацію по налаштуванню доменів, служб DNS і DHCP в Windows 2000 дивіться розділ Інші ресурсив кінці цього документа.

    1. Клацніть правою кнопкою миші Мій комп'ютері виберіть команду властивості.
    2. Виберіть вкладку мережева ідентифікація. У діалоговому вікні властивості системиВи побачите повне ім'я комп'ютера і домену. У нашому прикладі домен називається reskit.com.
    3. Якщо Ви сконфигурировали вузол в якості рядового сервера, то на цьому етапі Ви можете приєднати його до домену. Натисніть кнопку властивостіі дотримуйтесь інструкцій для приєднання комп'ютера до домену.
    4. закрийте вікна властивості системиі Мій комп'ютер.

    Створення облікового запису служби кластерів

    Для служби кластерів необхідно створити окрему доменну обліковий запис, від імені якої вона буде запускатися. Програма установки зажадає введення облікових даних для служби кластерів, тому обліковий запис повинен бути створена до початку установки служби. Обліковий запис не повинна належати якомусь користувачеві домену, і повинна використовуватися виключно для роботи служби кластерів.

    1. Натисніть кнопку Пуск, Виберіть команду Програми / Адміністрування, Запустіть оснащення.
    2. розгорніть категорію reskit.com, Якщо вона ще не розгорнута
    3. У списку виберіть Users.
    4. Клацніть правою кнопкою миші на Users, Виберіть у контекстному меню створити, Оберіть Користувач.
    5. Введіть ім'я для облікового запису служби кластера, як показано на рисунку 5, і натисніть кнопку Далі.

    Малюнок 5: Додавання користувача Cluster

    1. встановіть прапорці Заборонити зміну пароля користувачемі Термін дії пароля не обмежений. Натисніть кнопку даліі кнопку Готово, Щоб створити користувача.

    Примітка:Якщо Ваша адміністративна політика безпеки не дозволяє використовувати паролі з необмеженим терміном дії, Ви повинні будете оновити пароль і зробити конфігурацію служби кластерів на кожному вузлі до закінчення терміну його дії.

    1. Клацніть правою клавішею миші на користувача Clusterв правій панелі оснащення Active Directory - користувачі і комп'ютери.
    2. У контекстному меню виберіть команду Додати учасників до групи.
    3. Виберіть групу адміністраториі натисніть OK. Тепер новий обліковий запис має привілеї адміністратора на локальному комп'ютері.
    4. закрийте оснащення Active Directory - користувачі і комп'ютери.

    Налаштування дисків загального пристрою, що запам'ятовує

    попередження:Переконайтеся, що, по крайней мере, на одному з вузлів кластера встановлена ​​операційна система Windows 2000 Advanced Server або Windows 2000 Datacenter Server, а також налаштована і працює служба кластерів. Тільки після цього можна завантажувати операційну систему Windows 2000 на інших вузлах. Якщо ці умови не будуть виконані, диски кластера можуть бути пошкоджені.

    Щоб приступити до налаштування дисків загального пристрою, що запам'ятовує, вимкніть усі вузли. Після цього включіть загальне пристрій, після чого увімкніть вузол 1.

    Диск кворуму

    Диск кворуму використовується для зберігання контрольних точок і файлів журналу відновлення бази даних кластера, забезпечуючи управління кластером. Ми даємо такі рекомендації для створення диска кворуму:

    • Створіть невеликий розділ (розміром як мінімум 50 Мб), щоб використовувати його в якості диска кворуму. Зазвичай ми рекомендуємо створювати диск кворуму розміром в 500 Мб.
    • Виділіть окремий диск для ресурсу кворуму. Оскільки в разі виходу з ладу диска кворуму відбудеться збій роботи всього кластера, ми настійно рекомендуємо використовувати апаратний дисковий RAID-масив.

    В процесі установки служби кластерів Ви будете повинні призначити букву диска кворуму. У нашому прикладі ми будемо використовувати букву Q.

    Конфігурація дисків загального пристрою, що запам'ятовує

    1. Клацніть правою кнопкою миші Мій комп'ютер, Виберіть команду управління. У вікні, розкрийте категорію пристрої, що запам'ятовують.
    2. Виберіть команду управління дисками.
    3. Переконайтеся, що всі диски загального пристрою, що запам'ятовує відформатовані в системі NTFS і мають статус Основний. Якщо Ви підключите новий диск, автоматично запуститься Майстер підписування і поновлення дисків. Коли майстер запуститься, натисніть кнопку оновити,щоб продовжити його роботу, після цього диск буде визначено як динамічний. Щоб перетворити диск в базовий, клацніть правою кнопкою миші на Диск #(де # - номер диска, з яким Ви працюєте) і виберіть команду Повернути до базового диска.

    Клацніть правою кнопкою миші область нерозподіленийпоруч з відповідним диском.

    1. Виберіть команду створити розділ
    2. запускається Майстер створення розділу. Двічі натисніть кнопку далі.
    3. Введіть бажаний розмір розділу в мегабайтах і натисніть кнопку далі.
    4. Натисніть кнопку далі, Прийнявши запропоновану за замовчуванням букву диска
    5. Натисніть кнопку далідля форматування і створення розділу.

    Призначення букв дискам

    Після того, як шина даних, диски і розділи загального пристрою, що запам'ятовує сконфігуровані, необхідно призначити літери диска для всіх розділів всіх дисків кластера.

    Примітка:Точки підключення - це функціональна можливість файлової системи, яка дозволяє Вам встановлювати файлову систему, використовуючи існуючі каталоги, без призначення букви диска. Точки підключення не підтримуються кластерами. Будь-який зовнішній диск, який використовується в якості ресурсу кластера, повинен бути розбитий на NTFS розділи, і цими розділами повинні бути призначені букви диска.

    1. Клацніть правою кнопкою миші необхідний розділ і виберіть команду Зміна літери диска і шляхи диска.
    2. Виберіть нову букву диска.
    3. Повторіть кроки 1 і 2 для всіх дисків загального пристрою, що запам'ятовує.

    Малюнок 6: Розділи дисків з призначеними буквами

    1. Після закінчення процедури вікно оснащення управління комп'ютероммає виглядати, як зображено на рисунку 6. Закрийте оснащення управління комп'ютером.
    1. Натисніть кнопку Пуск, Оберіть програми / стандартні, І запустіть програму « блокнот ».
    2. Наберіть кілька слів і збережіть файл під ім'ям test.txt, Вибравши команду Зберегти якз меню файл. закрийте блокнот.
    3. Клацніть двічі на значку Мої документи.
    4. Клацніть правою кнопкою миші на файлі test.txtі в контекстному меню виберіть команду копіювати.
    5. Закрийте вікно.
    6. Відкрийте Мій комп'ютер.
    7. Клацніть двічі на розділі диска загального пристрою, що запам'ятовує.
    8. Клацніть правою кнопкою миші і виберіть команду вставити.
    9. На диску загального пристрою, що запам'ятовує повинна з'явитися копія файлу test.txt.
    10. Клацніть двічі на файлі test.txt, Щоб відкрити його з диска загального пристрою, що запам'ятовує. Закрийте файл.
    11. Виділіть файл і натисніть клавішу Del, Щоб видалити файл з диска кластера.

    Повторіть процедуру для всіх дисків кластера, щоб переконатися, що вони доступні з першого вузла.

    Тепер вимкніть перший вузол, включите другий вузол і повторіть кроки розділу Перевірка роботи і загального доступу до дисків. Виконайте ці ж кроки на всіх додаткових вузлах. Після того, як Ви переконаєтеся, що всі вузли можуть зчитувати і записувати інформацію на диски загального пристрою, що запам'ятовує, вимкніть усі вузли, крім першого, і переходите до наступного розділу.

    тБВПФБФШ ПРО ПДОПК НБИЙОЕ ХЦЕ ОЕ НПДОП
    ЙМЙ Демба ЛМБУФЕТ Ч ДПНБИОЙІ ХУМПЧЙСІ.

    1. чЧЕДЕОЙЕ

    нОПЗЙЕ Й'ЧБУ ЙНЕАФ Ч МПЛБМШОПК УЕФЙ ОЕУЛПМШЛП Linux НБИЙО, У РТБЛФЙЮЕУЛЙ ЧУЕЗДБ УЧПВПДОЩН РТПГЕУУПТПН. фБЛЦЕ НОПЗЙЕ УМЩИБМЙ П УЙУФЕНБІ, Ч ЛПФПТЩІ НБИЙОЩ ПВЯЕДЕОСАФУС Ч ПДЙО УХРЕТЛПНРШАФЕТ. оП ТЕБМШОП НБМП ОФП РТПВПЧБМ РТПЧПДЙФШ ФБЛЙЕ ЬЛУРЕТЙНЕОФЩ Х УЕВС ПРО ТБВПФЕ ЙМЙ ДПНБ. дБЧБКФЕ РПРТПВХЕН ЧНЕУФЕ УПВТБФШ ОЕВПМШИПК ЛМБУФЕТ. рПУФТПЙЧ ЛМБУФЕТ ЧЩ УНПЦЕФЕ ТЕБМШОП ХУЛПТЙФШ ЧЩРПМОЕОЙЕ ЮБУФЙ'БДБЮ. оБРТЙНЕТ ЛПНРЙМСГЙА ЙМЙ ПДОПЧТЕНЕООХА ТБВПФХ ОЕУЛПМШЛЙІ ТЕУХТУПЕНЛЙІ РТПГЕУУПЧ. ч ЬФПК УФБФШЕ З РПУФБТБАУШ ТБУУЛБ'БФШ ЧБН ЛБЛ НПЦОП ВЕ' ПУПВЩІ ХУЙМЙК ПВЯЕДЕОЙФШ НБИЙОЩ УЧПЕК МПЛБМШОПК УЕФЙ Ч ЕДЙОЩК ЛМБУФЕТ ПРО ВБ'Е MOSIX.

    2. ЛБЛ, ЮФП Й Зде.

    MOSIX - ЬФП РБФЮ ДМС СДТБ Linux У ЛПНРМЕЛФПН ХФЙМЙФ, ЛПФПТЩК РП'ЧПМСЕФ РТПГЕУУБН У ЧБИЕК НБИЙОЩ РЕТЕІПДЙФШ (НЙЗТЙТПЧБФШ) ПРО ДТХЗЙЕ Х'МЩ МПЛБМШОПК УЕФЙ. ч'СФШ ЄЗП НПЦОП РП БДТЕУХ HTTP://www.mosix.cs.huji.ac.il Б ТБУРТПУФТБОСЕФУС ПО Ч ЙУІПДОЩІ ЛПДБІ РПД МЙГЕО'ЙЕК GPL. рБФЮЙ УХЕЕУФЧХАФ ДМС ЧУЕІ СДЕТ Й'УФБВЙМШОПК ЧЕФЛЙ Linux.

    3. хУФБОПЧЛБ РТПЗТБННОПЗП ПВЕУРЕЮЕОЙС.

    ч ОБЮБМЕ ХУФБОПЧЛЙ ІПЮХ РПТЕЛПНЕОДПЧБФШ ЧБН'БВЙТБФШ У Х'МБ MOSIX ОЕ ФПМШЛП ЄЗП, ОП Й УПРХФУФЧХАЕЙЕ ХФЙМЙФЩ - mproc, mexec Й ДТ.
    ч БТІЙЧЕ MOSIX ЕУФШ ХУФБОПЧПЮОЩК ​​УЛТЙРФ mosix_install. е'БВХДШФЕ Ч ПВС'БФЕМШОПН РПТСДЛЕ ТБУРБЛПЧБФШ ЙУІПДОЩЕ ЛПДЩ СДТБ Ч /usr/src/linux-*.*.*, ОБРТЙНЕТ ЛБЛ УДЕМБМ С - Ч /usr/src/linux-2.2.13 ДБМЕЕ'БРХУЛБЕФЕ mosix_install Й ПФЧЕЮБЕФЕ ПРО Чує ЄЗП ЧПРТПУЩ, ХЛБ'БЧ ЕНХ УЧПК НЕОЕДЦЕТ'БЗТХ'ЛЙ (LILO), РХФШ Л ЙУІПДОЙЛБН СДТБ Й ХТПЧОЙ'БРХУЛБ.
    рТЙ ОБУФТПКЛЕ СДТБ ЧЛМАЮЙФЕ ПРГЙЙ CONFIG_MOSIX, CONFIG_BINFMT_ELF Й CONFIG_PROC_FS. Чує ЬФЙ ПРГЙЙ РПДТПВОП ПРЙУБОЩ Ч ТХЛПЧПДУФЧЕ РП ХУФБОПЧЛЕ MOSIX.
    хУФБОПЧЙМЙ? Ох ЮФП ЦЕ - РЕТЕЗТХЦБКФЕ ЧБИ Linux У ОПЧЩН СДТПН, ОБ'ЧБОЙЕ ЛПФПТПЗП ПЮЕОШ ВХДЕФ РПІПЦЕ ПРО mosix-2.2.13.

    4. оБУФТПКЛБ

    й'ОБЮБМШОП ХУФБОПЧМЕООЩК MOSIX УПЧЕТИЕООП ОЕ'ОБЕФ, ЛБЛЙЕ Х ЧБУ НБИЙОЩ Ч УЕФЙ Й У ЛЕН ЕНХ УПЕДЕОСФУС. Ох Б ОБУФТБЙЧБЕФУС ЬФП ПЮЕОШ РТПУФП. еУМЙ ​​ЧЩ ФПМШЛП РПУФБЧЙМЙ mosix Й ЕУМЙ ЧБИ ДЙУФТЙВХФЙЧ - SuSE ЙМЙ RedHat - УПЧНЕУФЙНЩК, ФП'БІПДЙФЕ Ч ЛБФБМПЗ /etc/rc.d/init.d Й ДБЧБКФЕ ЛПНБОДХ mosix start. рТЙ РЕТЧПН'БРХУЛЕ ЬФПФ УЛТЙРФ РТПУЙФ ЧБУ ОБУФТПЙФШ MOSIX Й'БРХУЛБЕФ ФЕЛУФПЧЩК ТЕДБЛФПТ ДМС УП'ДБОЙС ЖБКМБ /etc/mosix.map, Ч ЛПФПТПН ОБІПДЙФУС УРЙУПЛ Х'МПЧ ЧБИЕЗП ЛМБУФЕТБ. фХДБ РТПРЙУЩЧБЕН: Ч УМХЮБЕ, ЕУМЙ Х ЧБУ ЧУЕЗП ДЧЕ-ФТЙ НБИЙОЩ Й Йі IP-БДТЕУБ УМЕДХАФ
    ДТХЗ'Б ДТХЗПН РП ОПНЕТБГЙЙ РЙИЕН ФБЛ:



    1 10.152.1.1 5

    зде РЕТЧЩК РБТБНЕФТ ПВП'ОБЮБЕФ ОПНЕТ ОБЮБМШОПЗП Х'МБ, ЧФПТПК - IP БДТЕУ РЕТЧПЗП Х'МБ Й РПУМЕДОЙК - ЛПМЙЮЕУФЧП Х'МПЧ У ФЕЛХЕЕЗП. Ф.Е. УЕКЮБУ Х ОБУ Ч ЛМБУФЕТЕ ПМХЮБЕФУС РСФШ Х'МПЧ, IP БДТЕУБ ЛПФПТЩК'БЛБОЮЙЧБАФУС ПРО 1, 2, 3, 4 Й 5.
    йМЙ ДТХЗПК РТЙНЕТ:

    оПНЕТ Х'МБ IP ЛПМЙЮЕУФЧП Х'МПЧ У ФЕЛХЕЕЗП
    ______________________________________
    1 10.152.1.1 1
    2 10.150.1.55 2
    4 10.150.1.223 1

    ч ЬФПК ЛПОЖЙЗХТБГЙЙ НЩ РПМХЮЙН УМЕДХАЕЙК ТБУЛМБД:
    IP 1-ПЗП Х'МБ 10.150.1.1
    IP 2-ПЗП Х'МБ 10.150.1.55
    IP 3-ПЗП Х'МБ 10.150.1.56
    IP 4-ПЗП Х'МБ 10.150.1.223
    фЕРЕТШ ОХЦОП ПРО ЧУЕІ НБИЙОБІ ВХДХЕЕЗП ЛМБУФЕТБ ХУФБОПЧЙФШ MOSIX Й УП'ДБФШ ЧЕ'ДЕ ПДЙОБЛПЧЩК ЛПОЖЙЗХТБГЙПООЩК ЖБКМ /etc/mosix.map.

    фЕРЕТШ РПУМЕ РЕТЕ'БРХУЛБ mosix ЧБИБ НБИЙОБ ХЦЕ ВХДЕФ ТБВПФБФШ Ч ЛМБУФЕТЕ, ЮФП НПЦОП ХЧЙДЕФШ'БРХУФЙЧ НПОЙФПТ ЛПНБОДПК mon. ч УМХЮБЕ, ЕУМЙ ЧЩ ХЧЙДЙФЕ Ч НПОЙФПТЕ ФПМШЛП УЧПА НБИЙОХ ЙМЙ ЧППВЕЕ ОЕ ХЧЙДЙФЕ ОЙЛПЗП, ФП, ЛБЛ ЗПЧПТЙФУС - ОБДП ТЩФШ. уЛПТЕЕ ЧУЕЗП Х ЧБУ ПИЙВЛБ ЙНЕООП Ч /etc/mosix.map.
    Ох ППФ, ХЧЙДЙМЙ, ОП ОЕ РПВЕДЙМЙ. ЮФП ДБМШИЕ? б ДБМШИЕ ПЮЕОШ РТПУФП :-) - ОХЦОП УПВТБФШ ХФЙМЙФЩ ДМС ТБВПФЩ У Й'НЕОЕООЩН / proc Й'РБЛЕФБ mproc. ч ЮБУФОПУФЙ Ч ЬФПН РБЛЕФЕ ЙДЕФ ОЕРМПІБС НПДЙЖЙЛБГЙС top - mtop, Ч ЛПФПТЩК ДПВБЧЙМЙ ЧП'НПЦОПУФШ ПФПВТБЦЕОЙС Х'МБ (node), УПТФЙТПЧЛЙ РП Х'МБН, РЕТЕОПУБ РТПГЕУУБ У ФЕЛХЕЕЗП Х'МБ ПРО ДТХЗПК Й ХУФБОПЧМЕОЙС НЙОЙНБМШОПК'БЗТХ'ЛЙ РТПГЕУУПТБ Х'МБ, РПУМЕ ЛПФПТПК РТПГЕУУЩ ОБЮЙОБАФ НЙЗТЙТПЧБФШ ПРО ДТХЗЙЕ MOSIX - Х'МЩ .
    'БРХУЛБЕН mtop, ЧЩВЙТБЕН РПОТБЧЙЧИЙКУС ОЕ УРСЕЙК РТПГЕУУ (ТЕЛПНЕОДХА'БРХУФЙФШ bzip) Й УНЕМП ДБЧЙН ЛМБЧЙИХ "g" ПРО ЧБИЕК ЛМБЧЙБФХТЕ, РПУМЕ ЮЕЗП ЧЧПДЙН ПРО'БРТПУ PID ЧЩВТБООПЗП Ч ЛБЮЕУФЧЕ ЦЕТФЧЩ РТПГЕУУБ Й'БФЕН - ОПНЕТ Х'МБ, ЛХДБ НЩ ІПФЙН ЄЗП ПФРТБЧЙФШ. б ХЦЕ РПУМЕ ЬФПЗП ЧОЙНБФЕМШОП РПУНПФТЙФЕ ПРО ТЕ'ХМШФБФЩ, ПФПВТБЦБЕНЩЕ ЛПНБОДПК mon - ФБ НБИЙОБ ДПМЦОБ ОБЮБФШ ВТБФШ ПРО УЕВС ОБЗТХ'ЛХ ЧЩВТБООПЗП РТПГЕУУБ.
    б УПВУФЧЕООП mtop - Ч РПМЕ #N ПФПВТБЦБФШ ОПНЕТ Х'МБ, зде ПО ЧЩРПМОСЕФУС.
    оП ЬФП ЕЕЕ ОЕ Чує - ЧЕДШ ЧБН РТБЧДБ ОЕ ІПЮЕФУС ПФРТБЧМСФШ ПРО ДТХЗЙЕ Х'МЩ РТПГЕУУЩ ЧТХЮОХА? ве ОЕ'БІПФЕМПУШ. х MOSIX ЕУФШ ОЕРМПІБС ЧУФТПЕООБС ВБМБОУЙТПЧЛБ ЧОХФТЙ ЛМБУФЕТБ, ЛПФПТБС РП'ЧПМСЕФ ВПМЄ-НЕОЕЕ ТБЧОПНЕТОП ТБУРТЕДЕМСФШ ОБЗТХ'ЛХ ПРО Чує Х'МЩ. Ох Б ППФ'ДЕУШ ОБН РТЙДЕФУС РПФТХДЙФУС. ДМС ОБЮБМБ З ТБУУЛБЦХ, ЛБЛ УДЕМБФШ ФПОЛХА ОБУФТПКЛХ (tune) ДМС ДЧХІ Х'МПЧ ЛМБУФЕТБ? Ч РТПГЕУУЕ ЛПФПТПК MOSIX РПМХЮБЕФ ЙОЖПТНБГЙА П УЛПТПУФСІ РТПГЕУУПТПЧ Й УЕФЙ:
    'БРПНОЙФЕ ТБ' Й ОБЧУЕЗДБ - tune НПЦОП ЧЩРПМОСФШ ФПМШЛП Ч single-mode. йОБЮЕ ЧЩ МЙВП РПМХЮЙФЕ ОЕ УПЧУЕН ЛПТТЕЛФОЩК ТЕ'ХМШФБФ, МЙВП ЧБИБ НБИЙОБ НПЦЕФ РТПУФП'БЧЙУОХФШ.
    йФБЛ, ЧЩРПМОСЕН tune. рПУМЕ РЕТЕЧПДБ ПРЕТБГЙПООПК УЙУФЕНЩ Ч single - mode ОБРТЙНЕТ ЛПНБОДПК init 1 ЙМЙ init S'БРХУЛБЕН УЛТЙРФ prep_tune, ЛПФПТЩК РПДОЙНЕФ cЕФЕЧЩЕ
    ЙОФЕТЖЕКУЩ Й'БРХУФЙФ MOSIX. рПУМЕ ЬФПЗП ПРО ПДОПК Й'НБИЙО'БРХУЛБЕН tune, ЧЧПДЙН ЕНХ ОПНЕТ ДТХЗПЗП Х'МБ ДМС ОБУФТПКЛЙ Й ЦДЕН ТЕ'ХМШФБФБ - ХФЙМЙФБ ДПМЦОБ ЧЩДБФШ'БРТПУ ПРО ЧЧПД ИЕУФЙ ЮЙУЕМ, РПМХЮЕООЩІ ПФ ЧЩРПМОЕОЙС ЛПНБОДЩ tune -a<ХЪЕМ>ПРО ДТХЗПН Х'МЕ. уПВУФЧЕООП ПРЕТБГЙА РТЙДЕФУС РПЧФПТЙФШ ПРО ДТХЗПН Х'МЕ ЛПНБОДПК tune -a<ХЪЕМ>, Б ТЕ'ХМШФБФ Й'ИЕУФЙ ЮЙУЕМ ЧЧЕУФЙ ПРО РЕТЧЩК Х'ЕМ. рПУМЕ РПДПВОПЗП ФАОЙОЗБ Ч ЧБИЕК УЙУФЕНЕ ДПМЦЕО РПСЧЙФУС ЖБКМ / etc / overheads, УПДЕТЦБЕЙК ЙОЖПТНБГЙА ДМС MOSIX Ч ЧЙДЕ ОЕЛЙІ ЮЙУМПЧЩІ ДБООЩІ. ч УМХЮБЕ, ЕУМЙ РП ЛБЛЙН-ФП РТЙЮЙОБН tune ОЕ УНПЗ УДЕМБФШ ЄЗП, РТПУФП УЛПРЙТХКФЕ Й'ФЕЛХЕЕЗП ЛБФБМПЗБ ЖБКМ mosix.cost Ч / etc / overheads. ьФП РПНПЦЕФ ;-).
    рТЙ ФАОЙОЗЕ ЛМБУФЕТБ Й'ВПМЄ Юен ДЧХІ НБИЙО ОХЦОП ЙУРПМШ'ПЧБФШ ХФЙМЙФХ, ЛПФПТБС ФБЛЦЕ РПУФБЧМСЕФУС У MOSIX - tune_kernel. дБООБС ХФЙМЙФБ РП'ЧПМСЕФ
    ЧБН Ч ВПМЄ РТПУФПН Й РТЙЧЩЮОПН ЧЙДЕ ОБУФТПЙФШ ЛМБУФЕТ, ПФЧЕФЙЧ ПРО ОЕУЛПМШЛП ЧПРТПУПЧ Й РТПЧЕДС ФАОЙОЗ У ДЧХНС НБИЙОБНЙ ЛМБУФЕТБ.
    лУФБФЙ, РП УПВУФЧЕООПНХ ПРЩФХ НПЗХ УЛБ'БФШ, ЮФП РТЙ ОБУФТПКЛЕ ЛМБУФЕТБ З ТЕЛПНЕОДХА ЧБН ОЕ'БЗТХЦБФШ УЕФШ, Б ОБПВПТПФ - РТЙПУФБОПЧЙФШ Чує БЛФЙЧОЩЕ ПРЕТБГЙЙ Ч МПЛБМШОПК УЕФЙ.

    5. хРТБЧМЕОЙЕ ЛМБУФЕТПН

    ДМС ХРТБЧМЕОЙС Х'МПН ЛМБУФЕТБ УХЕЕУФЧХЕФ ОЕВПМШИПК ОБВПТ ЛПНБОД, УТЕДЙ ЛПФПТЩІ:

    mosctl - ЛПОФТПМШ ОБД Х'МПН. рП'ЧПМСЕФ Й'НЕОСФШ РБТБНЕФТЩ Х'МБ - ФБЛЙЕ, ЛБЛ block, stay, lstay, delay Й Ф.Д
    дБЧБКФЕ ТБУУНПФТЙН ОЕУЛПМШЛП РБТБНЕФТПЧ ЬФПК ХФЙМЙФЩ:
    stay - РП'ЧПМСЕФ ПУФБОБЧМЙЧБФШ НЙЗТБГЙА РТПГЕУУПЧ ПРО ДТХЗЙЕ Х'МЩ У ФЕЛХЕЕК НБИЙОЩ. пФНЕОСЕФУС РБТБНЕФТПН nostay ЙМЙ -stay
    lstay -'БРТЕЕБЕФ ФПМШЛП МПЛБМШОЩН РТПГЕУУБН НЙЗТБГЙА, Б РТПГЕУУЩ У ДТХЗЙІ НБИЙО НПЗХФ РТПДПМЦБФШ ЬФП ДЕМБФШ. пФНЕОСЕФУС РБТБНЕФТПН nolstay ЙМЙ -lstay.
    block -'БРТЕЕБЕФ ХДБМЕООЩН / ЗПУФЕЧЩН РТПГЕУУБН ЧЩРПМОСФУС ПРО ЬФПН Х'МЕ. пФНЕОСЕФУС РБТБНЕФТПН noblock ЙМЙ -block.
    bring - ЧП'ЧТБЕБЕФ ПВТБФОП Чує РТПГЕУУЩ У ФЕЛХЕЕЗП Х'МБ ЧЩРПМОСЕНЩЕ ПРО ДТХЗЙІ НБИЙОБІ ЛМБУФЕТБ. ьФПФ РБТБНЕФТ НПЦЕФ ОЕ УТБВБФЩЧБФШ, РПЛБ НЙЗТЙТПЧБЧИЙК РТПГЕУУ ОЕ РПМХЮЙФ РТЕТЩЧБОЙЕ ПФ УЙУФЕНЩ.
    setdelay ХУФБОБЧМЙЧБЕФ ЧТЕНС, РПУМЕ ЛПФПТПЗП РТПГЕУУ ОБЮЙОБЕФ НЙЗТЙТПЧБФШ.
    чЕДШ УПЗМБУЙФЕУШ - Ч УМХЮБЕ, ЕУМЙ ЧТЕНС ЧЩРПМОЕОЙС РТПГЕУУБ Неошо УЕЛХОДЩ УНЩУМ РЕТЕОПУЙФШ ЄЗП ПРО ДТХЗЙЕ НБИЙОЩ УЕФЙ ЙУЮЕ'БЕФ. йНЕООП ЬФП ЧТЕНС Й ЧЩУФБЧМСЕФУС ХФЙМЙФПК mosctl У РБТБНЕФТПН setdecay. рТЙНЕТ:
    mosctl setdecay 1 500 200
    ХУФБОБЧМЙЧБЕФ ЧТЕНС РЕТЕІПДБ ПРО ДТХЗЙЕ Х'МЩ 500 НЙММЙУЕЛХОД Ч УМХЮБЕ, ЕУМЙ РТПГЕУУ'БРХЕЕО ЛБЛ slow Й 200 НЙМЙУЕЛХОД ДМС fast РТПГЕУУПЧ. пВТБФЙФЕ ЧОЙНБОЙЕ, ЮФП РБТБНЕФТ slow ЧУЕЗДБ ДПМЦЕО ВЩФШ ВПМШИЕ ЙМЙ ТБЧЕО РБТБНЕФТХ fast.

    mosrun -'БРХУЛБЕФ РТЙМПЦЕОЙЕ Ч ЛМБУФЕТЕ. ОБРТЙНЕТ mosrun -e -j5 make'БРХУФЙФ make ПРО 5-ПН Х'МЕ ЛМБУФЕТБ, РТЙ ЬФПН Чує ЄЗП ДПЮЕТОЙЕ РТПГЕУУЩ ВХДХФ ФБЛЦЕ ЧЩРПМОСФУС ПРО 5-ПН Х'МЕ. рТБЧДБ'ДЕУШ ЕУФШ ПДЙО ОАБОУ, РТЙ Юен ДПЧПМШОП УХЕЕУФЧЕООЩК:
    Ч УМХЮБЕ, ЕУМЙ ДПЮЕТОЙЕ РТПГЕУУЩ ЧЩРПМОСАФУС ВЩУФТЕЕ Юен ХУФБОПЧМЕООБС ХФЙМЙФПК mosctl'БДЕТЦЛБ (delay) ФП РТПГЕУУ ОЕ ВХДЕФ НЙЗТЙТПЧБФШ ПРО ДТХЗЙЕ Х'МЩ ЛМБУФЕТБ. Х mosrun ЕЕЕ ДПЧПМШОП НОПЗП ТБ'МЙЮОЩІ ЙОФЕТЕУОЩІ РБТБНЕФТПЧ, ОП РПДТПВОП Х'ОБФШ
    П ОЙІ ЧЩ УНПЦЕФЕ Й'ТХЛПЧПДУФЧБ РП ЬФПК ХФЙМЙФЕ. (Man mosrun)

    mon - ЛБЛ НЩ ХЦЕ'ОБЕН, ЬФП НПОЙФПТ ЛМБУФЕТБ, ЛПФПТЩК Ч РУЕЧДПЗТБЖЙЮЕУЛПН ЧЙДЕ ПФПВТБЦБЕФ'БЗТХ'ЛХ ЛБЦДПЗП ТБВПЮЕЗП Х'МБ ЧБИЕЗП ЛМБУФЕТБ, ЛПМЙЮЕУФЧП УЧПВПДОПК Й'БОСФПК РБНСФЙ Х'МПЧ Й ЧЩДБЕФ НОПЗП ДТХЗПК, ОЕ НЕОЕЕ ЙОФЕТЕУОПК ЙОЖПТНБГЙЙ.

    mtop - НПДЙЖЙГЙТПЧБООБС ДМС ЙУРПМШ'ПЧБОЙС ПРО Х'МБІ ЛМБУФЕТБ ЧЕТУЙС ЛПНБОДЩ top. пФПВТБЦБЕФ ПРО ЬЛТБОЕ ДЙОБНЙЮЕУЛХА ЙОЖПТНБГЙА П РТПГЕУУБІ,'БРХЕЕООЩІ ПРО ДБООПН Х'МЕ, Й Х'МБІ, ЛХДБ НЙЗТЙТПЧБМЙ ЧБИЙ РТПГЕУУЩ.

    mps - ФПЦЕ НПДЙЖЙГЙТПЧБООБС ЧЕТУЙС ЛПНБОДЩ ps. дПВБЧМЕОП ЕЕЕ ПДОП РПМЕ - ОПНЕТ Х'МБ, ПРО ЛПФПТЩК НЙЗТЙТПЧБМ РТПГЕУУ.

    ППФ ПРО НПК Ч'ЗМСД Й Чує ПУОПЧОЩЕ ХФЙМЙФЩ. Про УБНПН ДЕМЕ ЛПОЕИОП НПЦОП ПВПКФЙУШ ДБЦЕ ВЕ' ОЙІ. оБРТЙНЕТ ЙУРПМШ'ХС ДМС ЛПОФТПМС ОБД ЛМБУФЕТПН / proc / mosix.
    ФБН ЛТПНЕ ФПЗП, ЮФП НПЦОП ОБКФЙ ПУОПЧОХА ЙОЖПТНБГЙА П ОБУФТПКЛБІ Х'МБ, РТПГЕУУБІ'БРХЕЕООЩІ У ДТХЗЙІ Х'МПЧ Й Ф.Д., Б ФБЛЦЕ РПНЕОСФШ ЮБУФШ РБТБНЕФТПЧ.

    6. ьЛУРЕТЕНЕОФЙТХЕН.

    л УПЦБМЕОЙА, НОЕ ОЕ ХДБМПУШ'БУФБЧЙФШ ЧЩРПМОСФУС ЛБЛПК-ФП ПДЙО РТПГЕУУ ПДОПЧТЕНЕООП ПРО ОЕУЛПМШЛЙІ Х'МБІ. нБЛУЙНХН, ЮЕЗП З ДПУФЙЗ Ч РТПГЕУУЕ ЬЛУРЕТЙНЕОФПЧ У ЛМБУФЕТПН-ЙУРПМШ'ПЧБОЙЕ ДМС ЧЩРПМОЕОЙС ТЕУХТУПЕНЛЙІ РТПГЕУУПЧ ПРО ДТХЗПН Х'МЕ.
    дБЧБКФЕ ТБУУНПФТЙН ПДЙО Й'РТЙНЕТПЧ:
    дПРХУФЙН, ЮФП Х ОБУ Ч ЛМБУФЕТЕ ТБВПФБАФ ДЧЕ НБИЙОЩ (ДЧБ Х'МБ), ПДЙО Й'ЛПФПТЩІ У ОПНЕТПН 1 (366 Celeron), ДТХЗПК - У ОПНЕТПН 5 (PIII450). ьЛУРЕТЙНЕОФЙТПЧБФШ НЩ ВХДЕН ПРО 5-ПН Х'МЕ. 1-К Х'ЕМ Ч ЬФП ЧТЕНС РТПУФБЙЧБМ. ;-)
    йФБЛ,'БРХУЛБЕН ПРО 5-Н Х'МЕ ХФЙМЙФХ crark ДМС РПДВПТБ РБТПМС Л rar БТІЙЧХ.еУМЙ ОФП Й'ЧБУ РТПВПЧБМ ТБВПФБФШ У РПДПВОЩНЙ ХФЙМЙФБНЙ, ФП ПО ДПМЦЕО'ОБФШ, ЮФП РТПГЕУУ РПДВПТБ РБТПМС "ЛХИБЕФ" ДП 99 РТПГЕОФПЧ РТПГЕУУПТБ. Ох ЮФП ЦЕ - РПУМЕ'БРХУЛБ НЩ ОБВМАДБЕН, ЮФП РТПГЕУУ ПУФБЕФУС ПРО ЬФПН, 5-ПН Х'МЕ. тБ'ХНОП - ЧЕДШ ЙНЕООП Х ЬФПЗП Х'МБ РТПЙ'ЧПДЙФЕМШОПУФШ РТЕЧЩИБЕФ 1-К Х'ЕМ РПЮФЙ Ч ДЧБ ТБ'Б.
    дБМЕЕ НЩ РТПУФП'БРХУФЙМЙ УВПТЛХ kde 2.0. уНПФТЙН ФБВМЙГХ РТПГЕУУПЧ Й ЧЙДЙН, ЮФП crark ХУРЕИОП НЙЗТЙТПЧБМ ПРО 1-К Х'ЕМ, ПУЧПВПДЙЧ РТПГЕУУПТ Й РБНСФШ (ДБ, ДБ - РБНСФШ ФПЮОП ФБЛЦЕ ПУЧПВПЦДБЕФУС) ДМС make. б ЛБЛ ФПМШЛП make'БЛПОЮЙМ УЧПА ТБВПФХ - crark ЧЕТОХМУС ПВТБФОП, ПРО ТПДОПК ЕНХ 5-К Х'ЕМ.
    йОФЕТЕУОЩК ЬЖЖЕЛФ РПМХЮБЕФУС, ЕУМЙ crark'БРХУЛБФШ ПРО ВПМЄ НЕДМЕООПН 1-Н Х'МЕ.
    ФБН НЩ ОБВМАДБЕН РТБЛФЙЮЕУЛЙ РТПФЙЧПРПМПЦОЩК ТЕ'ХМШФБФ - РТПГЕУУ УТБ'Х-ЦЕ НЙЗТЙТХЕФ ПРО 5-К, ВПМЄ ВЩУФТЩК Х'ЕМ. рТЙ ЬФПН ПО ЧП'ЧТБЕБЕФУС ПВТБФОП, ЛПЗДБ ІП'СЙО РСФПЗП ЛПНРШАФЕТБ ОБЮЙОБЕФ ЛБЛЙЕ-ФП ДЕКУФЧЙС У УЙУФЕНПК.

    7. йУРПМШ'ПЧБОЙЕ

    дБЧБКФЕ Ч ЛПОГЕ ТБ'ВЕТЕНУС,'БЮЕН Й ЛБЛ НЩ НПЦЕН ЙУРПМШ'ПЧБФШ ЛМБУФЕТ Ч УЧПЕК РПЧУЕДОЕЧОПК ЦЙ'ОЙ.
    ДМС ОБЮБМБ ОХЦОП ТБ' Й ОБЧУЕЗДБ'БРПНОЙФШ - ЛМБУФЕТ ЧЩЗПДЕО ФПМШЛП Ч ФПН УМХЮБЕ, ЛПЗДБ Ч ЧБИЕК УЕФЙ ЕУФШ ЬООПЕ ЛПМЙЮЕУФЧП НБИЙО, ЛПФПТЩЕ ЮБУФЕОШЛП РТПУФБЙЧБАФ Й ЧЩ ІПФЙФЕ ЙУРПМШ'ПЧБФШ Йі ТЕУХТУЩ ОБРТЙНЕТ ДМС УВПТЛЙ KDE ЙМЙ ДМС МАВЩІ УЕТШЕ'ОЩІ РТПГЕУУПЧ. чЕДШ ВМБЗПДБТС ЛМБУФЕТХ Й'10 НБИЙО НПЦОП ПДОПЧТЕНЕООП
    ЛПНРЙМЙТПЧБФШ ДП 10 ФСЦЕМЩІ РТПЗТБНН ПРО ФПН-ЦЕ C ++. йМЙ РПДВЙТБФШ ЛБЛПК-ФП РБТПМШ,
    ОЕ РТЕЛТБЕБС ОЙ ПРО УЕЛХОДХ ЬФПЗП РТПГЕУУБ ОЕ'БЧЙУЙНП ПФ ОБЗТХ'ЛЙ ПРО ЧБИ ЛПНРШАФЕТ.
    дБ Й ЧППВЕЕ - ЬФП РТПУФП ЙОФЕТЕУОП ;-).

    8.'БЛМАЮЕОЙЕ

    ч'БЛМАЮЕОЙЕ ІПЮХ УЛБ'БФШ, ЮФП Ч ЬФПК УФБФШЕ ОЕ ТБУУНПФТЕОЩ Чує ЧП'НПЦОПУФЙ MOSIX, Ф.Л. З РТПУФП ДП ОЙІ ЕЕЕ ОЕ ДПВТБМУС. еУМЙ ​​ДПВЕТХУШ - ЦДЙФЕ РТПДПМЦЕОЙС. :-)
    Підтримайте проект - поділіться посиланням, спасибі!
    Читайте також
    Сбебранк (він же Ощадбанк) Сбебранк (він же Ощадбанк) Рішення проблем з ліцензією у Autocad Чи не запускається autocad windows 7 Рішення проблем з ліцензією у Autocad Чи не запускається autocad windows 7 Інструкція з використання PIN коду КріптоПро, під час підписання кількох документів - Інструкції - АТ Інструкція з використання PIN коду КріптоПро, під час підписання кількох документів - Інструкції - АТ "ПЕК-Торг"