Cum se configurează smartphone-uri și PC-uri. Portal informativ
  • Acasă
  • Fier
  • Structura clusterului serverului. Cerințe pentru unitățile de stocare partajate

Structura clusterului serverului. Cerințe pentru unitățile de stocare partajate

Este posibil să nu facă față sarcinii, să înghețe sau să nu fie oprit de dragul prevenirii. Prin urmare, pentru a asigura un nivel crescut de fiabilitate, a fost inventat un lucru atât de util precum un cluster de servere. Ei bine, deoarece acest fenomen există, atunci trebuie să ne familiarizăm cu el, ceea ce vom face.

Linia de jos

Un cluster de servere nu este doar câteva computere conectate între ele prin fire”, pereche răsucită". Acesta este, în primul rând, software-ul care gestionează tot acest hardware, distribuie cereri, sincronizează, efectuează echilibrarea încărcăturii, conectează baza de date... Cu toate acestea, este mai bine să explicăm esența fenomenului printr-un exemplu concret.

Exemplu de diagramă de cluster de servere

Să luăm ca exemplu software-ul foarte popular 1C:Enterprise 8. O schemă simplificată pentru funcționarea unui cluster de server arată cam așa.

Aplicația client (în sensul, aplicația de pe computerul utilizatorului) face o solicitare folosind protocolul TCP/IP. Această solicitare vine la serverul central din cluster, unde funcționează programul manager (Cluster Manager) și se află registrul clusterului.

Serverul central analizează din mers situația ocupată și redirecționează cererea (tot prin TCP/IP) către computerul din cluster, care în acel moment are capacitatea de a procesa cererea utilizatorului cel mai rapid și eficient. După aceea, un anumit proces de lucru pe o anumită mașină este luat pentru a deservi cererea.

Fluxul de lucru începe să interacționeze direct cu aplicația client. În plus, se conectează la un server separat cu o bază de date, care stă modest pe margine, dar în același timp deservește întregul cluster. Adică, după funcționarea cu succes a schemei, se obține un lanț cu trafic bidirecțional între componente: aplicația client - procesul de lucru din cluster - serverul bazei de date.

După cum puteți vedea, serverul central al clusterului și programul său de manager nu mai participă, și-au făcut treaba.

Microsoft

Pentru a organiza un cluster de servere bazat pe software de la Microsoft Corporation, este necesar sistemul de operare „Microsoft® Windows Server™ 2008”, în plus, „Enterprise Edition” sau „Datacenter Edition”. Există software-ul „Windows Server Failover Clustering”. (Anterior, în versiunea OS pentru 2003, produsul software se numea „Microsoft Cluster Server”, pe scurt MSCS.)

De versiuni Microsoft, un cluster este format din mai multe noduri (adică computere) cu un total de până la șaisprezece bucăți (în versiunea din 2003 - până la opt), combinate într-un singur sistem. Un nod a căzut în stupoare de la sine sau a fost oprit pentru întreținere- funcţiile sale sunt imediat transferate altuia.

Un cluster în Windows Server este creat utilizând GUI Cluster Control Panel. O duzină de casete de dialog - și ați terminat.

Oracol

Compania Oracle pentru crearea de clustere produce un produs „WebLogic”. Există versiuni atât pentru Windows, cât și pentru GNU/Linux.

Nu au reinventat roata: Admin Server, la care sunt conectate nodurile (Managed Servers), gestionează munca și echilibrarea sarcinii. Totul este combinat într-un singur domeniu.

Mai mult, cu ajutorul „WebLogic” este posibil să grupați nici măcar unul, ci mai multe clustere într-un domeniu. În plus, sunt disponibile următoarele: 1) replicarea sesiunilor utilizator în serverele cluster; 2) echilibrarea sarcinii (folosind componenta HttpClusterServlet).

Configurarea este mai complicată, există o mulțime de casete de dialog. Dar, pe de altă parte, puteți fie să creați singur un cluster de la zero, fie să utilizați un șablon gata făcut.

În plus, există un produs „Oracle Real Application Clusters” (abreviat ca „Oracle RAC”) pentru lucru sincronizat „ Baza de date Oracle” pe mai multe noduri, care este și un cluster în esență.

Concluzie

Mulțumită software inteligent clusterul arată „din lateral”, din punctul de vedere al clientului, ca un singur computer către care se face cererea. Aceasta este diferența dintre un cluster și sistemele Grid de calcul distribuit, unde computerele nu sunt neapărat combinate într-un domeniu, ele pot fi foarte la distanță.

Un cluster de servere este foarte potrivit și util pentru sistemele supuse unor sarcini de lucru serioase. Și dacă întreprinderea se extinde, clienții se înmulțesc și încet încep să mormăie din cauza încetinirii serviciului, atunci este logic să ne gândim la introducerea tehnologiei de mai sus.

Publicații anterioare:

Potrivit analiștilor Standish Group International, numărul de sisteme cluster instalate în lume va crește cu 160% în următorii doi ani. Presupusul ritm rapid de dezvoltare a acestei tehnologii încă exotice sugerează că clusterele și-au găsit în sfârșit o piață de masă. În multe privințe, acest merit poate fi atribuit internetului, care astăzi impune cele mai stricte cerințe pe platforma de calcul hardware.

S-a întâmplat ca clustering-ul, fiind parte integrantă a sistemelor mainframe, pentru o perioadă foarte lungă de timp a căutat calea spre Platforma Intel. Servere corporative, conceput inițial pentru a rula singur, precum și principalele sisteme de operare pentru server centrate pe Intel Windows NT și Linux, nu au fost adaptate pentru a suporta munca în comun servere. Între timp, fiabilitatea mașinilor autonome de astăzi nu este suficientă pentru a susține aplicații precum sistemele de procesare a tranzacțiilor online, comerțul electronic, sistemele de gestionare a bazelor de date, depozitele de date și sistemele de flux de lucru.

Orez. 1. Cluster standard cu două noduri

Provocarea implementării unor sisteme de stocare extrem de fiabile și procesare online a datelor se confruntă de către o organizație atunci când atinge un nivel de funcționare care necesită servicii neîntrerupte pentru mulți clienți, adesea non-stop și pe tot parcursul anului.

Cele mai comune produse în acest caz nu mai asigură nici siguranța datelor, nici prelucrarea lor la timp. Costul relativ scăzut se transformă în cel mai înalt nivel de toleranță la erori - nu mai mult de 99%. Asta înseamnă că aproximativ patru zile pe an structura informatiei afacerile vor fi inoperabile. La prima vedere, acest lucru nu este atât de mult, având în vedere că aceasta include timpul de nefuncționare planificat asociat cu munca preventiva sau reconfigurare. Dar unui client, cum ar fi un utilizator al unui sistem de plată cu card de credit, nu îi pasă din ce motiv va fi lipsit de serviciu. Va ramane nemultumit si va cauta alt operator.

Dragă foarte de încredere sisteme de calcul- clustere - oferă o fiabilitate de 99,999%. Acest lucru este deja suficient, deoarece timpul de nefuncționare aici nu este mai mare de 5 minute pe an. Acest tip de sistem se caracterizează prin costuri crescute, deși justificate, de suport și instalare și necesită personal special instruit. Ele nu sunt disponibile de la raft și sunt oferite ca soluții personalizate.

Așadar, avantajele clusterelor includ cea mai mare fiabilitate, performanță, capacitatea de a oferi procesare și stocare centralizată a datelor, scalabilitate și flexibilitate, adică capacitatea de a redistribui rapid automat resursele de calcul în cadrul sistemului.

Dezavantajele sistemelor cluster includ complexitatea și costul relativ ridicat al implementării, necesitatea unui serviciu post-vânzare, precum și lipsa standard unic. Apropo, standardul este în curs de dezvoltare: este aprobat de toți furnizorii de top din lume de soluții de cluster, dar de fapt nu a fost încă lansat. Vom vorbi despre asta puțin mai jos.

Tipuri de configurații de cluster

Există mai multe opțiuni pentru configurarea sistemelor cluster. Variante diferiteîndeplini cerințele aplicatii diferiteși, desigur, diferă în ceea ce privește costul și complexitatea implementării. Clusterele sunt construite conform schemelor „activ-activ”, „activ-standby” și SMP (procesare simetrică-paralelă). Așa-numitele „pseudo-clustere” - sisteme de servere independente cu subsisteme de stocare partajată - și-au găsit, de asemenea, o aplicație largă. Pseudoclusterele sunt cele mai multe varianta ieftina complex informatic fiabilitate crescută, dar nu oferă cele mai multe caracteristici utile clustere.

Orez. 2. Schema de standby activ

Schema „activ-standby” este o soluție pentru o companie care are un sistem informatic integrat, unde doar o parte din resurse este folosită pentru a realiza aplicații critice pentru fiabilitate. În cel mai simplu caz, un astfel de sistem include un server activ care rulează cele mai importante aplicații și o mașină de așteptare care poate fi în modul de așteptare sau poate efectua sarcini mai puțin critice. Când serverul activ eșuează, toate aplicațiile sale sunt transferate automat în standby, unde aplicațiile cu cea mai mică prioritate nu mai funcționează. Această configurație elimină încetinirea aplicațiilor critice: utilizatorii pur și simplu nu vor observa nicio modificare. Alte scheme nu prevăd acest lucru.

Configurația „activ-activ” implică executarea de către toate serverele din cluster aplicații individuale prioritate la fel de mare. În cazul unei defecțiuni, aplicațiile de la o mașină care nu funcționează sunt distribuite celor rămase, ceea ce, desigur, afectează performanța generală. Clusterele activ-active pot exista doar ca sisteme dedicate care nu pot rula sarcini de întreținere cu prioritate redusă munca de birou.

Orez. 3. Schema „activ - activ”

Sistemele SMP sunt cea mai puternică și completă implementare a tehnologiei cluster. După cum sugerează și numele, toate aplicațiile critice sunt executate simultan de către toate serverele din sistem. Necesind cel mai înalt grad de integrare software, această configurație atinge nu numai cea mai mare fiabilitate pentru aplicațiile critice, ci și performanțe care nu sunt posibile cu alte tipuri.

Orez. 4. Schema SMP

Tehnologiile de rețea optime pentru conectarea serverelor și subsistemelor de stocare într-un cluster sunt considerate a fi interfața SCSI și liniile de fibră optică. Acum, în clustere de înaltă performanță, Fibre Channel este din ce în ce mai folosit ca tehnologie de comunicare cea mai productivă și funcțională.

Subsistemele de stocare partajate de serverele cluster trebuie, de asemenea, să îndeplinească cerințele pentru fiabilitate, disponibilitate și viteză ridicate. Astăzi, matricele RAID sunt optime pentru astfel de cazuri. Suport pentru diverse tehnologii de comunicareși aparținând diferitor categorii de pret face din tehnologia RAID o soluție universală care poate fi ușor adaptată unui sistem specific.

Recent, configurația activ-activ a devenit cea mai răspândită. Două clustere bazate pe acesta au fost implementate de Trans-Ameritech prin ordin al Ministerului Căilor Ferate. Unul dintre ele, instalat în Centrul de calcul principal (MCC), este compus din două servere IBM PC Server 325R conectate prin Interfață SCSIși utilizarea controlerului RAID LynxArray de la Artecon ca subsistem de stocare a datelor.

Al doilea cluster funcționează sub conducerea gării Belorussky și este format din două IBM Netfinity 5500R și un controler RAID Z-9250 fabricat de Digi-Data Corporation.

Ambii soluții de cluster construit pe Bazat pe Windows NT folosind fonduri interne Clustering Enterprise Edition.

Software-ul special este cel care grupează serverele împreună. Multe aplicații și sisteme de operare de întreprindere moderne au suport încorporat pentru clustering, dar funcționarea fără probleme și transparența clusterului pot fi garantate de middleware special. Acest software este responsabil în primul rând pentru munca coordonată a tuturor serverelor și rezolvarea conflictelor care apar în sistem, asigurând formarea și reconfigurarea cluster-ului după defecțiuni.

Serverele dintr-un cluster comunică, notificându-se reciproc despre starea lor de sănătate, folosind semnale de „bătăi ale inimii”. Dacă în grupuri mici semnalele de bătăi ale inimii sunt transmise pe aceleași canale ca și date, atunci în grupurile mari sunt alocate linii speciale pentru aceasta, deoarece software-ul clusterului trebuie să primească semnalul „bătăi inimii” al fiecărui server la un anumit interval de timp / m și în cazul în care de neprimire (de exemplu, deoarece linia este ocupată), serverul este considerat inactiv și cluster-ul este reconfigurat automat. De asemenea, conflictele dintre servere sunt rezolvate automat atunci când, la pornirea unui cluster, apare o problemă în alegerea unui server „lider” sau a unui grup de servere a căror sarcină este să formeze un nou cluster.

În plus, middleware-ul asigură echilibrarea sarcinii între nodurile clusterului, recuperarea aplicațiilor server eșuate pe nodurile disponibile (failover), precum și monitorizarea stării hardware-ului și medii software. Există un alt avantaj important al acestui software: vă permite să rulați orice aplicație pe un cluster fără a vă adapta mai întâi la o nouă arhitectură hardware.

Un exemplu de software de cluster pentru arhitectura Intel este Novell High Availability Server (NHAS) pentru serverele NetWare. Poate că aceasta este una dintre cele mai aplicabile și mai ieftine soluții pentru rețelele bazate pe Novell NetWare. NHAS bazat pe NDS permite ca mai multe servere de fișiere NetWare să fie grupate împreună cu failover automat și funcționalitate de stocare partajată.

Alte produse cluster binecunoscute pentru arhitectura Intel sunt produse de Veritas și Compaq; serviciul cluster este de asemenea inclus în Windows 2000.

În decembrie 1997, Compaq, Intel și Microsoft au anunțat dezvoltarea unui standard de arhitectură de cluster, ideea principală a căruia era posibilitatea de a grupa servere de masă cu costuri reduse. Denumit Virtual Interface Architecture 1.0, standardul este independent de hardware, software și arhitectura de rețea și implementează principiul de a furniza proceselor utilizatorului interfețe virtuale cu mediul de rețea într-un sistem de cluster. Peste o sută de firme s-au alăturat deja proiectului, inclusiv toți principalii furnizori de hardware și componente software corporative sisteme de informare, cum ar fi 3Com, Hewlett-Packard, Oracle etc.

Era sistemelor de clustere de masă abia începe, iar tehnologiile corespunzătoare trebuie încă stăpânite. Un lucru este clar: viitorul apropiat aparține clustering-ului, deoarece această tehnologie oferă o șansă reală de a salva investițiile existente în hardware și, în același timp, de a extinde eficient puterea de calcul în conformitate cu cerințele moderne.

Cluster de servere 1C:Enterprise 8 (1C:Enterprise 8 Server Cluster)

Clusterul de servere 1C:Enterprise 8 este componenta principală a platformei, care asigură interacțiunea între sistemul de management al bazei de date și utilizator în cazul funcționării client-server. Clusterul face posibilă organizarea de lucru neîntrerupt, tolerant la erori și competitiv pentru un număr semnificativ de utilizatori cu volume mari. baze de informare.

Clusterul de server 1C:Enterprise 8 este concept logic, care denotă un set de procese care servesc același set de baze de informații.

Poate fi distins urmatoarele posibilitati clustere de servere ca principale:

  • capacitatea de a funcționa atât pe mai multe computere, cât și pe un singur computer (servere de lucru);
  • fiecare server de lucru poate sprijini funcționarea atât a unuia, cât și a mai multor procese de lucru care servesc conexiuni client în limitele acestui cluster;
  • includerea de noi clienți în fluxurile de lucru ale clusterului se bazează pe o analiză pe termen lung a statisticilor de încărcare a fluxului de lucru;
  • interacțiunea tuturor proceselor cluster între ele, cu aplicațiile client și serverul de baze de date se realizează folosind protocolul TCP / IP;
  • procesele cluster rulează, pot fi atât un serviciu, cât și o aplicație

Opțiune client-server. Schema de lucru

Cu această opțiune, aplicația client interacționează cu serverul. Clusterul de servere, la rândul său, comunică cu serverul bazei de date.

Rolul serverului central al clusterelor este jucat de unul dintre computerele care fac parte din clusterul de servere. Pe lângă faptul că serverul central servește conexiuni client, gestionează și funcționarea întregului cluster în ansamblu și stochează registrul acestui cluster.

Clusterul este adresat pentru conexiunea client prin numele serverului central și, eventual, prin numărul portului de rețea. Dacă se folosește un port de rețea standard, atunci este suficient să specificați pur și simplu numele serverului central de conectat.

În timpul stabilirii unei conexiuni, o aplicație client accesează serverul central al clusterului. Pe baza analizei statisticilor de încărcare a procesului de lucru, serverul central redirecționează aplicația client către procesul de lucru necesar care ar trebui să o servească. Acest proces poate fi activat pe orice server de lucru al clusterului, în special pe serverul central.

Întreținerea conexiunii și autentificarea utilizatorului sunt suportate de acest flux de lucru până când clientul încetează să mai lucreze cu o anumită bază de informații.

Cluster de servere

Un cluster de server elementar poate fi un singur computer și poate conține un singur proces de lucru.

În figură, puteți observa toate elementele care, într-un fel sau altul, participă la funcționarea unui cluster de servere. Acestea sunt următoarele elemente:

  • procesele cluster de servere:
    o agent.exe
    sau rmngr.exe
    - rphost.exe
  • depozite de date:
    o lista de clustere;
    o registru cluster.

Procesul ragent.exe, numit agent server, asigură funcționarea computerului ca parte a clusterului. Prin urmare, computerul care rulează procesul ragent.exe ar trebui să fie numit server de producție. În special, una dintre responsabilitățile funcționale ale ragent.exe este de a menține un registru de clustere care se află pe un anumit server de lucru.

Nici registrul clusterului, nici agentul server nu fac parte dintr-un cluster de servere, ci doar permit funcționarea serverului și a clusterelor aflate pe acesta.

Clusterul de server în sine este format din următoarele elemente:

  • unul sau mai multe procese rmngr.exe
  • registrul clusterului
  • unul sau mai multe procese rphost.exe.

Manager de cluster (procesul rmngr.exe). Acesta servește la gestionarea funcționării întregului cluster. Clusterul poate include mai multe procese rmngr.exe, dintre care unul va fi întotdeauna managerul principal al acestui cluster, iar restul proceselor - manageri suplimentari. Serverul central al cluster-ului ar trebui să fie numit server de lucru pe care operează managerul principal de cluster și care conține lista cluster-ului. Menținerea registrului clusterului este una dintre funcțiile managerului principal de cluster.

Proces de lucru (proces rphost.exe). El este cel care slujește direct aplicații client, interacționând cu serverul de baze de date. Acest proces poate rula unele proceduri de configurare a modulelor serverului.

Scalabilitate 1C versiunea 8.3

Scalabilitatea clusterului de server este implementată în următoarele moduri:

  • cresterea numarului de manageri din cluster si distributia serviciilor intre acestia
  • crește numărul de procese de lucru care funcționează pe un anumit server de lucru
  • măriți numărul de servere de lucru care alcătuiesc clusterul.

Folosind mai mulți manageri în același timp.

Funcțiile îndeplinite de managerul clusterului sunt împărțite în mai multe servicii. Aceste servicii pot fi alocate diferiților manageri de cluster. Acest lucru face posibilă distribuirea uniformă a încărcăturii în mai multe procese.

Cu toate acestea, unele servicii pot fi utilizate numai de către managerul principal de cluster:

  • serviciul de configurare a clusterului
  • serviciul de gestionare a elementelor de depanare
  • serviciu de blocare cluster.

Pentru alte servicii, administratorii de cluster arbitrari pot fi alocați:

  • serviciul de jurnal
  • serviciu de blocare a obiectelor
  • serviciul de locuri de muncă
  • serviciu de căutare text integral
  • serviciu de date de sesiune
  • serviciu de numerotare
  • serviciu de setări personalizate
  • serviciu de timp
  • serviciu de blocare a tranzacțiilor.

Folosind mai multe fluxuri de lucru în același timp.

Pe de o parte, utilizarea mai multor procese de lucru face posibilă reducerea sarcinii fiecărui proces specific de lucru. Pe de altă parte, aplicarea mai multor fluxuri de lucru are ca rezultat mai multe utilizare eficientă resursele hardware ale serverului de lucru. Mai mult, procedura de lansare a mai multor procese de lucru crește fiabilitatea serverului, deoarece izolează grupuri de clienți care lucrează cu diferite baze de informații. Un proces de lucru dintr-un cluster căruia i se permite să ruleze mai multe procese de lucru poate fi repornit automat, într-un interval de timp specificat de administratorul clusterului.

Utilizabilitate Mai mult fluxurile de lucru (creșterea numărului de conexiuni la clienți) fără a crește sarcina asupra unui anumit flux de lucru, oferă o schimbare, în latura mare, numărul de servere de lucru care fac parte din cluster.

Toleranță la erori 1C versiunea 8.3

Toleranța la defecțiuni în funcționarea clusterului este asigurată în trei domenii:

  • redundanța clusterului în sine
  • redundanță a proceselor de muncă
  • rezistența la rupere a canalului de comunicare.

Redundanță cluster 1C versiunea 8.3

Mai multe grupuri sunt combinate într-un grup de redundanță. Clusterele care se află într-un astfel de grup sunt sincronizate automat.

Dacă clusterul activ eșuează, acesta este înlocuit cu următorul cluster de lucru al grupului. După ce clusterul nesănătos este restaurat, acesta va deveni activ după sincronizarea datelor.

Rezervarea proceselor de lucru 1C versiunea 8.3

Pentru fiecare dintre fluxurile de lucru, este posibil să specificați opțiuni pentru utilizarea acestuia:

  • utilizare
  • nu folosi
  • utilizați ca rezervă.

Când avorta operarea oricărui proces, clusterul începe să-l folosească pe cel curent inactiv procesul de backup. În același timp, sarcina de pe acesta este redistribuită automat.

Reziliența versiunii 1C 8.3 la o întrerupere a canalului de comunicare

Deoarece fiecare utilizator are propria sa sesiune de comunicare, clusterul stochează date despre conectarea utilizatorilor și ce acțiuni au efectuat.

Când conexiunea fizică este pierdută, clusterul va fi într-o stare de așteptare pentru o conexiune cu acest utilizator. În cele mai multe cazuri, după ce conexiunea este restabilită, utilizatorul va putea continua să lucreze exact din punctul în care conexiunea a fost întreruptă. Reconectare nu este necesară baza de informații.

Sesiuni de lucru în versiunea 1C 8.3

Sesiunea vă permite să determinați utilizator activ infobază specifică și definiți fluxul de control de la acel client. Există următoarele tipuri de sesiuni:

  • Thin Client, Web Client, client gras– aceste sesiuni au loc atunci când clienții corespunzători accesează baza de informații
  • Conexiune de tip „Configurator” - se produce la accesarea bazei de info configurator
  • Conexiune COM - formată la utilizare conexiune exterioară pentru a accesa baza de informații
  • Conexiune WS - apare la accesarea bazei de informații a serverului web ca urmare a accesării serviciului web publicat pe serverul web
  • Un job de fundal este creat atunci când un proces de lucru în cluster accesează o bază de informații. Această sesiune este utilizată pentru a executa codul procedurii de lucru în fundal,
    Consola de cluster - creată atunci când utilitarul de administrare al versiunii client-server accesează procesul de lucru
  • Manager COM - apare atunci când un proces de lucru este accesat folosind o conexiune externă.
  • Lucrați cu diferite sisteme de operare

Orice proces de cluster de server poate funcționa ca sistem de operare sisteme Linux precum și sub sistemul de operare Windows. Acest lucru se realizează prin faptul că interacțiunea clusterelor are loc sub controlul protocolului TCP/IP. De asemenea, clusterul poate include servere de lucru care rulează oricare dintre aceste sisteme de operare.

Utilitar de administrare a clusterului de servere 8.3

Setul de livrare a sistemului include un utilitar pentru administrarea operațiunii client-server. Acest utilitar face posibilă modificarea compoziției clusterului, gestionarea bazelor de informații și analizarea rapidă a blocărilor tranzacționale.

Clustere de servere


Server Cluster este o soluție de calcul puternică, concepută pentru companii cu cerințe ridicate de securitate, acces continuu la date și putere de calcul. Aceste sisteme sunt potrivite pentru întreținerea bazelor de date corporative, portaluri socialeși site-uri de știri, precum și magazine online, jocuri online, site-uri de jocuri, asigurători și instituții de credit, dezvoltatori și testeri de software.

Valabilitate ridicată
Disponibilitatea serviciului nu este mai mică de 100% chiar și atunci când serverele sunt inactive

Scalabilitate largă
Un număr mare de echipamente, extindere previzibilă și rapidă a serviciului dacă este necesar

Suport tehnic de încredere
Echipamente de calitate de clasă mondială în centre de date securizate

Serverele și sistemele de stocare sunt disponibile clientului complet echipate, cu numărul necesar de procesoare, volum memorie cu acces aleator si locuri pentru hard disk, oferind de asemenea necesarul infrastructura retelei. Fiecare decizie se bazează pe cerinte tehnice client. Instalarea unui cluster de server, de regulă, durează doar câteva zile lucrătoare - sistemul de stocare al centrului de date este deja preinstalat și are nevoie doar de setări suplimentare în funcție de cerințele clientului. Este important să rețineți că accesul la cluster este posibil de oriunde în lume - trebuie doar să aveți conexiune stabilă la internet. Toate datele și aplicațiile se află pe servere situate în centrele de date securizate ale DEAC din Riga, precum și în locații strategice din Stockholm, Kiev, Londra, Amsterdam, Moscova și Frankfurt.

Oferim clienților noștri să creeze diverse clustere de servere:

Platformă de analiză a datelor mari

Alegeți analiza Big Data Hadoop, Apache Spark, Apache Storm sau Discotecă pentru prelucrarea eficientă a cantităților mari de informații. Aceste platforme vă permit să analizați cantități uriașe de date în paralel utilizând clusteringul de servere. Platformele de calcul distribuite vă permit să distribuiți „date mari” la mai multe noduri dintr-un cluster de servere tipice. Astfel, nu este nevoie să cumpărați și să întrețineți echipamente specializate costisitoare. DEAC oferă clustere complet configurate pentru a rula oricare dintre proiectele open source menționate. cod sursa, precum și pentru alte aplicații bazate pe platforma selectată.

Obțineți platforma Hadoop astăzi la un preț special!

Server: 1xHP DL320 Gen8, 1xE3-1240v2, 16GB RAM, 1x1TB SATA, 2x1GE, SPS

Net: Port 1x1GE inclus

Trafic: Internet 1x100 Mbps inclus (fără limită și fără măsurători)

IPv4: 1 inclus

Indicele vitezei procesorului ( Scorul CPU): 9153


Un cluster de servere reunește mai multe servere fizice cu infrastructura de rețea și gestionează procese diferite pe aceeași resursă. Sarcina principală a clusterului este de a exclude timpii de nefuncționare a sistemului asociat cu orice posibil incident (interferență externă sau defecțiune în funcționarea internă a resursei). Stocarea sincronizată gestionează întregul cluster de servere folosind un protocol software care permite sistemului să sincronizeze, să adauge hardware sau resurse software, distribuie cereri, efectuează echilibrarea sarcinii, inclusiv conectarea la bazele de date cluster.


Aplicații
clustere de servere

Cum funcționează clusterul
servere?

Componentele principale
cluster de servere


Clusterele de servere sunt adesea folosite acolo unde performanța și Valabilitate ridicată sunt factori cheie.

  • Comerț electronic
  • Cazinouri și case de pariuri online
  • Întreprinderi care conțin baze de date
  • Industria medicală
  • Societăți financiare și burse de valori
  • Împrumut și asigurare
  • Dezvoltare și testare software


Un cluster de servere este format din mai multe servere fizice, numite noduri, care sunt interconectate pentru a oferi clientului o disponibilitate ridicată. Un cluster de calcul este format din grupuri de resurse de aplicații și servicii, un nume de rețea și o adresă IP. Fiecare nod poate consta din mai multe grupuri de resurse care redistribuie sarcina și garantează furnizarea serviciului în cazul unei defecțiuni a unuia sau mai multor servere.

Clusterul de înaltă disponibilitate DEAC rulează pe fiecare nod și controlează clusterul de calcul. Mai multe componente software asigură monitorizarea, redistribuirea resurselor și mențin consistența calculării cluster.


Fiecare cluster de calcul diferă în ceea ce privește componentele și sistemul de control intern. Componente precum Managerul bazei de date (managerul bazei de date), Managerul nodului (managerul nodului) și Manager de failover(managerul de failover) lucrează împreună pentru a obține performanță maximă.

    manager de baze de date menține o copie locală a bazei de date de configurare a clusterului de server, care conține informații despre toate componentele clusterului și reproduce toate modificările la toate nodurile clusterului.

    manager de noduri listează o listă locală a tuturor gazdelor, rețelelor și interfețelor de rețea și monitorizează gazdele pentru defecțiuni.

    Manager de failover gestionează dependențele de resurse, pornirea resurselor și inițiază failoverul grupului de resurse.


DEAC este certificat PCI DSS, ceea ce confirmă nivel inalt securitatea informatiei companii care prelucrează datele cărților de credit. Dacă compania dvs. acceptă, stochează, procesează sau trimite datele cardului de credit online sau offline, atunci trebuie să aveți un certificat PCI DSS. DEAC a implementat o infrastructură de rețea cuprinzătoare pentru a se conforma cu politica PCI DSS implementată. Soluțiile de cluster de servere sunt conforme cu PCI DSS și asigură conformitatea și pentru clienții noștri.

Introducere

Un cluster de servere este un grup de servere independente gestionate de serviciul cluster care lucrează împreună ca un singur sistem. Clusterele de servere sunt create prin combinarea mai multor servere în Baza Windows® 2000 Advanced Server și Windows 2000 Datacenter Server să lucreze împreună, oferind astfel un nivel ridicat de disponibilitate, scalabilitate și gestionare pentru resurse și aplicații.

Sarcina unui cluster de servere este de a oferi utilizatorilor acces continuu la aplicații și resurse în caz de defecțiuni hardware sau software sau opriri planificate ale echipamentelor. Dacă unul dintre serverele de cluster devine indisponibil din cauza unei defecțiuni sau a unei închideri pentru întreținere, resursele de informații și aplicațiile sunt redistribuite între nodurile de cluster disponibile rămase.

Pentru sistemele cluster, utilizarea termenului „ Valabilitate ridicată" este de preferat față de utilizarea termenului " toleranta la greseli" deoarece tehnologiile de toleranță la erori necesită un nivel mai ridicat de rezistență hardware și mecanisme de recuperare. De regulă, serverele tolerante la erori utilizează un grad ridicat de redundanță hardware, plus, în plus, software specializat care permite recuperarea aproape imediată în cazul oricărei erori de software sau software. hardware. Aceste soluții sunt semnificativ mai costisitoare decât utilizarea tehnologiilor cluster, deoarece organizațiile sunt forțate să plătească în exces pentru hardware suplimentar care este inactiv de cele mai multe ori și este utilizat numai în caz de defecțiuni. Serverele tolerante la erori sunt utilizate pentru aplicații cu valoare mare pentru tranzacții, cum ar fi centrele de procesare a plăților, bancomatele sau bursele.

Deși serviciul Cluster nu este garantat să ruleze non-stop, acesta oferă un nivel ridicat de disponibilitate, care este suficient pentru a rula majoritatea aplicațiilor critice. Serviciul Cluster poate monitoriza funcționarea aplicațiilor și resurselor, recunoscând automat starea defecțiunilor și recuperând sistemul după ce acestea sunt rezolvate. Acest lucru oferă o gestionare mai flexibilă a sarcinii de lucru în cadrul clusterului și îmbunătățește disponibilitatea generală a sistemului.

Avantajele cheie ale utilizării serviciului Cluster:

  • Valabilitate ridicată.În cazul eșecului unui nod, serviciul cluster transferă controlul resurselor, cum ar fi, de exemplu, hard disk-uriși adresele de rețea ale nodului cluster actual. Când există un program sau defecțiune hardware, software-ul cluster repornește aplicația eșuată pe nodul activ sau mută întreaga încărcare a nodului eșuat la nodurile active rămase. În acest caz, utilizatorii pot observa doar o scurtă întârziere în serviciu.
  • Întoarcere după anulare. Serviciul Cluster redistribuie automat sarcina de lucru în cluster atunci când un nod eșuat devine din nou disponibil.
  • Controlabilitate. Cluster Administrator este un snap-in pe care îl puteți folosi pentru a vă gestiona clusterul sistem unificat, precum și pentru gestionarea aplicațiilor. Administratorul clusterului oferă o vedere transparentă a modului în care rulează aplicațiile ca și cum ar fi rulat pe același server. Puteți muta aplicații pe diferite servere dintr-un cluster trăgând și plasând obiectele cluster. În același mod, puteți muta datele. Această metodă poate fi utilizată pentru a distribui manual volumul de lucru al serverelor, precum și pentru a descărca serverul și apoi a-l opri în scopul întreținerii programate. În plus, Cluster Administrator vă permite să monitorizați de la distanță starea cluster-ului, toate nodurile și resursele acestuia.
  • Scalabilitate. Pentru a ne asigura că performanța clusterului poate ține mereu pasul cu cerințele tot mai mari, serviciul Cluster este scalabil. Dacă performanța globală a clusterului devine insuficientă pentru a gestiona sarcina generată de aplicațiile cluster, pot fi adăugate noduri suplimentare la cluster.

Acest document oferă instrucțiuni pentru instalarea serviciului Cluster pe serverele care rulează Control Windows 2000 Advanced Server și Windows 2000 Datacenter Server și descrie modul de instalare a serviciului Cluster pe serverele nodului cluster. Acest ghid nu acoperă instalarea și configurarea aplicațiilor în cluster, ci doar vă ghidează prin procesul de instalare a unui cluster simplu cu două noduri.

Cerințe de sistem pentru crearea unui cluster de servere

Următoarele liste de verificare vă vor ajuta să vă pregătiți pentru instalare. Instrucțiunile de instalare pas cu pas vor fi furnizate în continuare după aceste listări.

Cerințe software

  • sala de operatie sistem Microsoft Windows 2000 Advanced Server sau Windows 2000 Datacenter Server instalat pe toate serverele din cluster.
  • Un serviciu de rezoluție de nume instalat, cum ar fi Domain Naming System (DNS), Windows Internet Sistem de denumire (WINS), HOSTS etc.
  • Terminal Server pentru administrare la distanță cluster. Această cerință nu este obligatoriu, ci este recomandat doar pentru a asigura confortul managementului clusterului.

Cerințe hardware

  • Cerințele hardware pentru un nod de cluster sunt aceleași cu cele pentru instalarea sistemelor de operare Windows 2000 Advanced Server sau Windows 2000 Datacenter Server. Aceste cerințe pot fi găsite pe pagina de căutare directorul Microsoft.
  • Hardware-ul cluster-ului trebuie să fie certificat și listat în Lista de compatibilitate hardware Microsoft (HCL) pentru serviciul de cluster. ultima versiune această listă poate fi găsită pe pagina de căutare Lista de compatibilitate hardware Windows 2000 Directorul Microsoft selectând categoria de căutare „Cluster”.

Două computere calificate HCL, fiecare cu:

  • HDD cu cizma partiția sistemuluiși un sistem de operare Windows 2000 Advanced Server sau Windows 2000 Datacenter Server instalat. Această unitate nu trebuie conectată la magistrala de stocare partajată discutată mai jos.
  • Dispozitive PCI-controller separate canal optic (Fibre Channel) sau SCSI pentru conectarea unui dispozitiv de stocare partajat extern. Acest controler trebuie să fie prezent pe lângă controler disc de pornire.
  • Două rețele Adaptor PCI instalat pe fiecare computer din cluster.
  • Dispozitivul de stocare pe disc extern listat în HCL care este atașat la toate nodurile din cluster. Va acționa ca un disc cluster. Se recomandă o configurație care utilizează matrice RAID hardware.
  • Cabluri pentru conectarea unui dispozitiv de stocare partajat la toate computerele. Consultați documentația producătorului pentru instrucțiuni privind configurarea dispozitivelor de stocare. Dacă vă conectați la o magistrală SCSI, puteți consulta Anexa A pentru mai multe informații.
  • Tot hardware-ul de pe computerele cluster trebuie să fie complet identic. Acest lucru va simplifica procesul de configurare și vă va salva de potențiale probleme de compatibilitate.

Cerințe de configurare a rețelei

  • Nume unic NetBIOS pentru cluster.
  • Cinci unice adrese IP statice: două adrese pentru adaptoarele de rețea private, două adrese pentru adaptoarele de rețea retea publica, și o adresă pentru cluster.
  • Cont de domeniu pentru serviciul de cluster (toate nodurile de cluster trebuie să fie membri ai aceluiași domeniu)
  • Fiecare nod trebuie să aibă două adaptoare de rețea - unul pentru conectarea la rețeaua publică, unul pentru comunicarea intra-cluster a nodurilor. O configurație care utilizează un singur adaptor de rețea pentru a se conecta la o rețea publică și privată în același timp nu este acceptată. Pentru a respecta cerințele HCL, este necesar un adaptor de rețea separat pentru rețeaua privată.

Cerințe pentru unitățile de stocare partajate

  • Toate unitățile de stocare partajate, inclusiv unitatea de cvorum, trebuie să fie conectate fizic la autobuz comun.
  • Toate discurile conectate la magistrala partajată trebuie să fie disponibile pentru fiecare nod. Acest lucru poate fi verificat în timpul fazei de instalare și configurare a adaptorului gazdă. Consultați documentația producătorului adaptorului pentru instrucțiuni detaliate.
  • Dispozitivelor SCSI trebuie să li se atribuie numere de identificare unice SCSI țintă, iar terminatoarele de pe magistrala SCSI trebuie să fie terminate corespunzător, conform instrucțiunilor producătorului. 1
  • Toate discurile de stocare partajată trebuie configurate ca discuri de bază (nu dinamice)
  • Toate partițiile de pe unitățile de stocare partajate trebuie formatate cu sistemul de fișiere NTFS.

Este foarte recomandat ca toate unitățile de stocare partajate să fie configurate în matrice RAID hardware. Deși nu este necesar, crearea de configurații RAID tolerante la erori este punct-cheieîn asigurarea protecției împotriva defecțiunilor de disc.

Instalarea unui cluster

Prezentare generală a instalației

În timpul procesului de instalare, unele noduri vor fi închise, iar altele vor fi repornite. Acest lucru este necesar pentru a asigura integritatea datelor aflate pe discuri conectate la magistrala comună a unui dispozitiv de stocare extern. Coruperea datelor poate apărea atunci când mai multe noduri încearcă simultan să scrie pe aceeași unitate care nu este protejată de software-ul cluster.

Tabelul 1 vă va ajuta să determinați ce noduri și dispozitive de stocare trebuie să fie activate pentru fiecare pas al instalării.

Acest ghid descrie cum să creați un cluster cu două noduri. Cu toate acestea, dacă configurați un cluster cu mai mult de două noduri, puteți utiliza valoarea coloanei „Nodul 2” pentru a determina starea nodurilor rămase.

Tabelul 1. Secvența dispozitivelor de activare în timpul instalării clusterului

Etapa Nodul 1 Nodul 2 dispozitiv de stocare Un comentariu
Setarea parametrilor de rețea Pe Pe Oprit Asigurați-vă că toate dispozitivele de stocare conectate la magistrala partajată sunt oprite. Porniți toate nodurile.
Configurarea drive-urilor partajate Pe Oprit Pe Opriți toate nodurile. Porniți dispozitivul de stocare partajat, apoi porniți prima gazdă.
Verificarea configurației drive-urilor partajate Oprit Pe Pe Opriți primul nod, porniți al doilea nod. Repetați pentru nodurile 3 și 4 dacă este necesar.
Configurarea primului nod Pe Oprit Pe Opriți toate nodurile; porniți primul nod.
Configurarea celui de-al doilea nod Pe Pe Pe După configurarea cu succes a primului nod, porniți al doilea nod. Repetați pentru nodurile 3 și 4 dacă este necesar.
Finalizarea instalării Pe Pe Pe În acest moment, toate nodurile ar trebui să fie activate.

Înainte de a instala software-ul cluster, trebuie să finalizați pasii urmatori:

  • Instalați pe fiecare computer din cluster sistem de operare Windows 2000 Advanced Server sau Windows 2000 Datacenter Server.
  • Configurați setările de rețea.
  • Configurați unități de stocare partajate.

Finalizați acești pași pe fiecare nod al clusterului înainte de a instala serviciul Cluster pe primul nod.

Pentru a configura serviciul Cluster pe un server care rulează Windows 2000, contul dumneavoastră trebuie să aibă drepturi administrative pe fiecare nod. Toate nodurile de cluster trebuie să fie fie servere membre, fie controlere ale aceluiași domeniu în același timp. Utilizarea mixtă a serverelor membre și controlerelor de domeniu într-un cluster nu este permisă.

Instalarea sistemului de operare Windows 2000

Pentru Instalare Windows 2000 pe fiecare nod de cluster, consultați documentația pe care ați primit-o împreună cu sistemul dvs. de operare.

Acest document folosește structura de denumire din manual „Ghid pas cu pas pentru o infrastructură comună pentru implementarea Windows 2000 Server”. Cu toate acestea, puteți utiliza orice nume.

Trebuie să fiți autentificat cu un cont de administrator înainte de a începe instalarea serviciului de cluster.

Configurarea setărilor de rețea

Notă:În acest moment al instalării, opriți toate dispozitivele de stocare partajate, apoi porniți toate nodurile. Trebuie să împiedicați mai multe noduri să acceseze spațiul de stocare partajat în același timp până când serviciul Cluster este instalat macar, pe unul dintre noduri, iar acel nod va fi activat.

Fiecare nod trebuie să aibă cel puțin două adaptoare de rețea instalate - unul pentru a se conecta la rețeaua publică și unul pentru a se conecta la rețeaua privată a nodurilor cluster.

Adaptorul de rețea de rețea privată asigură comunicarea între noduri, comunicarea stării curente a clusterului și gestionarea clusterului. Adaptorul de rețea publică al fiecărui nod conectează clusterul la rețeaua publică a computerelor client.

Asigurați-vă că toate adaptoarele de rețea sunt conectate fizic corect: adaptoarele de rețea private sunt conectate numai la alte adaptoare de rețea private, iar adaptoarele de rețea publice sunt conectate la comutatoarele de rețea publice. Diagrama de conectare este prezentată în Figura 1. Efectuați această verificare pe fiecare nod al clusterului înainte de a continua configurarea unităților de stocare partajate.

Figura 1: Un exemplu de cluster cu două noduri

Configurarea unui adaptor de rețea privată

Efectuați acești pași pe primul nod al clusterului dvs.

  1. Mediul meu de rețeași selectați comanda Proprietăți.
  2. Clic Click dreapta pictograma mouse-ului.

Notă: De ce adaptor de rețea va servi rețeaua privată și care publică depinde conexiune fizică cabluri de rețea. ÎN acest document vom presupune că primul adaptor (Conexiune prin retea locala) este conectat la rețeaua publică, iar al doilea adaptor (Local Area Connection 2) este conectat la rețeaua privată a clusterului. În cazul dvs., acesta poate să nu fie cazul.

  1. Stat. Fereastră Stare Conexiune locală 2 arată starea conexiunii și viteza acesteia. Dacă conexiunea este într-o stare deconectată, verificați cablurile și conexiunea corectă. Remediați problema înainte de a continua. Faceți clic pe butonul închide.
  2. Faceți clic dreapta pe pictogramă din nou Conexiune LAN 2, selectați o comandă Proprietățiși apăsați butonul Ton.
  3. Selectați fila În plus. Va apărea fereastra din figura 2.
  4. Pentru adaptoarele de rețea de rețea privată, viteza trebuie setată manual în loc de valoarea implicită. Specificați viteza rețelei dvs. în lista derulantă. Nu folosi valori „Sentiment automat” sau "Selectare automată" pentru a selecta viteza, deoarece unele adaptoare de rețea pot pierde pachete în timpul determinării vitezei de conectare. Pentru a seta viteza adaptorului de rețea, specificați valoarea reală pentru parametru Tipul conexiunii sau Viteză.

Figura 2: Setari aditionale adaptor de retea

Toate adaptoarele de rețea dintr-un cluster conectat la aceeași rețea trebuie să fie configurate în același mod și să utilizeze aceleași valori ale parametrilor modul duplex, Controlul debitului, Tipul conexiunii, etc. Chiar dacă noduri diferite utilizează echipamente de rețea diferite, valorile acestor parametri trebuie să fie aceleași.

  1. Selectați Protocol Internet (TCP/IP)în lista componentelor utilizate de conexiune.
  2. Faceți clic pe butonul Proprietăți.
  3. Setați comutatorul pe Utilizați următoarea adresă IPși introduceți adresa 10.1.1.1 . (Pentru al doilea nod, utilizați adresa 10.1.1.2 ).
  4. Setați masca de subrețea: 255.0.0.0 .
  5. Faceți clic pe butonul În plusși selectați fila CÂȘTIGE. Setați valoarea comutatorului în poziție Dezactivați NetBIOS prin TCP/IP. Clic Bine pentru a reveni la meniul anterior. Urmați acest pas numai pentru adaptorul de rețea privată.

Caseta de dialog ar trebui să arate ca în Figura 3.

Figura 3: Adresa IP a conexiunii la rețea privată

Configurarea unui adaptor de rețea publică

Notă: Dacă un server DHCP rulează pe o rețea publică, o adresă IP pentru adaptorul de rețea publică poate fi atribuită automat. Cu toate acestea, această metodă nu este recomandată pentru adaptoarele de noduri de cluster. Recomandăm insistent numirea adrese IP permanente pentru toate adaptoarele de rețea gazdă publice și private. În caz contrar, dacă serverul DHCP eșuează, este posibil ca accesul la nodurile clusterului să nu fie posibil. Dacă sunteți forțat să utilizați DHCP pentru adaptoarele de rețea publice, utilizați termeni lungiînchiriere de adrese - aceasta va asigura că adresa alocată dinamic rămâne valabilă chiar dacă serverul DHCP devine temporar indisponibil. Alocați întotdeauna adrese IP permanente adaptoarelor de rețea private. Rețineți că serviciul cluster poate recunoaște doar unul interfata retea pe fiecare subrețea. Dacă aveți nevoie de ajutor cu o programare adrese de rețeaîn Windows 2000, consultați ajutorul încorporat al sistemului de operare.

Redenumirea conexiunilor de rețea

Pentru claritate, vă recomandăm să schimbați numele conexiunilor de rețea. De exemplu, puteți schimba numele conexiunii Conexiune LAN 2 pe . Această metodă vă va ajuta să identificați mai ușor rețelele și să le atribuiți corect rolurile.

  1. Faceți clic dreapta pe pictogramă 2.
  2. ÎN meniul contextual selectați o echipă Redenumiți.
  3. introduce Conectarea la o rețea privată de clusterîn câmpul de text și apăsați tasta INTRODUCE.
  4. Repetați pașii 1-3 și schimbați numele conexiunii conexiune LAN pe Conectare la o rețea publică.

Figura 4: Conexiuni de rețea redenumite

  1. Conexiunile de rețea redenumite ar trebui să arate ca în Figura 4. Închideți fereastra Rețea și Rețea Dial-Up. Noile nume de conexiuni de rețea sunt replicate automat la alte noduri de cluster atunci când sunt pornite.

Examinare conexiuni de reteași rezoluții de nume

Pentru a verifica funcționarea configurației echipamente de retea, urmați acești pași pentru toate adaptoarele de rețea din fiecare gazdă. Pentru a face acest lucru, trebuie să cunoașteți adresele IP ale tuturor adaptoarelor de rețea din cluster. Puteți obține aceste informații rulând comanda ipconfig pe fiecare nod:

  1. Faceți clic pe butonul Start, selectați o echipă Alergași tastați comanda cmdîntr-o fereastră de text. Clic Bine.
  2. Formează o echipă ipconfig /allși apăsați tasta INTRODUCE. Veți vedea informații despre setarea protocolului IP pentru fiecare adaptor de rețea de pe computerul local.
  3. Dacă nu aveți încă o fereastră de linie de comandă deschisă, urmați pasul 1.
  4. Formează o echipă ping adresa de ipad Unde adresa IP este adresa IP a adaptorului de rețea corespunzător de pe cealaltă gazdă. Să presupunem, de exemplu, că adaptoarele de rețea au următoarele adrese IP:
Numărul nodului Numele conexiunii la rețea Adresa IP a adaptorului de rețea
1 Conexiune la rețea publică 172.16.12.12
1 Conectarea la o rețea privată de cluster 10.1.1.1
2 Conexiune la rețea publică 172.16.12.14
2 Conectarea la o rețea privată de cluster 10.1.1.2

În acest exemplu, trebuie să rulați comenzile ping 172.16.12.14Și ping 10.1.1.2 de la nodul 1 și executați comenzi ping 172.16.12.12Și ping 10.1.1.1 de la nodul 2.

Pentru a verifica rezoluția numelui, executați comanda ping, folosind numele computerului ca argument în loc de adresa sa IP. De exemplu, pentru a verifica rezoluția numelui pentru primul nod de cluster numit hq-res-dc01, rulați comanda ping hq-res-dc01 din oricare computer client.

Verificarea apartenenței la domeniu

Toate nodurile de cluster trebuie să fie membri ai aceluiași domeniu și trebuie să poată rețele cu un controler de domeniu și un server DNS. Nodurile pot fi configurate ca servere membre de domeniu sau ca controlori ai aceluiasi domeniu. Dacă decideți să faceți unul dintre noduri controler de domeniu, atunci toate celelalte noduri din cluster trebuie, de asemenea, configurate ca controlere de domeniu ale aceluiași domeniu. Acest ghid presupune că toate nodurile sunt controlere de domeniu.

Notă: Pentru link-uri către documentație suplimentară despre configurarea domeniilor, Servicii DNSși DHCP pe Windows 2000, vezi secțiunea Resurse conexe la finalul acestui document.

  1. Click dreapta Calculatorul meuși selectați comanda Proprietăți.
  2. Selectați fila Identificarea rețelei. În caseta de dialog Proprietățile sistemului Vei vedea Numele complet computer și domeniu. În exemplul nostru, domeniul este numit reskit.com.
  3. Dacă ați configurat nodul ca server membru, atunci îl puteți alătura domeniului în acest moment. Faceți clic pe butonul Proprietățiși urmați instrucțiunile pentru a conecta computerul la domeniu.
  4. închide geamurile Proprietățile sistemuluiȘi Calculatorul meu.

Creați un cont Cluster Service

Pentru serviciul cluster, trebuie să creați un cont de domeniu separat sub care va rula. Programul de instalare vă va cere să introduceți acreditările pentru serviciul Cluster, așa că trebuie creat un cont înainte ca serviciul să poată fi instalat. Contul nu trebuie să fie deținut de niciun utilizator de domeniu și trebuie utilizat exclusiv pentru rularea serviciului Cluster.

  1. Faceți clic pe butonul start, selectați o comandă Programe / Administrare, începe snap .
  2. Extindeți Categoria reskit.com dacă nu este deja implementat
  3. Selectați din listă Utilizatori.
  4. Faceți clic dreapta pe Utilizatori, selectați din meniul contextual Crea, Selectați Utilizator.
  5. Introduceți un nume pentru contul de serviciu cluster, așa cum se arată în Figura 5 și faceți clic Mai departe.

Figura 5: Adăugarea unui utilizator de cluster

  1. Bifați casetele Împiedicați utilizatorul să schimbe parolaȘi Parola nu expiră. Faceți clic pe butonul Mai departeși butonul Gata pentru a crea un utilizator.

Notă: Dacă politica de securitate administrativă nu permite utilizarea parolelor care nu expiră niciodată, va trebui să actualizați parola și să configurați serviciul Cluster pe fiecare nod înainte ca acesta să expire.

  1. Clic tasta dreapta mouse-ul pe utilizator Cluster V panoul din dreapta snap Utilizatori și computere Active Directory.
  2. În meniul contextual, selectați comanda Adăugați membri într-un grup.
  3. Alegeți un grup Administratoriiși apăsați Bine. Noul cont are acum privilegii de administrator pe computerul local.
  4. închidere clipă Utilizatori și computere Active Directory.

Configurarea unităților de stocare partajate

Avertizare: Asigurați-vă că cel puțin unul dintre nodurile cluster rulează Windows 2000 Advanced Server sau Windows 2000 Datacenter Server și că serviciul cluster este configurat și rulează. Abia atunci se poate încărca sistemul de operare. sistem Windows 2000 pe alte noduri. Dacă aceste condiții nu sunt îndeplinite, discurile cluster pot fi deteriorate.

Pentru a începe configurarea unităților de stocare partajate, dezactivați toate nodurile. După aceea, porniți dispozitivul de stocare partajat, apoi porniți nodul 1.

Discul cvorum

Discul de cvorum este folosit pentru stocare puncte de controlși fișierele jurnal de recuperare a bazei de date cluster, oferind managementul clusterului. Facem următoarele recomandări pentru crearea unui disc de cvorum:

  • Creați o partiție mică (cel puțin 50 MB în dimensiune) pentru a o folosi ca disc de cvorum. În general, recomandăm crearea unui disc de cvorum de 500 MB.
  • A evidentia disc separat pentru resursa de cvorum. Deoarece întregul cluster va eșua dacă discul de cvorum eșuează, vă recomandăm insistent să utilizați o matrice RAID hardware.

În timpul instalării serviciului Cluster, va trebui să atribuiți o literă de unitate cvorumului. În exemplul nostru, vom folosi litera Q.

Configurarea unităților de stocare partajate

  1. Click dreapta Calculatorul meu, selectați o comandă Control. Extindeți categoria în fereastra care se deschide. dispozitive de stocare.
  2. Alege o echipă Managementul discurilor.
  3. Asigurați-vă că toate unitățile de stocare partajate sunt formatate cu NTFS și au starea De bază. Dacă te conectezi disc nou, va porni automat Asistentul pentru semnare și actualizare pe disc. Când pornește expertul, faceți clic pe butonul Reîmprospăta, pentru a-și continua activitatea, după aceea discul va fi definit ca Dinamic. Pentru a converti un disc în format de bază, faceți clic dreapta pe Disc#(Unde # - numărul discului cu care lucrați) și selectați comanda Reveniți la discul de bază.

Zona de clic dreapta nealocate lângă discul corespunzător.

  1. Alege o echipă Creați secțiune
  2. o sa inceapa Partition Wizard. Faceți dublu clic pe butonul Mai departe.
  3. Introduceți dimensiunea dorită a partiției în megaocteți și faceți clic pe butonul Mai departe.
  4. Faceți clic pe butonul Mai departe, acceptând litera implicită de unitate
  5. Faceți clic pe butonul Mai departe pentru a formata și a crea o partiție.

Atribuiți litere de unitate

După ce magistrala de date, discurile și partițiile de stocare partajată sunt configurate, trebuie să atribuiți litere de unitate tuturor partițiilor de pe toate discurile din cluster.

Notă: Punctele de conectare sunt funcţionalitate sistem de fișiere care vă permite să setați Sistemul de fișiere, folosind directoarele existente, fără a atribui o literă de unitate. Punctele de montare nu sunt acceptate de clustere. Orice unitate externă, folosit ca resursă de cluster, trebuie să fie partiționat în partiții NTFS, iar acestor partiții trebuie să li se atribuie litere de unitate.

  1. Faceți clic dreapta pe partiția dorită și selectați comanda Schimbați litera și calea unității.
  2. Selectați scrisoare nouă disc.
  3. Repetați pașii 1 și 2 pentru toate unitățile de stocare partajate.

Figura 6: Partiții de unitate cu litere atribuite

  1. La sfârșitul procedurii, fereastra snap Managementul calculatorului ar trebui să arate ca Figura 6. Închideți clapeta Managementul calculatorului.
  1. Faceți clic pe butonul start, Selectați Programe / Standardși rulați programul Caiet".
  2. Tastați câteva cuvinte și salvați fișierul cu un nume test.txt prin alegerea comenzii Salvează ca din meniu Fişier. închide Caiet.
  3. Faceți dublu clic pe pictogramă Documentele mele.
  4. Faceți clic dreapta pe fișier test.txt iar în meniul contextual selectați comanda Copie.
  5. Inchide geamul.
  6. Deschis Calculatorul meu.
  7. Faceți dublu clic pe partiția de disc a dispozitivului de stocare partajat.
  8. Faceți clic dreapta și selectați comanda Introduce.
  9. O copie a fișierului ar trebui să apară pe unitatea de stocare partajată test.txt.
  10. Faceți dublu clic pe fișier test.txt pentru a-l deschide dintr-o unitate de stocare partajată. Închideți fișierul.
  11. Evidențiați fișierul și apăsați tasta Del pentru a elimina fișierul de pe discul cluster.

Repetați procedura pentru toate discurile din cluster pentru a vă asigura că sunt accesibile de la primul nod.

Acum opriți primul nod, porniți al doilea nod și repetați pașii secțiunii Verificarea funcționării și partajarea discurilor. Urmați aceiași pași pentru toate nodurile suplimentare. După ce ați verificat că toate nodurile pot citi și scrie informații pe discurile de stocare partajate, opriți toate, cu excepția primului nod, și treceți la secțiunea următoare.

Top articole similare