Kategorie:Bloková zařízení
Lokální bloková zařízení
RAID
RAID (Redundant Array of Inexpensive Disks) je technologie, která umožuje spojit několik fyzicky nezávislých disků do jednoho pole, které se pak navenek tváří jako disk jeden. Tím lze získat:
- zvýšení kapacity souborového systému v rámci jednoho blokového zařízení
- zvýšení výkonu při IO operacích
- v případě polí RAID 1 (a výš) zvýšení úrovně zabezpečení uložených dat bez extrémních pořizovacích nákladů, neboť díky redundanci minimalizují (v případě selhání jednoho z disků) pravděpodobnost ztráty uložených dat.
LVM
LVM (Logical Volume Management) je pružnější metodou správy diskového prostoru než RAID. Nevýhodou fyzických blokových zařízení (např. pevných disků) je obtížné přerozdělování volného místa po jejich prvotním rozdělení na diskové oddíly. LVM tento problém elegantně řeší přidáním logické vrstvy mezi fyzická média a operační systém. Tato logická vrstva umožňuje libovolně (pokud použitá zařízení podporují hotswap, tak i za chodu) přidávat (nebo odebírat) jiná bloková zařízení a tím podle potřeby měnit jak diskovou kapacitu tak řešit výměnu blokových zařízení, aniž by bylo nutné stroj restartovat. První verze LVM se v linuxovém jádře objevila roku 1998 (autorem byl Heinz Mauelshagen) a byla založena na LVM z HP-UX.
V čem je LVM výhodnější než RAID?
- Umožňuje sloučit do jednoho zařízení ( Volume Groups ) bloková zařízení bez ohledu na jejich velikost a typ. Tj. jak fyzické disky, tak virtuální disky připojené přes loop, nebo přes síťová bloková zařízení.
- Diskovou kapacitu logických blokových zařízení lze za běhu nejenom zvětšovat, ale také zmenšovat.
- Logická bloková zařízení lze za běhu přesouvat mezi blokovými zařízeními, takže lze v případě potřeby blokové zařízení ze skupiny odebrat za běhu, bez toho, že by došlo ke ztrátě dat.
- LVM podporuje snapshot blokových zařízení
Síťová bloková zařízení
- lze s nimi pracovat jako s lokáními blokovými zařízeními
- pokud nejsou součástí síťového souborového systému, umožňují mount pouze v jednom přístupovém bodě
I když jde z hlediska připojení o klasickou komunikaci klient - server, používá se u těchto technologií pro pojmenování koncových bodů terminologie, která vychází z logiky fungování fyzických blokových zařízení.
- server
- (Target) je na straně, kde jsou skutečně uložená data, což je fyzický disk, resp. diskové pole.
- klient
- (Initiator) je na straně, kde se předávají data operačnímu systému, který na jejich základě vytvoří příslušná bloková zařízení, což odpovídá fyzickému zařízení (řadiči) ke kterému je disk připojen. Síťový protokol defakto funguje coby virtuální kabel.
NBD
Network Block Device je specificky linuxová technologie síťového sdílení blokových zařízení, postavená na konceptu klient/server, kterou začal programovat Pavel Machek v dubnu 1997.
Aplikace
Původní implementace NBD byla velmi jednoduchá a měla svá omezení. Proto vzniklo postupem času několik forků, které se snažily její možnosti dále rozšířit a vylepšit. Její vývoj však stále probíhá a tak vývoj těchto forků časem byl ukončen, neboť vlastnosti kterými se odlišovaly byly postupně implementovány.
Kupř. vývoj ENBD (Enhanced Network Block Device), které vylepšovalo přístup ke vzdálenému blokovému zařízení probíhal od prosince 2001 do listopadu 2002 a skončil přechodem na kernel řady 2.6.
Dalším forkem, který zůstal pro svou úzkou specializaci omezen prakticky pouze na jednu distribuci bylo GNBD ( GFS Network Block Device) od Red Hatu. Šlo v podstatě o NBD optimalizované pro použití s clusterovým souborovým systémem GFS2 a podporou připojení několika klientských aplikací k jednomu serveru najednou. (Původní NBD aplikace umožňovala připojit k jedné instanci serveru pouze jednoho klienta).
Jen pro úplnost bych zmínil ještě DNBD (Distributed Network Block Device) což zase byla read-only implementace NBD pro použití u bezdiskových klientských stanic, jejíž vývoj probíhal od dubna 2008 do června 2009.
Prozatím poslední samostatnou implementací NBD je xNBD, které rozšiřuje původní koncept o možnost provádět na straně serveru živou migraci blokových zařízení zároveň s migrací běžících virtuálních strojů mezi fyzickými stroji skrze WAN. To je prozatím nejvýznamnější vlastnost, která ještě není do původní vývojové větve NBD aplikací nějakým způsobem implementována.
iSCSI
iSCSI je síťová varianta (internet) SCSI protokolu (internet Small Computer System Interface), která patří do rodiny IPS protokolů - (Internet Protocol Storage), což jsou protokoly navržené pro připojení připojení datového úložiště přes internetovou síť.
Od SCSI, kterým se připojují zařízení přímo na sběrnici počítače se liší absencí obslužné části pro fyzickou vrstvu. Využívá se pouze přenosový protokol, jehož pakety jsou zapouzdřeny do protokolu TCP/IP.
Distribuovaná bloková zařízení
DRBD
Distribuovaně replikované blokové zařízení - DRBD (Distributed Replicated Block Device), zajišťuje v podstatě softwarový RAID1 po síti. Používá se ve spojení se službou heartbeat pro tzv. HA clustery (zkratka znamená High Availability - vysoká dostupnost).
Na jednotlivých nodech (uzlech) HA clusteru běží démon heartbeat, který zajišťuje, že je blokové zařízení k dispozici vždy pod stejnou IP adresou služby (Service IP). V případě, že uzel, který původně fungoval jako MASTER, vypadne, provede heartbeat přehození IP služby na stroj fungující původně jako SLAVE.
DRBD zařízení lze skládat z jiných blokových zařízení. A to jak fyzických, tak logických diskových oddílů z LVM.
sheepdog
Sheepdog je škálovatelný systém, který poskytuje virtuálním strojům distribuovaná bloková zařízení. Za jeho vývojem, který začal v r. 2009, stojí vývojáři japonské firmy Nippon Telegraph and Telephone Corporation. Sheepdog je opensource aplikace s GPL2 licencí. Zatím poslední verzi 0.9.3, vydanou v listopadu 2015, by měla následovat verze 1.0 použitelná i pro komerční nasazení[1].
CEPH
- REDIRECT Ceph
- ↑ Viz informace v závěru prezentace z června 2015 http://events.linuxfoundation.jp/sites/events/files/slides/COJ2015_Sheepdog_20150604.pdf