Home Lab 101 - Storage Hardware

Door whocarez op zondag 2 januari 2011 19:13 - Reacties (6)
Categorie: Home Lab 101, Views: 5.017

Het is alweer een flinke poos geleden dat ik aan het bloggen ben geweest. In mijn laaste post had ik nog als openstaande puntje staan storage voor me nieuwe lab omgeving.

Na flink wat research heb ik de volgende dingen op een rij gezet en me keuzes gemaakt.

De Storage Controller

- Hp Ml115 onboard storage Controller
Het grootste nadeel van de HP onboard controller is dat het softwarematige raid oplossing is. Hierdoor heb je geen redundancy of mogelijkheden om hoge I/O loads te kunnen faciliteren. Het uitbreiden van luns is vaak wel mogelijk binnen de hypervisor of middels mount points in het OS.
De optie valt voor mij eigenlijk al af. Wel is dit uitermate geschikt voor het opslaan van iso's en installatie bestanden welke geen eisen stellen aan de disk.

- Del perc 5/I
Zeer gewilde kaart in de de home server omgevingen. Kaart is vaak al te krijgen voor 100 euro met 256mb battery cache. Super kaart maar op moment van aanschaf was er gewoon niet aan te komen.

- Hp Smart Array P400
Performance technisch is de p400 iets trager als de perc5/i maar dan moet je je afvragen heb ik het wel nodig. Ook deze kaart is voor iets meer dan 100 euro te krijgen vaak al met een 512mb battery cache. Mocht er nog wat geld over zijn kan de p410 nog worden overwogen. Bij de p400 is het wel even opletten of de sas connectoren niet haaks op het board staan. Ander komen de kabels tegen de koeler van de cpu aan.

Uiteindelijk heb ik een Hp Smart Array controller op de kop kunnen tikken met 512mb cache erop. Wel is het zo dat je 2 speciale sas kabels moet kopen omdat je uiteindelijk 8 disken aan kan sturen op sata.

[b]De Harddisk[b]

- Sata, SAS
Onboard hebben we alleen de beschikking over sata. Echter door de aanschaf van de p400 hebben we nu ook de beschikking over sas. Omdat we nog steeds een home lab aan het bouwen zijn is sas in mijn beleven op dit moment over kill daarnaast is de prijs per gb nog te duur om ze intressant te maken.

green, blue, desktop, black of Raid editie
Omdat de schijven in raid draaien word er al heel snel gekeken naar de raid edities van de diverse HDD leveranciers. Dit omdat deze CCTL of TLER ondersteunen. Nou zijn de menigen verdeeld over deze optie en of je het nodig hebt ja of nee. Er zijn een aantal storage freaks die hier een hele studie van hebben gemaakt. Zo kwamen zijn er achter dat de optie vaak uitstaat maar wel weer aan is te zetten op de goedkopere schijven.

Om die reden ben ik uitgekomen op de hitachi deskstar schijven uitgekomen. Hierop kan je middels smartmontools TLER instakelen middels smartmontools en zo dus de kans op uitval in de raid array minimaliseren. Wel is na de reboot de setting weer verloren gegaan. Maar middels een live cd met een linux distributie is dit volledige te automatiseren wanneer een de server cold boot.

To Raid or to JBOD

- Raid just do it
Omdat we een raid controller kopen uit performance en eerste redundancy zijn we natuurlijk gek om het niet te gebruiken. Echter wel raid setup kiezen we. Gaan we voor raid 0/1/5/10/6/50/60
Zelf heb ik gekozen om in eerste instantie te kijken of raid 5 voldoende voor me is. Uit oogpunt van veiligheid zou ik zelf voor raid 6 kiezen. Echter met de dubbele penalty valt hij in me home lab af. Daarnaast als ik met 4 disken begin verlies ik gelijk 2tb aan storage en zou raid 10 wat sneller is een betere optie zijn.

- Jbod
Perfect voor alle ondersteunende taken. Zoals het aanbieden van iso's.

Om alles samen te vatten heb ik de volgende punten verzameld.
- Hp Smart Array p400 met 512mb cache (max 8x sata hdd)
- Raid5 configuration
- Hitachi deskstar 1Tb Hdd 4x
- Linux distro met smartmon tools welke geladen word bij een cold boot.

Voor de hitachi schijven heb ik er voor gekozen om een 24uur burn in test te doen op iedere schijf middels de tools van hitachi. Komt hij hier door kun je er eigenlijk vanuit gaan dat de disk goed is en niet snel problemen gaat geven. Van de 4 disken waren er 3 goed. De 4e gaf errors en heb ik terug kunnen sturen voor een replacement welke wel goed door de test kwam.

Volgende: No more Segoe 03-'11 No more Segoe
Volgende: Home Lab 101 - Basis Systeem 08-'10 Home Lab 101 - Basis Systeem

Reacties


Door Tweakers user dutch_warrior, zondag 2 januari 2011 21:37

Goede controller de p400 heb hem ook in mijn "nas" :P.
De p400 heeft ook niet de warmte problemen welke bij een perc5i soms voorkomen.
Raid 5 performance is aceptabel 4x seagate 7200.12 1TB gaan over de 150MBps read en write dus gigabit lan zou je volledig kunnen benutten, dit is onder Windows Server 2008r2.

Welk filesystem wil je eigenlijk gaan gebruiken ?
Software raid kan ook het overwegen waard zijn hoewel ik toch zelf liever een dedicated raid controller gebruik.

Door Tweakers user Blokker_1999, zondag 2 januari 2011 21:53

mierenneukmodus: raid0 is geen raid.

Zelf heb ik enkele jaren terug voor mezelf een raid 5 array gebouwd, doet het nog altijd (op een gecrashte controller na) . En performance is idd iets dat niet altijd het belangrijkste is.

Door Tweakers user whocarez, zondag 2 januari 2011 22:01

dutch_warrior schreef op zondag 02 januari 2011 @ 21:37:
Goede controller de p400 heb hem ook in mijn "nas" :P.
De p400 heeft ook niet de warmte problemen welke bij een perc5i soms voorkomen.
Raid 5 performance is aceptabel 4x seagate 7200.12 1TB gaan over de 150MBps read en write dus gigabit lan zou je volledig kunnen benutten, dit is onder Windows Server 2008r2.

Welk filesystem wil je eigenlijk gaan gebruiken ?
Software raid kan ook het overwegen waard zijn hoewel ik toch zelf liever een dedicated raid controller gebruik.
Welk file systeem ik ga gebruiken is even van me keuzes afhankelijk. Hoe ga ik me storage aanbieden aan me Vm's en welke hypervizor neem ik. Neem ik Vmware is het natuurlijk vmfs en waarschijnlijk met een emc celera vsa.

Zou ik voor xenserver kiezen kom ik of op een open filer uit vanaf een andere pc niet wenselijk of local storage middels lvm en ext.

zfs zou ook nog kunnen maar ook dan heb ik weer een extra machine nodig. Dus ik weet het nog niet al wijst alles wel zo'n beetje naar een vspher oplossing in combinatie met een emc cellera. Maar ik wil wel eerst de andere ook een kans geven.

Door Tweakers user merlijn85, zondag 2 januari 2011 22:10

Voor een thuis omgeving zou ik met VMware geen VMFS in gaan zetten, hoop overkill dat eigenlijk geen voordeel biedt. NFS is dan een veel betere keuze, en dan kan je op je storage doos beter kiezen wat voor onderliggend filesysteem het beste past bij je eisen/wensen.

ZFS op shared NFS storage is dan zeker een goeie keuze, hoewel uiteraard afhankelijk van de load die je op de storage genereerd. Uit mijn tests is iig gebleken dat desktop systemen (zowel unix als windows) een hele boel voordeel halen uit ZFS vanwege het grote aantal random writes. Die performance ga je niet eens benaderen met een VMFS over iscsi.

Door Tweakers user whocarez, zondag 2 januari 2011 22:14

Blokker_1999 schreef op zondag 02 januari 2011 @ 21:53:
mierenneukmodus: raid0 is geen raid.

Zelf heb ik enkele jaren terug voor mezelf een raid 5 array gebouwd, doet het nog altijd (op een gecrashte controller na) . En performance is idd iets dat niet altijd het belangrijkste is.
raid0 is inderdaad technisch gezien geen raid maar vanwege de gelijkheden met raid word het wel als raid vernoemd.

Door Tweakers user whocarez, zondag 2 januari 2011 22:17

merlijn85 schreef op zondag 02 januari 2011 @ 22:10:
Voor een thuis omgeving zou ik met VMware geen VMFS in gaan zetten, hoop overkill dat eigenlijk geen voordeel biedt. NFS is dan een veel betere keuze, en dan kan je op je storage doos beter kiezen wat voor onderliggend filesysteem het beste past bij je eisen/wensen.

ZFS op shared NFS storage is dan zeker een goeie keuze, hoewel uiteraard afhankelijk van de load die je op de storage genereerd. Uit mijn tests is iig gebleken dat desktop systemen (zowel unix als windows) een hele boel voordeel halen uit ZFS vanwege het grote aantal random writes. Die performance ga je niet eens benaderen met een VMFS over iscsi.
zfsis voor mij nog onbekend terrein en zal ik zeker gezien de goede ervaringen van iedereen meenemen in mijn onderzoek wat voor mij het beste werkt op me thuis omgeving.

Reageren is niet meer mogelijk