2010-06-14

something about ZFS

由於 FreeBSD 8.1 Release 確定會加入 ZFS v14, 加上 FreeNAS 新版並不相容舊版的設定, 而且目前硬碟容量也到了擴充的時候, 於是開始研究一下 ZFS 目前的發展狀況.

ZFS 的特徵就是 pool 這個概念, 依照 google 之後所得的一些測試狀況來看, 在 1 個 pool 有 2 組 mirror 時, 用起來有點像是 raid10 和 JBOD 兩者合體, 加上有硬碟故障時會優先選擇還在正常運作的mirror 來儲存資料, 這點比起單純的 raid10 方便同時也安全了一點, 反而 raidz1/raidz2/raidz3 就沒有這種好處(而且我也沒有閒到搞個多組 raidz 進一個 pool.) 至於問題面則是 ZFS 對於 RAM 的需求量很大, 而且 OS 最好使用 64bit 版本, 這對於 RAM 並不算多的 NAS 來說有點困難, 另外就是 FreeBSD 的 ZFS 在 random access 時 I/O 速度並不怎麼好(不過以我對 NAS 的使用情形來說, 這並不是問題就是了). 另外就是 snapshot 功能, 沒用過不知道是不是真的那麼好用...至於 iSCSI 那是論外, 因為用了 iSCSI 以後 snapshot 就等於沒用了, 所以應該還是用 CIFS/NFS 為主力.

不過目前還是經濟拮据, 等有錢換硬碟再來慢慢試...

Update:
不過講到硬碟又有一個問題了... 現在 WD 已經開始使用 advanced format (4K block), 問題是 WD 硬碟的 firmware 還是回報 512K block 給系統, 主要的轉換還是由韌體作掉, 這種狀況下嚴重影響 I/O 效率, 所以必須要另外用 geom_nop 設定 virtual device 的 sector size 後再給 ZFS 用, 這實在太麻煩了...

所以在 WD 的硬碟會據實以報 4K sector 之前, 還是先不要買 WD 的硬碟好了.

沒有留言:

張貼留言

VMware ESXi 遠端線上升級 (upgrade from 6.0 to 6.5 with esxcli)

原本想說 ESXi 6.0 跑得好好的沒什麼問題, 上面的 FreeBSD 11.x 也順順跑, 沒想到升級到 12.x 就踩到大地雷... ESXi 6.0 的 vmxnet3 沒辦法在 FreeBSD 12.x上面用,升級上去以後回應時間會爆炸, 從本來的 〈1ms 變成 ...