安装磁盘阵列, 并配置 ZFS raid6

当 debian 系统正常被安装到 SSD 之后, 把它从台式机上面卸下来, 然后安装到 Gen8 服务器的光驱位置. 当然, 这个需要先把 Gen8 的外壳打开, 在服务器的后面, 有两个 蓝色的旋扭, 把它们拧开之后, 稍微用力向后拉服务器的外壳, 应该就可以顺利把它打开了.

连接 SSD 的 SATA 接口是要接到主板上预留的一个 SATA 接口, 电源线要接到服务器 顶部的有四个接口的电源输出线上.

之后用 VGA 线缆连接 Gen8 服务器和显示器.

通电, 等主板自检完成之后, 按 F9 进入 BIOS 设置. 我们要关闭服务器自带的 RAID Controller, 把硬盘模式从 Array 改为 AHCI 模式. 然后修改启动顺序, 把硬盘启动放到第一个. 然后退出, 按 F10 保存设置.

机器重启后, 应该就可以正常读取 SSD 上面的 GRUB 了. 使用刚刚创建的用户登录 系统.

安装磁盘阵列

把服务器前面板上面的 4 个硬盘盒取出来, 移除盒子里面的两块金属板, 然后将 3.5 寸的机械硬盘固定到硬盘盒里.

为了尽可能避免硬盘固件问题, 4 块硬盘中, 希捷和西部数据各两块.

依次将硬盘盒装回到服务器上, 之后在终端里, 使用 lsblk 命令应该就可以 看到刚刚插入的 4 块新硬盘.

创建 ZFS pool

之所以选择 RAID6 模式, 是因为这种模式对数据的安全有足够的保障, 比 RAID5 更进一步, 有两次数据校验, 在 4 块盘中有两块不可使用了的情况下仍然可以保证 数据的完整性.

现在先创建 zpool:

# zpool create -f raidz2 sdb sdc sdd sde

这里, 加入 -f 选项, 是为了避免 EFI label error 问题.

也可以在创建时指定卷名及挂载点:

# zpool create -f -m /mnt/data data raidz2 sdb sdc sdd sde

顺利的话, 可以用 zfs list, zpool status 以及 lsblk 命令来查看新的状态了.

创建 ZFS 文件系统

假设上一步创建的 zfs pool 的名称是默认的 poolz2, 现在要在它里面创建新的文件系统. 可以根据需要的服务类型创建不同的挂载点, 比如 gitlab, nextcloud, docker 以及私有目录.

# zfs create poolz2/git
# zfs create poolz2/cloud
# zfs create poolz2/docker
# zfs create poolz2/private

然后用 df -h 命令就可以查看刚刚创建的新的挂载点了.

参考