既存のdebianパーティションをLVM on ソフトウェアRAID1へ移行した時の手順。
作業準備
移行前のディスク情報とパーティション
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 |
hda: IC35L090AVV207-0, ATA DISK drive Using anticipatory io scheduler ide0 at 0x1f0-0x1f7,0x3f6 on irq 14 hda: max request size: 1024KiB hda: 160836480 sectors (82348 MB) w/1821KiB Cache, CHS=16383/255/63, UDMA(100) /dev/ide/host0/bus0/target0/lun0: p1 p2 p3 Disk /dev/hda: 82.3 GB, 82348277760 bytes 255 heads, 63 sectors/track, 10011 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/hda1 * 1 1216 9767488+ 83 Linux /dev/hda2 1217 1338 979965 82 Linux swap / Solaris /dev/hda3 1339 10011 69665872+ 8e Linux LVM bar:~$ df Filesystem 1K-blocks Used Available Use% Mounted on /dev/hda1 9614116 8786116 730328 93% / tmpfs 778100 4 778096 1% /dev/shm /dev/mapper/vol1-vmware 20642428 11677940 8754776 58% /home/vmware /dev/mapper/vol1-annex_mirror 41284928 20437992 20427508 51% /mirror/annex /dev/mapper/vol1-blackbox_os_mirror 6644056 32860 6543696 1% /mirror/blackbox_os tmpfs 10240 720 9520 8% /dev bar:/# du -s *|sort -n 0 cdrom 0 initrd.img 0 initrd.img.old 0 sys 0 vmlinuz 0 vmlinuz.old 4 initrd 4 mnt 4 srv 8 media 20 mnt2 48 lost+found 312 tmp 836 dev 3364 bin 3592 sbin 14888 opt 34244 etc 44944 root 48316 boot 200932 lib 922489 proc 1705252 var 4024076 usr 14311168 home 19983844 mirror bar:/# |
作業項目
IDE HDD2をhdcとしてセカンダリマスターで接続
RAID1の信頼性向上のため、各ディスクはプライマリマスタ/セカンダリマスタへ1台づつ接続。
非RAIDの既存ディスクから移行するため、1台づつ設定を行う。
まずはセカンダリI/Fに IC35L120AVVA07-0 (123GB) をセカンダリのマスターとして接続。
このドライブは/dev/hdcとして認識される。
KNOPPIXでブート
既存ディスクから新ディスクへパーティションを移行させるため、以降の
作業はKNOPPIX上にて作業を進める。CDドライブにKNOPPIXディスクを入れて再起動する。ちなみに使用したKNOPPIXはバージョン4.0。
データ移行の作業効率をあげるため、ブート時のプロンプトで
1 |
boot: knoppix dma noswap |
として、HDDのDMAモード化とHDDスワップ使用の無効化のチートコードを指定した。
今回の作業PCがメモリ1.5Gのため noswap指定をしたが、メモリが少ない場合は指定を外した方がよいかもしれない。
KNOPPIXでLVMを有効化
KNOPPIXでブートしてさらにLVMを使えるよう設定。
LVM有効化は「KNOPPIXをLVMレスキューCDとして使う」を参考に設定。
hdcパーティション設定
追加したhdcに対してパーティションの設定を行う。RAID1+LVMの構成と
するので、RAIDパーティションとswapのみ作成。
こんな感じにしてみた。
1 2 3 4 5 6 7 8 |
Disk /dev/hdc: 123.5 GB, 123522416640 bytes 255 heads, 63 sectors/track, 15017 cylinders Units = シリンダ数 of 16065 * 512 = 8225280 bytes デバイス Boot Start End Blocks Id System /dev/hdc1 1 32 257008+ fd Linux raid 自動検出 /dev/hdc2 33 801 6176992+ 82 Linux swap / Solaris /dev/hdc3 802 15017 114190020 fd Linux raid 自動検出 |
hdcでRAID1設定(hdcのみの片肺運転)
sargeからRAID関連の設定はraidtoolからmdadmコマンドになった。
既存ドライブからデータを吸い上げるまでは片肺運転となるため、hdcのみでRAID1デバイスを作成。
今回はhdc1,hdc3をそれぞれmd0,md1としてセットアップすることに。
md0,md1デバイス設定
- RAIDデバイスの作成
「–force」 オプションはシングルでRAID1デバイスを作成するために必要
1 2 3 4 5 6 7 |
root@0[bin]# mdadm --create --auto=yes /dev/md0 --level=1 --force --raid-devices=1 /dev/hdc1 mdadm: /dev/hdc1 appears to contain an ext2fs file system size=120624020K mtime=Sun Oct 30 11:40:29 2005 Continue creating array? y mdadm: array /dev/md0 started. root@0[~]# mdadm --create --auto=yes /dev/md1 --level=1 --force --raid-devices=1 /dev/hdc3 mdadm: array /dev/md1 started. |
- デバイスの定義を/etc/mdadm/mdadm.conf に追加。
1 2 |
DEVICE /dev/hdc1 DEVICE /dev/hdc3 |
- 作成したRAIDデバイスを/etc/mdadm/mdadm.conf に設定追加
mdadmコマンドで認識されたデバイス情報を確認。
1 2 3 4 5 |
root@0[~]# mdadm -E --scan ARRAY /dev/md1 level=raid1 num-devices=1 UUID=0976bdbd:7d405aaa:43109230:22d5a175 devices=/dev/hdc3 ARRAY /dev/md0 level=raid1 num-devices=1 UUID=e677b2b1:cb14a7cc:f33adc52:d18b6757 devices=/dev/hdc1 |
- 確認したデバイス情報を/etc/mdadm/mdadm.conf に追加する。
1 |
root@0[~]# mdadm -E --scan >> /etc/mdadm/mdadm.conf |
- /etc/mdadm/mdadm.conf のARRAY行にauto=yesを追加
1 2 3 4 5 6 |
DEVICE /dev/hdc1 ARRAY /dev/md0 level=raid1 num-devices=1 auto=yes UUID=e677b2b1:cb14a7cc:f33adc52:d18b6757 devices=/dev/hdc1 DEVICE /dev/hdc3 ARRAY /dev/md1 level=raid1 num-devices=1 UUID=0976bdbd:7d405aaa:43109230:22d5a175 devices=/dev/hdc3 |
- 構成したmdデバイスを有効にする
1 2 3 4 5 6 7 8 9 10 11 12 13 |
mdadm --assemble --scan root@2[~]# cat /proc/mdstat Personalities : [raid1] md1 : active raid1 hdc3[0] 114189952 blocks [1/1] [U] md0 : active raid1 hdc1[0] 256896 blocks [1/1] [U] unused devices: <none> root@2[~]# </none> |
LVMデバイス設定
LVMボリューム設定
- PV(物理ボリューム)設定
1 2 3 4 |
root@0[~]# /lib/lvm-200/pvcreate /dev/md0 Physical volume "/dev/md0" successfully created root@0[~]# /lib/lvm-200/pvcreate /dev/md1 Physical volume "/dev/md1" successfully created |
- VG(ボリュームグループ)設定
ここではsys-vg、user-vgの名前でVolumeGroupを作成した。
1 2 3 4 5 6 |
root@0[~]# /lib/lvm-200/vgcreate sys-vg /dev/md0 /etc/lvm/backup: fsync failed: 無効な引数です Volume group "sys-vg" successfully created root@0[~]# /lib/lvm-200/vgcreate user-vg /dev/md1 /etc/lvm/backup: fsync failed: 無効な引数です Volume group "user-vg" successfully created |
- LV(論理的グループ)設定
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
root@0[~]# /lib/lvm-200/lvcreate sys-vg -n lvroot -L 248M /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvroot" created root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvusr -L 4G /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvusr" created root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvusr2 -L 4G /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvusr2" created root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvvar -L 4G /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvvar" created root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvhome -L 40G /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvhome" created root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvvmware -L 20G /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvvmware" created |
LVMボリュームを削除したい場合は
名前を変えたいとかで削除したい場合は、lvremoveコマンドを使用する
1 |
/lib/lvm-200/lvremove /dev/vgの名前/lvの名前 # < -- 自分の場合に合わせて名前を変更してください) |
最初からやり直す場合は、
– 論理ボリューム削除 (lvremove /dev/vgの名前/lvの名前)
– ボリュームグループ削除 (vgremove vgの名前)
– 物理グループ削除 (pvremove デバイス名)
の順で削除をおこなう
mdデバイスを削除したい場合は
/dev/md0を例にとると
– デバイスを停止させる
1 |
mdadm --stop /dev/md0 |
- デバイスを削除する
1 |
mdadm -r /dev/md0 |
元ディスク側のLVMボリュームを認識させる
1 2 3 4 5 6 7 |
root@2[~]# /lib/lvm-200/lvscan inactive '/dev/vol1/vmware' [20.00 GB] inherit inactive '/dev/vol1/annex_mirror' [40.00 GB] inherit inactive '/dev/vol1/blackbox_os_mirror' [6.44 GB] inherit ACTIVE '/dev/user-vg/lvusr' [4.00 GB] inherit ACTIVE '/dev/user-vg/lvusr2' [4.00 GB] inherit ACTIVE '/dev/sys-vg/lvroot' [248.00 MB] inherit |
全てACTIVEなら次へ。
inactiveになっているボリュームがあったら、lvchangeコマンドを使用して有効化する。
1 2 3 |
root@2[~]# /lib/lvm-200/lvchange -ay /dev/vol1/vmware root@2[~]# /lib/lvm-200/lvchange -ay /dev/vol1/annex_mirror root@2[~]# /lib/lvm-200/lvchange -ay /dev/vol1/blackbox_os_mirror |
新たに作成したLVMボリュームをフォーマット
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 |
root@1[~]# mke2fs -j /dev/sys-vg/lvroot mke2fs 1.38 (30-Jun-2005) Filesystem label= OS type: Linux Block size=1024 (log=0) Fragment size=1024 (log=0) 63488 inodes, 253952 blocks 12697 blocks (5.00%) reserved for the super user First data block=1 31 block groups 8192 blocks per group, 8192 fragments per group 2048 inodes per group Superblock backups stored on blocks: 8193, 24577, 40961, 57345, 73729, 204801, 221185 Writing inode tables: done Creating journal (4096 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 21 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. root@1[~]# mke2fs -j /dev/user-vg/lvusr mke2fs 1.38 (30-Jun-2005) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) 524288 inodes, 1048576 blocks 52428 blocks (5.00%) reserved for the super user First data block=0 32 block groups 32768 blocks per group, 32768 fragments per group 16384 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 30 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. root@1[~]# mke2fs -j /dev/user-vg/lvusr2 mke2fs 1.38 (30-Jun-2005) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) 524288 inodes, 1048576 blocks 52428 blocks (5.00%) reserved for the super user First data block=0 32 block groups 32768 blocks per group, 32768 fragments per group 16384 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 31 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. root@1[~]# mke2fs -j /dev/user-vg/lvvar mke2fs 1.38 (30-Jun-2005) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) 524288 inodes, 1048576 blocks 52428 blocks (5.00%) reserved for the super user First data block=0 32 block groups 32768 blocks per group, 32768 fragments per group 16384 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 31 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. root@1[~]# mke2fs -j /dev/user-vg/lvhome mke2fs 1.38 (30-Jun-2005) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) 5242880 inodes, 10485760 blocks 524288 blocks (5.00%) reserved for the super user First data block=0 320 block groups 32768 blocks per group, 32768 fragments per group 16384 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 21 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. |
ターゲットディスク側のLVMボリュームを/target にマウント
元ディスク側では /home以下を除いて全て単一パーティションだったため、今回 /usr /var /home を別パーティションとし、ルートパーティションのスリム化のため、/usr/share /usr/src /lib をシンボリックリンクで /usr2 パーティションに逃すことにした。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 |
mkdir /target mount /dev/sys-vg/lvroot /target/ mkdir /target/usr mount /dev/user-vg/lvusr /target/usr/ mkdir /target/var mount /dev/user-vg/lvvar /target/var/ mkdir /target/home mount /dev/user-vg/lvhome /target/home mkdir /target/home/vmware mount /dev/user-vg/lvvmware /target/home/vmware mkdir /target/usr2 mount /dev/user-vg/lvusr2 /target/usr2 cd /target mkdir /target/home/root ln -s /target/home/root . mkdir /target/usr2/root-boot ln -s /target/usr2/root-boot/ boot mkdir /target/usr2/root-lib ln -s /target/usr2/root-lib/ lib mkdir /target/usr2/usr-src ln -s /target/usr2/usr-src usr/src mkdir /target/usr2/usr-share ln -s /target/usr2/usr-share usr/share mkdir /target/usr2/usr-local ln -s /target/usr2/usr-local usr/local root@3[target]# ls -l 合計 28 lrwxrwxrwx 1 root root 23 2005-11-02 23:17 boot -> /target/usr2/root-boot/ drwxr-xr-x 5 root root 4096 2005-11-02 23:17 home lrwxrwxrwx 1 root root 22 2005-11-02 23:17 lib -> /target/usr2/root-lib/ drwx------ 2 root root 12288 2005-11-02 23:11 lost+found lrwxrwxrwx 1 root root 17 2005-11-02 23:17 root -> /target/home/root drwxr-xr-x 3 root root 4096 2005-11-02 23:17 usr drwxr-xr-x 7 root root 4096 2005-11-02 23:17 usr2 drwxr-xr-x 3 root root 4096 2005-11-02 23:12 var root@3[target]# ls -l usr 合計 16 lrwxrwxrwx 1 root root 22 2005-11-02 23:17 local -> /target/usr2/usr-local drwx------ 2 root root 16384 2005-11-02 23:12 lost+found lrwxrwxrwx 1 root root 22 2005-11-02 23:17 share -> /target/usr2/usr-share lrwxrwxrwx 1 root root 20 2005-11-02 23:17 src -> /target/usr2/usr-src root@3[target]# ls -l usr2 合計 40 drwx------ 2 root root 16384 2005-11-02 23:12 lost+found drwxr-xr-x 3 root root 4096 2005-11-02 23:26 root-boot drwxr-xr-x 2 root root 4096 2005-11-02 23:28 root-lib drwxr-xr-x 9 root root 4096 2005-11-02 23:26 usr-local drwxr-xr-x 258 root root 8192 2005-11-02 23:26 usr-share drwxr-xr-x 13 root root 4096 2005-11-02 23:26 usr-src |
元ディスクから新ディスクへレストア
ようやく準備が整ったので、dumpコマンドとrestoreコマンドを使ってデータ移行に入る。40分ほどで終了した。
1 2 3 4 5 6 |
root@2[target]# (cd /target; dump 0uf - /dev/hda1|restore rf -); \ sync;echo '**FINISHED restore /dev/hda1'>/dev/console;date>/dev/console; \ (cd /target/home; dump 0uf - /dev/vol1/annex_mirror |restore rf -); \ sync;echo 'FINISHED restore /dev/vol1/annex_mirror'>/dev/console;date>/dev/console; \ (cd /target/home/vmware; dump 0uf - /dev/vol1/vmware |restore rf -); \ sync;echo 'FINISHED restore /dev/vol1/vmware'>/dev/console;date>/dev/console;df;sync |
参考URL
Debian WoodyでSoftware RAIDを使いraid1を作る
UNIX02/Install Knoppix On A Software RAID
ブートディスクをソフトウェア RAID 1 (ミラーリング) に構成する際の注意
Installing with Software RAID or LVM
[Xen-devel] Debian Sarge Root Raid + LVM + XEN install guide (LONG)
HOWTO Clone Disk Images on Linux Booted from a Network
mdadmコマンドの参考URL
- ディスクをRAIDにする
http://www.s-me.co.jp/ipnuts/ipnuts41/server/ch02s02.html - F.3. RAID ベース及びマルチパスのストレージを設定するのに mdadm を使用する
http://www.redhat.com/docs/manuals/enterprise/RHEL-4-Manual/ja/s390-multi-install-guide/s1-s390info-raid.html - Sarge RAID1設定でハードディスク交換
http://h2np.net/tips/mdadm.htm -
mdadm(8) ver.1.0 man page [日本語]
http://www.ioss.jp/sohodiy/mdadm8.html -
[linux-lvm] Updated lvm2create_initrd
https://www.redhat.com/archives/linux-lvm/2004-April/msg00086.html
インストールtest
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 |
Disk /dev/hda: 80.0 GB, 80026361856 bytes 255 heads, 63 sectors/track, 9729 cylinders Units = シリンダ数 of 16065 * 512 = 8225280 bytes デバイス Boot Start End Blocks Id System /dev/hda1 * 1 9 72261 fd Linux raid 自動検出 /dev/hda2 10 43 273105 fd Linux raid 自動検出 /dev/hda3 44 105 498015 82 Linux swap / Solaris /dev/hda4 106 9729 77304780 fd Linux raid 自動検出 コマンド (m でヘルプ): q root@0[~]# mdadm --create --auto=yes /dev/md0 --level=1 --force --raid-devices=1 /dev/hda 1 mdadm: array /dev/md0 started. root@0[~]# mdadm --create --auto=yes /dev/md1 --level=1 --force --raid-devices=1 /dev/hda2 mdadm: array /dev/md1 started. root@0[~]# mdadm --create --auto=yes /dev/md2 --level=1 --force --raid-devices=1 /dev/hda4 mdadm: /dev/hda4 appears to be part of a raid array: level=1 devices=1 ctime=Fri Nov 18 22:06:13 2005 Continue creating array? yes mdadm: array /dev/md2 started. root@0[~]# mdadm -E --scan ARRAY /dev/md2 level=raid1 num-devices=1 UUID=2504765d:5c056d53:38089e40:77fece62 devices=/dev/hda4 ARRAY /dev/md1 level=raid1 num-devices=1 UUID=84a66c8c:cf638b9e:3d3ba46e:e2290ad9 devices=/dev/hda2 ARRAY /dev/md0 level=raid1 num-devices=1 UUID=6e923bf4:ccbd37a0:accf7e16:a8152c2f devices=/dev/hda1 root@0[~]# mdadm -E --scan >> /etc/mdadm/mdadm.conf root@0[~]# vi /etc/mdadm/mdadm.conf root@0[~]# cat /proc/mdstat Personalities : [raid1] md2 : active raid1 hda4[0] 77304704 blocks [1/1] [U] md1 : active raid1 hda2[0] 273024 blocks [1/1] [U] md0 : active raid1 hda1[0] 72192 blocks [1/1] [U] unused devices: <none> root@0[~]# mkdir /target root@0[~]# /lib/lvm-200/pvcreate /dev/md1 Physical volume "/dev/md1" successfully created root@0[~]# /lib/lvm-200/pvcreate /dev/md2 Incorrect metadata area header checksum Incorrect metadata area header checksum Incorrect metadata area header checksum Physical volume "/dev/md2" successfully created root@0[~]# root@0[~]# /lib/lvm-200/pvs pvs pvscan root@0[~]# /lib/lvm-200/pvscan PV /dev/md1 lvm2 [266.44 MB] PV /dev/md2 lvm2 [73.72 GB] Total: 2 [73.98 GB] / in use: 0 [0 ] / in no VG: 2 [73.98 GB] root@0[~]# /lib/lvm-200/vgcreate sys-vg /dev/md1 /etc/lvm/backup: fsync failed: 無効な引数です Volume group "sys-vg" successfully created root@0[~]# root@0[~]# /lib/lvm-200/lvcreate sys-vg -n lvroot -L 264M /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvroot" created root@0[~]# root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvusr -L 4G /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvusr" created root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvvar -L 4G /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvvar" created root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvhome -L 40G /etc/lvm/backup: fsync failed: 無効な引数です /etc/lvm/backup: fsync failed: 無効な引数です Logical volume "lvhome" created root@0[~]# root@0[~]# mke2fs -j /dev/sys-vg/lvroot mke2fs 1.38 (30-Jun-2005) Filesystem label= OS type: Linux Block size=1024 (log=0) Fragment size=1024 (log=0) 67584 inodes, 270336 blocks 13516 blocks (5.00%) reserved for the super user First data block=1 33 block groups 8192 blocks per group, 8192 fragments per group 2048 inodes per group Superblock backups stored on blocks: 8193, 24577, 40961, 57345, 73729, 204801, 221185 Writing inode tables: done Creating journal (8192 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 33 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. root@0[~]# root@0[~]# mke2fs -j /dev/user-vg/lvusr mke2fs 1.38 (30-Jun-2005) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) 524288 inodes, 1048576 blocks 52428 blocks (5.00%) reserved for the super user First data block=0 32 block groups 32768 blocks per group, 32768 fragments per group 16384 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 31 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. root@0[~]# root@0[~]# mke2fs -j /dev/user-vg/lvhome mke2fs 1.38 (30-Jun-2005) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) 5242880 inodes, 10485760 blocks 524288 blocks (5.00%) reserved for the super user First data block=0 320 block groups 32768 blocks per group, 32768 fragments per group 16384 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 27 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. root@0[~]# root@0[~]# mount -t ext3 /dev/sys-vg/lvroot /target root@0[~]# mkdir /target/usr root@0[~]# mkdir /target/var root@0[~]# mount -t ext3 /dev/user-vg/lvusr /target/usr root@0[~]# mount -t ext3 /dev/user-vg/lvvar /target/var root@0[~]# mkdir /target/home root@0[~]# mount -t ext3 /dev/user-vg/lvhome /target/home root@0[~]# root@0[~]# mkdir /target/home/lib root@0[~]# mkdir /target/home/boot root@0[~]# cd /target/ root@0[target]# ln -s home/lib . root@0[target]# ln -s home/boot . root@0[target]# root@0[target]# mkdir home/root root@0[target]# ln -s home/root . root@0[target]# ls -l 合計 24 lrwxrwxrwx 1 root root 9 2005-11-21 00:25 boot -> home/boot drwxr-xr-x 6 root root 4096 2005-11-21 00:31 home lrwxrwxrwx 1 root root 8 2005-11-21 00:25 lib -> home/lib drwx------ 2 root root 12288 2005-11-21 00:15 lost+found lrwxrwxrwx 1 root root 9 2005-11-21 00:32 root -> home/root drwxr-xr-x 3 root root 4096 2005-11-21 00:16 usr drwxr-xr-x 3 root root 4096 2005-11-21 00:18 var root@0[target]# sync root@0[target]# root@0[target]# (dump 0uf - /dev/hdc1|restore rf -);sync;date DUMP: Date of this level 0 dump: Mon Nov 21 00:37:35 2005 DUMP: Dumping /dev/hdc1 (/mnt/hdc1) to standard output DUMP: Label: / DUMP: Writing 10 Kilobyte records DUMP: mapping (Pass I) [regular files] DUMP: mapping (Pass II) [directories] DUMP: estimated 1536187 blocks. DUMP: Volume 1 started with block 1 at: Mon Nov 21 00:37:50 2005 DUMP: dumping (Pass III) [directories] DUMP: dumping (Pass IV) [regular files] restore: ./lost+found: File exists restore: ./home: File exists restore: ./var: File exists restore: ./usr: File exists restore: ./boot: File exists restore: ./lib: File exists restore: ./root: File exists DUMP: 71.81% done at 3677 kB/s, finished in 0:01 DUMP: Volume 1 completed at: Mon Nov 21 00:44:37 2005 DUMP: Volume 1 1555860 blocks (1519.39MB) DUMP: Volume 1 took 0:06:47 DUMP: Volume 1 transfer rate: 3822 kB/s DUMP: 1555860 blocks (1519.39MB) DUMP: finished in 407 seconds, throughput 3822 kBytes/sec DUMP: Date of this level 0 dump: Mon Nov 21 00:37:35 2005 DUMP: Date this dump completed: Mon Nov 21 00:44:37 2005 DUMP: Average transfer rate: 3822 kB/s DUMP: DUMP IS DONE 2005年 11月 21日 月曜日 00:45:07 JST root@0[target]# </none> |