多分これでいいはず。。。
raidを組むHDDはsdd1とsdc1 どちらも1T
[code lang=text] <br />[root@n54l ~]# fdisk -l
ディスク /dev/sdb: 1000.2 GB, 1000204886016 バイト ヘッド 255, セクタ 63, シリンダ 121601 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 512 バイト I/O size (minimum/optimal): 512 bytes / 512 bytes ディスク識別子: 0x86853b9f
デバイス ブート 始点 終点 ブロック Id システム /dev/sdb1 1 121601 976760001 83 Linux
ディスク /dev/sdc: 1000.2 GB, 1000204886016 バイト ヘッド 255, セクタ 63, シリンダ 121601 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 512 バイト I/O size (minimum/optimal): 512 bytes / 512 bytes ディスク識別子: 0x00000000
ディスク /dev/sda: 2000.4 GB, 2000398934016 バイト ヘッド 255, セクタ 63, シリンダ 243201 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト I/O size (minimum/optimal): 4096 bytes / 4096 bytes ディスク識別子: 0xa6980d8f
デバイス ブート 始点 終点 ブロック Id システム /dev/sda1 1 243201 1953512001 83 Linux Partition 1 does not start on physical sector boundary.
ディスク /dev/sdd: 1000.2 GB, 1000204886016 バイト ヘッド 255, セクタ 63, シリンダ 121601 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト I/O size (minimum/optimal): 4096 bytes / 4096 bytes ディスク識別子: 0x00000000
ディスク /dev/sde: 15.5 GB, 15504900096 バイト ヘッド 64, セクタ 32, シリンダ 14786 Units = シリンダ数 of 2048 * 512 = 1048576 バイト セクタサイズ (論理 / 物理): 512 バイト / 512 バイト I/O size (minimum/optimal): 512 bytes / 512 bytes ディスク識別子: 0x484097e1
デバイス ブート 始点 終点 ブロック Id システム /dev/sde1 * 2 501 512000 83 Linux パーティション 1 は、シリンダ境界で終わっていません。 /dev/sde2 502 14786 14627840 8e Linux LVM パーティション 2 は、シリンダ境界で終わっていません。
ディスク /dev/mapper/vg_n54l-lv_root: 11.0 GB, 10951327744 バイト ヘッド 255, セクタ 63, シリンダ 1331 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 512 バイト I/O size (minimum/optimal): 512 bytes / 512 bytes ディスク識別子: 0x00000000
ディスク /dev/mapper/vg_n54l-lv_swap: 4026 MB, 4026531840 バイト ヘッド 255, セクタ 63, シリンダ 489 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 512 バイト I/O size (minimum/optimal): 512 bytes / 512 bytes ディスク識別子: 0x00000000
[root@n54l ~]# fdisk /dev/sdc デバイスは正常な DOS 領域テーブルも、Sun, SGI や OSF ディスクラベルも 含んでいません 新たに DOS ディスクラベルをディスク識別子 0xd27df4a7 で作成します。 あなたが書き込みを決定するまで、変更はメモリ内だけに残します。 その後はもちろん以前の内容は修復不可能になります。 警告: 領域テーブル 4 の不正なフラグ 0x0000 は w(書き込み)によって 正常になります
警告: DOS互換モードは廃止予定です。このモード (コマンド 'c') を止めることを 強く推奨します。 and change display units to sectors (command 'u').
コマンド (m でヘルプ): n コマンドアクション e 拡張 p 基本パーティション (1-4) p パーティション番号 (1-4): 1 最初 シリンダ (1-121601, 初期値 1): 初期値 1 を使います Last シリンダ, +シリンダ数 or +size{K,M,G} (1-121601, 初期値 121601): 初期値 121601 を使います
コマンド (m でヘルプ): t 選択した領域 1 16進数コード (L コマンドでコードリスト表示): L
0 空 24 NEC DOS 81 Minix / 古い bf Solaris
1 FAT12 39 Plan 9 82 Linux スワッ c1 DRDOS/sec (FAT-
2 XENIX root 3c PartitionMagic 83 Linux c4 DRDOS/sec (FAT-
3 XENIX usr 40 Venix 80286 84 OS/2 隠し C: c6 DRDOS/sec (FAT-
4 FAT16 <32M 41 PPC PReP Boot 85 Linux 拡張領 c7 Syrinx
5 拡張領域 42 SFS 86 NTFS ボリュ da 非 FS デー
6 FAT16 4d QNX4.x 87 NTFS ボリュ db CP/M / CTOS / .
7 HPFS/NTFS 4e QNX4.x 2nd part 88 Linux プレー de Dell ユーテ
8 AIX 4f QNX4.x 3rd part 8e Linux LVM df BootIt
9 AIX ブート 50 OnTrack DM 93 Amoeba e1 DOS access
a OS/2 ブート 51 OnTrack DM6 Aux 94 Amoeba BBT e3 DOS R/O
b W95 FAT32 52 CP/M 9f BSD/OS e4 SpeedStor
c W95 FAT32 (LBA) 53 OnTrack DM6 Aux a0 IBM Thinkpad eb BeOS fs
e W95 FAT16 (LBA) 54 OnTrackDM6 a5 FreeBSD ee GPT
f W95 拡張領 55 EZ-Drive a6 OpenBSD ef EFI (FAT-12/16/
10 OPUS 56 Golden Bow a7 NeXTSTEP f0 Linux/PA-RISC
11 隠し FAT12 5c Priam Edisk a8 Darwin UFS f1 SpeedStor
12 Compaq 診断 61 SpeedStor a9 NetBSD f4 SpeedStor
14 隠し FAT16 <3 63 GNU HURD また ab Darwin ブー f2 DOS セカン
16 隠し FAT16 64 Novell Netware af HFS / HFS+ fb VMware VMFS
17 隠し HPFS/NTF 65 Novell Netware b7 BSDI fs fc VMware VMKCORE
18 AST SmartSleep 70 DiskSecure Mult b8 BSDI スワッ fd Linux raid 自
1b 隠し W95 FAT3 75 PC/IX bb 隠し Boot Wiz fe LANstep
1c 隠し W95 FAT3 80 古い Minix be Solaris ブー ff BBT
1e 隠し W95 FAT1
16進数コード (L コマンドでコードリスト表示): fd
領域のシステムタイプを 1 から fd (Linux raid 自動検出) に変更しました
コマンド (m でヘルプ): w パーティションテーブルは変更されました!
ioctl() を呼び出してパーティションテーブルを再読込みします。 ディスクを同期しています。 [root@n54l ~]# fdisk /dev/sdd デバイスは正常な DOS 領域テーブルも、Sun, SGI や OSF ディスクラベルも 含んでいません 新たに DOS ディスクラベルをディスク識別子 0x4ffff6a8 で作成します。 あなたが書き込みを決定するまで、変更はメモリ内だけに残します。 その後はもちろん以前の内容は修復不可能になります。 警告: 領域テーブル 4 の不正なフラグ 0x0000 は w(書き込み)によって 正常になります
The device presents a logical sector size that is smaller than the physical sector size. Aligning to a physical sector (or optimal I/O) size boundary is recommended, or performance may be impacted.
警告: DOS互換モードは廃止予定です。このモード (コマンド 'c') を止めることを 強く推奨します。 and change display units to sectors (command 'u').
コマンド (m でヘルプ): p
ディスク /dev/sdd: 1000.2 GB, 1000204886016 バイト ヘッド 255, セクタ 63, シリンダ 121601 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト I/O size (minimum/optimal): 4096 bytes / 4096 bytes ディスク識別子: 0x4ffff6a8
デバイス ブート 始点 終点 ブロック Id システム
コマンド (m でヘルプ): n コマンドアクション e 拡張 p 基本パーティション (1-4) p パーティション番号 (1-4): 1 最初 シリンダ (1-121601, 初期値 1): 初期値 1 を使います Last シリンダ, +シリンダ数 or +size{K,M,G} (1-121601, 初期値 121601): 初期値 121601 を使います
コマンド (m でヘルプ): t 選択した領域 1 16進数コード (L コマンドでコードリスト表示): fd 領域のシステムタイプを 1 から fd (Linux raid 自動検出) に変更しました
コマンド (m でヘルプ): p
ディスク /dev/sdd: 1000.2 GB, 1000204886016 バイト ヘッド 255, セクタ 63, シリンダ 121601 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト I/O size (minimum/optimal): 4096 bytes / 4096 bytes ディスク識別子: 0x4ffff6a8
デバイス ブート 始点 終点 ブロック Id システム /dev/sdd1 1 121601 976760001 fd Linux raid 自動検出 Partition 1 does not start on physical sector boundary.
コマンド (m でヘルプ): w パーティションテーブルは変更されました!
ioctl() を呼び出してパーティションテーブルを再読込みします。 ディスクを同期しています。 [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# fdisk -l /dev/sdc
ディスク /dev/sdc: 1000.2 GB, 1000204886016 バイト ヘッド 255, セクタ 63, シリンダ 121601 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 512 バイト I/O size (minimum/optimal): 512 bytes / 512 bytes ディスク識別子: 0xd27df4a7
デバイス ブート 始点 終点 ブロック Id システム /dev/sdc1 1 121601 976760001 fd Linux raid 自動検出 [root@n54l ~]# [root@n54l ~]# fdisk -l /dev/sdd
ディスク /dev/sdd: 1000.2 GB, 1000204886016 バイト ヘッド 255, セクタ 63, シリンダ 121601 Units = シリンダ数 of 16065 * 512 = 8225280 バイト セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト I/O size (minimum/optimal): 4096 bytes / 4096 bytes ディスク識別子: 0x4ffff6a8
デバイス ブート 始点 終点 ブロック Id システム
/dev/sdd1 1 121601 976760001 fd Linux raid 自動検出
Partition 1 does not start on physical sector boundary.
[root@n54l ~]#
[root@n54l ~]# mdadm --create /dev/md0 --level=raid1 --raid-devices=2 /dev/sdc1 /dev/sdd1
-bash: mdadm: コマンドが見つかりません
[root@n54l ~]# yum info mdadm
読み込んだプラグイン:fastestmirror, priorities
Determining fastest mirrors
epel/metalink | 3.5 kB 00:00
* base: www.ftp.ne.jp
* epel: ftp.kddilabs.jp
* extras: www.ftp.ne.jp
* rpmforge: ftp.riken.jp
* updates: www.ftp.ne.jp
base | 3.7 kB 00:00
epel | 4.4 kB 00:00
epel/primary_db | 6.6 MB 00:00
extras | 3.4 kB 00:00
isv_ownCloud_community | 1.2 kB 00:00
nginx | 2.9 kB 00:00
rpmforge | 1.9 kB 00:00
updates | 3.4 kB 00:00
updates/primary_db | 3.3 MB 00:00
zabbix | 951 B 00:00
zabbix-non-supported | 951 B 00:00
利用可能なパッケージ
名前 : mdadm
アーキテクチャ : x86_64
バージョン : 3.3
リリース : 6.el6_6.1
容量 : 341 k
リポジトリー : updates
要約 : The mdadm program controls Linux md devices (software RAID arrays)
URL : http://www.kernel.org/pub/linux/utils/raid/mdadm/
ライセンス : GPLv2+
説明 : The mdadm program is used to create, manage, and monitor Linux MD (software
: RAID) devices. As such, it provides similar functionality to the raidtools
: package. However, mdadm is a single program, and it can perform
: almost all functions without a configuration file, though a configuration
: file can be used to help with some common tasks.
[root@n54l ~]# yum install mdadm 読み込んだプラグイン:fastestmirror, priorities インストール処理の設定をしています Loading mirror speeds from cached hostfile * base: www.ftp.ne.jp * epel: ftp.kddilabs.jp * extras: www.ftp.ne.jp * rpmforge: ftp.riken.jp * updates: www.ftp.ne.jp 依存性の解決をしています --> トランザクションの確認を実行しています。 ---> Package mdadm.x86_64 0:3.3-6.el6_6.1 will be インストール --> 依存性解決を終了しました。
依存性を解決しました
パッケージ アーキテクチャ バージョン リポジトリー 容量
インストールしています: mdadm x86_64 3.3-6.el6_6.1 updates 341 k
トランザクションの要約
インストール 1 パッケージ
総ダウンロード容量: 341 k
インストール済み容量: 823 k
これでいいですか? [y/N]y
パッケージをダウンロードしています:
mdadm-3.3-6.el6_6.1.x86_64.rpm | 341 kB 00:00
rpm_check_debug を実行しています
トランザクションのテストを実行しています
トランザクションのテストを成功しました
トランザクションを実行しています
インストールしています : mdadm-3.3-6.el6_6.1.x86_64 1/1
Verifying : mdadm-3.3-6.el6_6.1.x86_64 1/1
インストール: mdadm.x86_64 0:3.3-6.el6_6.1
完了しました! [root@n54l ~]# mdadm --create /dev/md0 --level=raid1 --raid-devices=2 /dev/sdc1 /dev/sdd1 mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started. [root@n54l ~]# fdisk -l /dev/md0
ディスク /dev/md0: 1000.1 GB, 1000068022272 バイト ヘッド 2, セクタ 4, シリンダ 244157232 Units = シリンダ数 of 8 * 512 = 4096 バイト セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト I/O size (minimum/optimal): 4096 bytes / 4096 bytes Alignment offset: 512 bytes ディスク識別子: 0x5c9350ec
[root@n54l ~]# [root@n54l ~]# [root@n54l ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [>....................] resync = 0.8% (8658944/976628928) finish=126.4min speed=127580K/sec bitmap: 8/8 pages [32KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# date 2015年 5月 30日 土曜日 18:04:27 JST [root@n54l ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [>....................] resync = 1.6% (16536384/976628928) finish=115.0min speed=139052K/sec bitmap: 8/8 pages [32KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# date 2015年 5月 30日 土曜日 18:12:52 JST [root@n54l ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [=>...................] resync = 8.6% (84140224/976628928) finish=109.0min speed=136435K/sec bitmap: 8/8 pages [32KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [===>.................] resync = 17.8% (174796992/976628928) finish=98.6min speed=135436K/sec bitmap: 7/8 pages [28KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# date && cat /proc/mdstat 2015年 5月 30日 土曜日 18:27:34 JST Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [====>................] resync = 20.5% (200435456/976628928) finish=96.6min speed=133854K/sec bitmap: 7/8 pages [28KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# date && cat /proc/mdstat 2015年 5月 30日 土曜日 18:36:49 JST Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [=====>...............] resync = 27.8% (271851904/976628928) finish=88.2min speed=133038K/sec bitmap: 6/8 pages [24KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# date && cat /proc/mdstat 2015年 5月 30日 土曜日 18:45:09 JST Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [======>..............] resync = 34.2% (334564352/976628928) finish=85.3min speed=125416K/sec bitmap: 6/8 pages [24KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# date && cat /proc/mdstat 2015年 5月 30日 土曜日 18:51:14 JST Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [=======>.............] resync = 38.8% (379411328/976628928) finish=80.1min speed=124091K/sec bitmap: 6/8 pages [24KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# date && cat /proc/mdstat 2015年 5月 30日 土曜日 19:02:15 JST Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [=========>...........] resync = 46.9% (458705536/976628928) finish=70.0min speed=123125K/sec bitmap: 5/8 pages [20KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# date && cat /proc/mdstat 2015年 5月 30日 土曜日 19:20:44 JST Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] [===========>.........] resync = 59.7% (584018624/976628928) finish=58.6min speed=111463K/sec bitmap: 4/8 pages [16KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# date && cat /proc/mdstat 2015年 5月 30日 土曜日 22:52:40 JST Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] bitmap: 0/8 pages [0KB], 65536KB chunk
unused devices: <none>
[root@n54l ~]# mkfs -t xfs /dev/md0
mkfs.xfs: そのようなファイルやディレクトリはありません
[root@n54l ~]# mkfs
mkfs mkfs.cramfs mkfs.ext2 mkfs.ext3 mkfs.ext4 mkfs.ext4dev
[root@n54l ~]# mkfs
mkfs mkfs.cramfs mkfs.ext2 mkfs.ext3 mkfs.ext4 mkfs.ext4dev
[root@n54l ~]# mkfs -t xfs /dev/md0
mkfs.xfs: そのようなファイルやディレクトリはありません
[root@n54l ~]# yum install xfsprogs
読み込んだプラグイン:fastestmirror, priorities
インストール処理の設定をしています
Loading mirror speeds from cached hostfile
* base: www.ftp.ne.jp
* epel: ftp.kddilabs.jp
* extras: www.ftp.ne.jp
* rpmforge: ftp.riken.jp
* updates: www.ftp.ne.jp
依存性の解決をしています
--> トランザクションの確認を実行しています。
---> Package xfsprogs.x86_64 0:3.1.1-16.el6 will be インストール
--> 依存性解決を終了しました。
依存性を解決しました
パッケージ アーキテクチャ バージョン リポジトリー 容量
インストールしています: xfsprogs x86_64 3.1.1-16.el6 base 724 k
トランザクションの要約
インストール 1 パッケージ
総ダウンロード容量: 724 k
インストール済み容量: 3.2 M
これでいいですか? [y/N]y
パッケージをダウンロードしています:
xfsprogs-3.1.1-16.el6.x86_64.rpm | 724 kB 00:00
rpm_check_debug を実行しています
トランザクションのテストを実行しています
トランザクションのテストを成功しました
トランザクションを実行しています
インストールしています : xfsprogs-3.1.1-16.el6.x86_64 1/1
Verifying : xfsprogs-3.1.1-16.el6.x86_64 1/1
インストール: xfsprogs.x86_64 0:3.1.1-16.el6
完了しました! [root@n54l ~]# mkfs -t xfs /dev/md0 warning: device is not properly aligned /dev/md0 Use -f to force usage of a misaligned device [root@n54l ~]# mkfs -t xfs -f /dev/md0 warning: device is not properly aligned /dev/md0 meta-data=/dev/md0 isize=256 agcount=32, agsize=7629914 blks = sectsz=512 attr=2, projid32bit=0 data = bsize=4096 blocks=244157232, imaxpct=25 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0 log =internal log bsize=4096 blocks=119217, version=2 = sectsz=512 sunit=0 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 [root@n54l ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] bitmap: 0/8 pages [0KB], 65536KB chunk
unused devices: <none>
[root@n54l ~]# tune2fs -l /dev/md0
tune2fs 1.41.12 (17-May-2010)
tune2fs: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.
[root@n54l ~]# e2label /dev/md0
e2label: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.
[root@n54l ~]#
[root@n54l ~]# tune2fs -l /dev/md
md/ md0
[root@n54l ~]# tune2fs -l /dev/md
md/ md0
[root@n54l ~]# tune2fs -l /dev/md0
tune2fs 1.41.12 (17-May-2010)
tune2fs: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.
[root@n54l ~]# e2label /dev/md0
e2label: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.
[root@n54l ~]# cd /h
hdd1/ hdd2/ hdd3/ home/
[root@n54l ~]# cd /hdd3/
[root@n54l hdd3]# ls
[root@n54l hdd3]# pwd
/hdd3
[root@n54l hdd3]# cd ~
[root@n54l ~]#
[root@n54l ~]# ls
anaconda-ks.cfg ffmpegmatu.sh get.sh install.log install.log.syslog iptables.sh libpcsclite.so.1.0.0.org rtplay.php
[root@n54l ~]# ls -lah /hdd3
合計 8.0K
drwxr-xr-x 2 root root 4.0K 5月 6 08:33 2015 .
dr-xr-xr-x. 26 root root 4.0K 5月 30 03:26 2015 ..
[root@n54l ~]# vi /etc/fstab
[root@n54l ~]# vi /etc/fstab
[root@n54l ~]# vi /etc/fstab
[root@n54l ~]# cat /etc/fstab
#
/etc/fstab
Created by anaconda on Tue May 5 23:21:01 2015
#
Accessible filesystems, by reference, are maintained under '/dev/disk'
See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
# /dev/mapper/vg_n54l-lv_root / ext4 defaults 1 1 UUID=f95528e2-facd-4414-a2e9-7ac27fc3efe3 /boot ext4 defaults 1 2 /dev/mapper/vg_n54l-lv_swap swap swap defaults 0 0 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts gid=5,mode=620 0 0 sysfs /sys sysfs defaults 0 0 proc /proc proc defaults 0 0 LABEL=hdd1 /hdd1 ext4 defaults 0 0 LABEL=hdd2 /hdd2 ext4 defaults 0 0 /dev/md0 /hdd3 xfs defaults 0 0 [root@n54l ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg_n54l-lv_root 10G 2.8G 6.8G 29% / tmpfs 1.9G 0 1.9G 0% /dev/shm /dev/sde1 477M 48M 404M 11% /boot /dev/sda1 1.8T 257G 1.5T 15% /hdd1 /dev/sdb1 917G 841G 30G 97% /hdd2 [root@n54l ~]# mount -a [root@n54l ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg_n54l-lv_root 10G 2.8G 6.8G 29% / tmpfs 1.9G 0 1.9G 0% /dev/shm /dev/sde1 477M 48M 404M 11% /boot /dev/sda1 1.8T 257G 1.5T 15% /hdd1 /dev/sdb1 917G 841G 30G 97% /hdd2 /dev/md0 931G 34M 931G 1% /hdd3 [root@n54l ~]# fdisk -l /dev/md0
ディスク /dev/md0: 1000.1 GB, 1000068022272 バイト ヘッド 2, セクタ 4, シリンダ 244157232 Units = シリンダ数 of 8 * 512 = 4096 バイト セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト I/O size (minimum/optimal): 4096 bytes / 4096 bytes Alignment offset: 512 bytes ディスク識別子: 0x00000000
[root@n54l ~]#
[/code]
確認する sdd1とsdc1でraid1が組まれていてファイルフォーマットはxfs
[code lang=text] [root@n54l ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdd1[1] sdc1[0] 976628928 blocks super 1.2 [2/2] [UU] bitmap: 0/8 pages [0KB], 65536KB chunk
unused devices: <none> [root@n54l ~]# [root@n54l ~]# [root@n54l ~]# df -T Filesystem Type 1K-blocks Used Available Use% Mounted on /dev/mapper/vg_n54l-lv_root ext4 10395568 2834012 7026824 29% / tmpfs tmpfs 1892904 0 1892904 0% /dev/shm /dev/sde1 ext4 487652 48942 413110 11% /boot /dev/sda1 ext4 1922727280 269088704 1555962976 15% /hdd1 /dev/sdb1 ext4 961301000 881055872 31407128 97% /hdd2 /dev/md0 xfs 976152060 33824 976118236 1% /hdd3 [/code]
追記 rebootすると/dev/md0が/dev/md127などになりmountされていない状態になっていた。 mdadm.confの設定を弄るらしいがそんなものはなかったので作成する。
[code lang=text] mdadm --verbose --detail --scan > /etc/mdadm.conf [/code]
mdadm.conf内の「/dev/md/[ホスト名]:0」を「/dev/md0」に変更。 metadata=とname=がある場合は消します。
こうなった。
[code lang=text] ARRAY /dev/md0 level=raid1 num-devices=2 UUID=xxxxxx:xxxxxx:xxxxxx:xxxxxx devices=/dev/sdc1,/dev/sdd1 [/code]
rebootして完了。