raid1を組んだログ

Pocket

多分これでいいはず。。。

raidを組むHDDはsdd1とsdc1
どちらも1T


[root@n54l ~]# fdisk -l

ディスク /dev/sdb: 1000.2 GB, 1000204886016 バイト
ヘッド 255, セクタ 63, シリンダ 121601
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 512 バイト
I/O size (minimum/optimal): 512 bytes / 512 bytes
ディスク識別子: 0x86853b9f

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sdb1               1      121601   976760001   83  Linux

ディスク /dev/sdc: 1000.2 GB, 1000204886016 バイト
ヘッド 255, セクタ 63, シリンダ 121601
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 512 バイト
I/O size (minimum/optimal): 512 bytes / 512 bytes
ディスク識別子: 0x00000000


ディスク /dev/sda: 2000.4 GB, 2000398934016 バイト
ヘッド 255, セクタ 63, シリンダ 243201
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0xa6980d8f

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sda1               1      243201  1953512001   83  Linux
Partition 1 does not start on physical sector boundary.

ディスク /dev/sdd: 1000.2 GB, 1000204886016 バイト
ヘッド 255, セクタ 63, シリンダ 121601
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x00000000


ディスク /dev/sde: 15.5 GB, 15504900096 バイト
ヘッド 64, セクタ 32, シリンダ 14786
Units = シリンダ数 of 2048 * 512 = 1048576 バイト
セクタサイズ (論理 / 物理): 512 バイト / 512 バイト
I/O size (minimum/optimal): 512 bytes / 512 bytes
ディスク識別子: 0x484097e1

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sde1   *           2         501      512000   83  Linux
パーティション 1 は、シリンダ境界で終わっていません。
/dev/sde2             502       14786    14627840   8e  Linux LVM
パーティション 2 は、シリンダ境界で終わっていません。

ディスク /dev/mapper/vg_n54l-lv_root: 11.0 GB, 10951327744 バイト
ヘッド 255, セクタ 63, シリンダ 1331
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 512 バイト
I/O size (minimum/optimal): 512 bytes / 512 bytes
ディスク識別子: 0x00000000


ディスク /dev/mapper/vg_n54l-lv_swap: 4026 MB, 4026531840 バイト
ヘッド 255, セクタ 63, シリンダ 489
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 512 バイト
I/O size (minimum/optimal): 512 bytes / 512 bytes
ディスク識別子: 0x00000000

[root@n54l ~]# fdisk /dev/sdc
デバイスは正常な DOS 領域テーブルも、Sun, SGI や OSF ディスクラベルも
含んでいません
新たに DOS ディスクラベルをディスク識別子 0xd27df4a7 で作成します。
あなたが書き込みを決定するまで、変更はメモリ内だけに残します。
その後はもちろん以前の内容は修復不可能になります。
警告: 領域テーブル 4 の不正なフラグ 0x0000 は w(書き込み)によって
正常になります

警告: DOS互換モードは廃止予定です。このモード (コマンド 'c') を止めることを
      強く推奨します。 and change display units to
         sectors (command 'u').

コマンド (m でヘルプ): n
コマンドアクション
   e   拡張
   p   基本パーティション (1-4)
p
パーティション番号 (1-4): 1
最初 シリンダ (1-121601, 初期値 1): 
初期値 1 を使います
Last シリンダ, +シリンダ数 or +size{K,M,G} (1-121601, 初期値 121601): 
初期値 121601 を使います

コマンド (m でヘルプ): t
選択した領域 1
16進数コード (L コマンドでコードリスト表示): L

 0  空             24  NEC DOS         81  Minix / 古い  bf  Solaris        
 1  FAT12           39  Plan 9          82  Linux スワッ c1  DRDOS/sec (FAT-
 2  XENIX root      3c  PartitionMagic  83  Linux           c4  DRDOS/sec (FAT-
 3  XENIX usr       40  Venix 80286     84  OS/2 隠し C:  c6  DRDOS/sec (FAT-
 4  FAT16 <32M      41  PPC PReP Boot   85  Linux 拡張領 c7  Syrinx         
 5  拡張領域    42  SFS             86  NTFS ボリュ  da  非 FS デー  
 6  FAT16           4d  QNX4.x          87  NTFS ボリュ  db  CP/M / CTOS / .
 7  HPFS/NTFS       4e  QNX4.x 2nd part 88  Linux プレー de  Dell ユーテ 
 8  AIX             4f  QNX4.x 3rd part 8e  Linux LVM       df  BootIt         
 9  AIX ブート   50  OnTrack DM      93  Amoeba          e1  DOS access     
 a  OS/2 ブート  51  OnTrack DM6 Aux 94  Amoeba BBT      e3  DOS R/O        
 b  W95 FAT32       52  CP/M            9f  BSD/OS          e4  SpeedStor      
 c  W95 FAT32 (LBA) 53  OnTrack DM6 Aux a0  IBM Thinkpad    eb  BeOS fs        
 e  W95 FAT16 (LBA) 54  OnTrackDM6      a5  FreeBSD         ee  GPT            
 f  W95 拡張領   55  EZ-Drive        a6  OpenBSD         ef  EFI (FAT-12/16/
10  OPUS            56  Golden Bow      a7  NeXTSTEP        f0  Linux/PA-RISC  
11  隠し FAT12    5c  Priam Edisk     a8  Darwin UFS      f1  SpeedStor      
12  Compaq 診断   61  SpeedStor       a9  NetBSD          f4  SpeedStor      
14  隠し FAT16 <3 63  GNU HURD また ab  Darwin ブー   f2  DOS セカン  
16  隠し FAT16    64  Novell Netware  af  HFS / HFS+      fb  VMware VMFS    
17  隠し HPFS/NTF 65  Novell Netware  b7  BSDI fs         fc  VMware VMKCORE 
18  AST SmartSleep  70  DiskSecure Mult b8  BSDI スワッ  fd  Linux raid 自 
1b  隠し W95 FAT3 75  PC/IX           bb  隠し Boot Wiz fe  LANstep        
1c  隠し W95 FAT3 80  古い Minix    be  Solaris ブー  ff  BBT            
1e  隠し W95 FAT1
16進数コード (L コマンドでコードリスト表示): fd
領域のシステムタイプを 1 から fd (Linux raid 自動検出) に変更しました

コマンド (m でヘルプ): w
パーティションテーブルは変更されました!

ioctl() を呼び出してパーティションテーブルを再読込みします。
ディスクを同期しています。
[root@n54l ~]# fdisk /dev/sdd
デバイスは正常な DOS 領域テーブルも、Sun, SGI や OSF ディスクラベルも
含んでいません
新たに DOS ディスクラベルをディスク識別子 0x4ffff6a8 で作成します。
あなたが書き込みを決定するまで、変更はメモリ内だけに残します。
その後はもちろん以前の内容は修復不可能になります。
警告: 領域テーブル 4 の不正なフラグ 0x0000 は w(書き込み)によって
正常になります

The device presents a logical sector size that is smaller than
the physical sector size. Aligning to a physical sector (or optimal
I/O) size boundary is recommended, or performance may be impacted.

警告: DOS互換モードは廃止予定です。このモード (コマンド 'c') を止めることを
      強く推奨します。 and change display units to
         sectors (command 'u').

コマンド (m でヘルプ): p

ディスク /dev/sdd: 1000.2 GB, 1000204886016 バイト
ヘッド 255, セクタ 63, シリンダ 121601
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x4ffff6a8

デバイス ブート      始点        終点     ブロック   Id  システム

コマンド (m でヘルプ): n
コマンドアクション
   e   拡張
   p   基本パーティション (1-4)
p
パーティション番号 (1-4): 1
最初 シリンダ (1-121601, 初期値 1): 
初期値 1 を使います
Last シリンダ, +シリンダ数 or +size{K,M,G} (1-121601, 初期値 121601): 
初期値 121601 を使います

コマンド (m でヘルプ): t
選択した領域 1
16進数コード (L コマンドでコードリスト表示): fd
領域のシステムタイプを 1 から fd (Linux raid 自動検出) に変更しました

コマンド (m でヘルプ): p

ディスク /dev/sdd: 1000.2 GB, 1000204886016 バイト
ヘッド 255, セクタ 63, シリンダ 121601
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x4ffff6a8

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sdd1               1      121601   976760001   fd  Linux raid 自動検出
Partition 1 does not start on physical sector boundary.

コマンド (m でヘルプ): w
パーティションテーブルは変更されました!

ioctl() を呼び出してパーティションテーブルを再読込みします。
ディスクを同期しています。
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# fdisk -l /dev/sdc

ディスク /dev/sdc: 1000.2 GB, 1000204886016 バイト
ヘッド 255, セクタ 63, シリンダ 121601
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 512 バイト
I/O size (minimum/optimal): 512 bytes / 512 bytes
ディスク識別子: 0xd27df4a7

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sdc1               1      121601   976760001   fd  Linux raid 自動検出
[root@n54l ~]# 
[root@n54l ~]# fdisk -l /dev/sdd

ディスク /dev/sdd: 1000.2 GB, 1000204886016 バイト
ヘッド 255, セクタ 63, シリンダ 121601
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x4ffff6a8

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sdd1               1      121601   976760001   fd  Linux raid 自動検出
Partition 1 does not start on physical sector boundary.
[root@n54l ~]# 
[root@n54l ~]# mdadm --create /dev/md0 --level=raid1 --raid-devices=2 /dev/sdc1 /dev/sdd1 
-bash: mdadm: コマンドが見つかりません
[root@n54l ~]# yum info mdadm
読み込んだプラグイン:fastestmirror, priorities
Determining fastest mirrors
epel/metalink                                                                                                     | 3.5 kB     00:00     
 * base: www.ftp.ne.jp
 * epel: ftp.kddilabs.jp
 * extras: www.ftp.ne.jp
 * rpmforge: ftp.riken.jp
 * updates: www.ftp.ne.jp
base                                                                                                              | 3.7 kB     00:00     
epel                                                                                                              | 4.4 kB     00:00     
epel/primary_db                                                                                                   | 6.6 MB     00:00     
extras                                                                                                            | 3.4 kB     00:00     
isv_ownCloud_community                                                                                            | 1.2 kB     00:00     
nginx                                                                                                             | 2.9 kB     00:00     
rpmforge                                                                                                          | 1.9 kB     00:00     
updates                                                                                                           | 3.4 kB     00:00     
updates/primary_db                                                                                                | 3.3 MB     00:00     
zabbix                                                                                                            |  951 B     00:00     
zabbix-non-supported                                                                                              |  951 B     00:00     
利用可能なパッケージ
名前                : mdadm
アーキテクチャ      : x86_64
バージョン          : 3.3
リリース            : 6.el6_6.1
容量                : 341 k
リポジトリー        : updates
要約                : The mdadm program controls Linux md devices (software RAID arrays)
URL                 : http://www.kernel.org/pub/linux/utils/raid/mdadm/
ライセンス          : GPLv2+
説明                : The mdadm program is used to create, manage, and monitor Linux MD (software
                    : RAID) devices.  As such, it provides similar functionality to the raidtools
                    : package.  However, mdadm is a single program, and it can perform
                    : almost all functions without a configuration file, though a configuration
                    : file can be used to help with some common tasks.

[root@n54l ~]# yum install mdadm
読み込んだプラグイン:fastestmirror, priorities
インストール処理の設定をしています
Loading mirror speeds from cached hostfile
 * base: www.ftp.ne.jp
 * epel: ftp.kddilabs.jp
 * extras: www.ftp.ne.jp
 * rpmforge: ftp.riken.jp
 * updates: www.ftp.ne.jp
依存性の解決をしています
--> トランザクションの確認を実行しています。
---> Package mdadm.x86_64 0:3.3-6.el6_6.1 will be インストール
--> 依存性解決を終了しました。

依存性を解決しました

=========================================================================================================================================
 パッケージ                   アーキテクチャ                バージョン                              リポジトリー                    容量
=========================================================================================================================================
インストールしています:
 mdadm                        x86_64                        3.3-6.el6_6.1                           updates                        341 k

トランザクションの要約
=========================================================================================================================================
インストール         1 パッケージ

総ダウンロード容量: 341 k
インストール済み容量: 823 k
これでいいですか? [y/N]y
パッケージをダウンロードしています:
mdadm-3.3-6.el6_6.1.x86_64.rpm                                                                                    | 341 kB     00:00     
rpm_check_debug を実行しています
トランザクションのテストを実行しています
トランザクションのテストを成功しました
トランザクションを実行しています
  インストールしています  : mdadm-3.3-6.el6_6.1.x86_64                                                                               1/1 
  Verifying               : mdadm-3.3-6.el6_6.1.x86_64                                                                               1/1 

インストール:
  mdadm.x86_64 0:3.3-6.el6_6.1                                                                                                           

完了しました!
[root@n54l ~]# mdadm --create /dev/md0 --level=raid1 --raid-devices=2 /dev/sdc1 /dev/sdd1 
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@n54l ~]# fdisk -l /dev/md0

ディスク /dev/md0: 1000.1 GB, 1000068022272 バイト
ヘッド 2, セクタ 4, シリンダ 244157232
Units = シリンダ数 of 8 * 512 = 4096 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Alignment offset: 512 bytes
ディスク識別子: 0x5c9350ec

[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# cat /proc/mdstat
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [>....................]  resync =  0.8% (8658944/976628928) finish=126.4min speed=127580K/sec
      bitmap: 8/8 pages [32KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# date
2015年  5月 30日 土曜日 18:04:27 JST
[root@n54l ~]# cat /proc/mdstat
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [>....................]  resync =  1.6% (16536384/976628928) finish=115.0min speed=139052K/sec
      bitmap: 8/8 pages [32KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# date
2015年  5月 30日 土曜日 18:12:52 JST
[root@n54l ~]# cat /proc/mdstat
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [=>...................]  resync =  8.6% (84140224/976628928) finish=109.0min speed=136435K/sec
      bitmap: 8/8 pages [32KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# cat /proc/mdstat
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [===>.................]  resync = 17.8% (174796992/976628928) finish=98.6min speed=135436K/sec
      bitmap: 7/8 pages [28KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# date && cat /proc/mdstat
2015年  5月 30日 土曜日 18:27:34 JST
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [====>................]  resync = 20.5% (200435456/976628928) finish=96.6min speed=133854K/sec
      bitmap: 7/8 pages [28KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# date && cat /proc/mdstat
2015年  5月 30日 土曜日 18:36:49 JST
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [=====>...............]  resync = 27.8% (271851904/976628928) finish=88.2min speed=133038K/sec
      bitmap: 6/8 pages [24KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# date && cat /proc/mdstat
2015年  5月 30日 土曜日 18:45:09 JST
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [======>..............]  resync = 34.2% (334564352/976628928) finish=85.3min speed=125416K/sec
      bitmap: 6/8 pages [24KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# date && cat /proc/mdstat
2015年  5月 30日 土曜日 18:51:14 JST
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [=======>.............]  resync = 38.8% (379411328/976628928) finish=80.1min speed=124091K/sec
      bitmap: 6/8 pages [24KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# date && cat /proc/mdstat
2015年  5月 30日 土曜日 19:02:15 JST
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [=========>...........]  resync = 46.9% (458705536/976628928) finish=70.0min speed=123125K/sec
      bitmap: 5/8 pages [20KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# date && cat /proc/mdstat
2015年  5月 30日 土曜日 19:20:44 JST
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      [===========>.........]  resync = 59.7% (584018624/976628928) finish=58.6min speed=111463K/sec
      bitmap: 4/8 pages [16KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# date && cat /proc/mdstat
2015年  5月 30日 土曜日 22:52:40 JST
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# mkfs -t xfs /dev/md0 
mkfs.xfs: そのようなファイルやディレクトリはありません
[root@n54l ~]# mkfs
mkfs          mkfs.cramfs   mkfs.ext2     mkfs.ext3     mkfs.ext4     mkfs.ext4dev  
[root@n54l ~]# mkfs
mkfs          mkfs.cramfs   mkfs.ext2     mkfs.ext3     mkfs.ext4     mkfs.ext4dev  
[root@n54l ~]# mkfs -t xfs /dev/md0
mkfs.xfs: そのようなファイルやディレクトリはありません
[root@n54l ~]# yum install xfsprogs
読み込んだプラグイン:fastestmirror, priorities
インストール処理の設定をしています
Loading mirror speeds from cached hostfile
 * base: www.ftp.ne.jp
 * epel: ftp.kddilabs.jp
 * extras: www.ftp.ne.jp
 * rpmforge: ftp.riken.jp
 * updates: www.ftp.ne.jp
依存性の解決をしています
--> トランザクションの確認を実行しています。
---> Package xfsprogs.x86_64 0:3.1.1-16.el6 will be インストール
--> 依存性解決を終了しました。

依存性を解決しました

=========================================================================================================================================
 パッケージ                       アーキテクチャ                 バージョン                           リポジトリー                  容量
=========================================================================================================================================
インストールしています:
 xfsprogs                         x86_64                         3.1.1-16.el6                         base                         724 k

トランザクションの要約
=========================================================================================================================================
インストール         1 パッケージ

総ダウンロード容量: 724 k
インストール済み容量: 3.2 M
これでいいですか? [y/N]y
パッケージをダウンロードしています:
xfsprogs-3.1.1-16.el6.x86_64.rpm                                                                                  | 724 kB     00:00     
rpm_check_debug を実行しています
トランザクションのテストを実行しています
トランザクションのテストを成功しました
トランザクションを実行しています
  インストールしています  : xfsprogs-3.1.1-16.el6.x86_64                                                                             1/1 
  Verifying               : xfsprogs-3.1.1-16.el6.x86_64                                                                             1/1 

インストール:
  xfsprogs.x86_64 0:3.1.1-16.el6                                                                                                         

完了しました!
[root@n54l ~]# mkfs -t xfs /dev/md0
warning: device is not properly aligned /dev/md0
Use -f to force usage of a misaligned device
[root@n54l ~]# mkfs -t xfs -f /dev/md0
warning: device is not properly aligned /dev/md0
meta-data=/dev/md0               isize=256    agcount=32, agsize=7629914 blks
         =                       sectsz=512   attr=2, projid32bit=0
data     =                       bsize=4096   blocks=244157232, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0
log      =internal log           bsize=4096   blocks=119217, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@n54l ~]# cat /proc/mdstat
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# tune2fs -l /dev/md0
tune2fs 1.41.12 (17-May-2010)
tune2fs: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.
[root@n54l ~]# e2label /dev/md0
e2label: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.
[root@n54l ~]# 
[root@n54l ~]# tune2fs -l /dev/md
md/  md0  
[root@n54l ~]# tune2fs -l /dev/md
md/  md0  
[root@n54l ~]# tune2fs -l /dev/md0
tune2fs 1.41.12 (17-May-2010)
tune2fs: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.
[root@n54l ~]# e2label /dev/md0 
e2label: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.
[root@n54l ~]# cd /h
hdd1/ hdd2/ hdd3/ home/ 
[root@n54l ~]# cd /hdd3/
[root@n54l hdd3]# ls
[root@n54l hdd3]# pwd
/hdd3
[root@n54l hdd3]# cd ~
[root@n54l ~]# 
[root@n54l ~]# ls
anaconda-ks.cfg  ffmpegmatu.sh  get.sh  install.log  install.log.syslog  iptables.sh  libpcsclite.so.1.0.0.org  rtplay.php
[root@n54l ~]# ls -lah /hdd3
合計 8.0K
drwxr-xr-x   2 root root 4.0K  5月  6 08:33 2015 .
dr-xr-xr-x. 26 root root 4.0K  5月 30 03:26 2015 ..
[root@n54l ~]# vi /etc/fstab
[root@n54l ~]# vi /etc/fstab
[root@n54l ~]# vi /etc/fstab
[root@n54l ~]# cat /etc/fstab

#
# /etc/fstab
# Created by anaconda on Tue May  5 23:21:01 2015
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/vg_n54l-lv_root /                       ext4    defaults        1 1
UUID=f95528e2-facd-4414-a2e9-7ac27fc3efe3 /boot                   ext4    defaults        1 2
/dev/mapper/vg_n54l-lv_swap swap                    swap    defaults        0 0
tmpfs                   /dev/shm                tmpfs   defaults        0 0
devpts                  /dev/pts                devpts  gid=5,mode=620  0 0
sysfs                   /sys                    sysfs   defaults        0 0
proc                    /proc                   proc    defaults        0 0
LABEL=hdd1              /hdd1                   ext4    defaults        0 0
LABEL=hdd2              /hdd2                   ext4    defaults        0 0
/dev/md0		/hdd3			xfs	defaults	0 0
[root@n54l ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/vg_n54l-lv_root
                       10G  2.8G  6.8G  29% /
tmpfs                 1.9G     0  1.9G   0% /dev/shm
/dev/sde1             477M   48M  404M  11% /boot
/dev/sda1             1.8T  257G  1.5T  15% /hdd1
/dev/sdb1             917G  841G   30G  97% /hdd2
[root@n54l ~]# mount -a
[root@n54l ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/vg_n54l-lv_root
                       10G  2.8G  6.8G  29% /
tmpfs                 1.9G     0  1.9G   0% /dev/shm
/dev/sde1             477M   48M  404M  11% /boot
/dev/sda1             1.8T  257G  1.5T  15% /hdd1
/dev/sdb1             917G  841G   30G  97% /hdd2
/dev/md0              931G   34M  931G   1% /hdd3
[root@n54l ~]# fdisk -l /dev/md0

ディスク /dev/md0: 1000.1 GB, 1000068022272 バイト
ヘッド 2, セクタ 4, シリンダ 244157232
Units = シリンダ数 of 8 * 512 = 4096 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Alignment offset: 512 bytes
ディスク識別子: 0x00000000

[root@n54l ~]# 

確認する
sdd1とsdc1でraid1が組まれていてファイルフォーマットはxfs

[root@n54l ~]# cat /proc/mdstat 
Personalities : [raid1] 
md0 : active raid1 sdd1[1] sdc1[0]
      976628928 blocks super 1.2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

unused devices: <none>
[root@n54l ~]# 
[root@n54l ~]# 
[root@n54l ~]# df -T
Filesystem           Type   1K-blocks      Used  Available Use% Mounted on
/dev/mapper/vg_n54l-lv_root
                     ext4    10395568   2834012    7026824  29% /
tmpfs                tmpfs    1892904         0    1892904   0% /dev/shm
/dev/sde1            ext4      487652     48942     413110  11% /boot
/dev/sda1            ext4  1922727280 269088704 1555962976  15% /hdd1
/dev/sdb1            ext4   961301000 881055872   31407128  97% /hdd2
/dev/md0             xfs    976152060     33824  976118236   1% /hdd3

追記
rebootすると/dev/md0が/dev/md127などになりmountされていない状態になっていた。
mdadm.confの設定を弄るらしいがそんなものはなかったので作成する。

mdadm --verbose --detail --scan > /etc/mdadm.conf

mdadm.conf内の「/dev/md/[ホスト名]:0」を「/dev/md0」に変更。
metadata=とname=がある場合は消します。

こうなった。

ARRAY /dev/md0 level=raid1 num-devices=2 UUID=xxxxxx:xxxxxx:xxxxxx:xxxxxx
   devices=/dev/sdc1,/dev/sdd1

rebootして完了。

コメントを残す

メールアドレスが公開されることはありません。