Hier wird permanent das Kernel-Log mit Fehlermeldungen "bug in file drivers/md/md.c, line 1659" vollgemüllt, gefolgt von Status-Reports über sämtliche "md" im System.
---------------8<---------------schnipp---------------8<--------------- md: bug in file drivers/md/md.c, line 1659
md: ********************************** md: * <COMPLETE RAID STATE PRINTOUT> * md: ********************************** md4: <sdm><sdq><sdp><sdo><sdn> md: rdev sdm, SZ:2925516544 F:0 S:1 DN:0 md: rdev superblock: md: SB: (V:1.0.0) ID:<2a0aec4b.00000000.00000000.00000000> CT:eabbf7a0 md: L1741355610 S00000052 ND:0 RD:0 md0 LO:65536 CS:196610 md: UT:00000000 ST:0 AD:1556066032 WD:1 FD:1556066288 SD:1 CSUM:00000000 E:00000000 D 0: DISK<N:-1,(-1,-1),R:-1,S:-1> D 1: DISK<N:-1,(-1,-1),R:-1,S:-1> D 2: DISK<N:-1,(-1,-1),R:-1,S:-1> D 3: DISK<N:-1,(-1,-1),R:-1,S:-1> md: THIS: DISK<N:0,(0,0),R:0,S:0> md: rdev sdq, SZ:2925516544 F:0 S:1 DN:4 md: rdev superblock: md: SB: (V:1.0.0) ID:<2a0aec4b.00000000.00000000.00000000> CT:eabbf7a0 md: L1741355610 S00000052 ND:0 RD:0 md0 LO:65536 CS:196610 md: UT:00000000 ST:0 AD:1556066032 WD:1 FD:1556066288 SD:1 CSUM:00000000 E:00000000 D 0: DISK<N:-1,(-1,-1),R:-1,S:-1> D 1: DISK<N:-1,(-1,-1),R:-1,S:-1> D 2: DISK<N:-1,(-1,-1),R:-1,S:-1> D 3: DISK<N:-1,(-1,-1),R:-1,S:-1> md: THIS: DISK<N:0,(0,0),R:0,S:0> md: rdev sdp, SZ:2925516544 F:0 S:1 DN:3 md: rdev superblock: (usw.usf.) ---------------8<---------------schnipp---------------8<--------------- (bei Bedarf gerne den ganzen Status-Report, aber ist bei ca. 25 beteiligten block devices halt "etwas" umfangreich...)
Bin mir nicht ganz sicher, aber m.E. ist das erst aufgetreten, nachdem ich vor einigen Monaten das md4, bestehend aus mehreren 3TB-Platten nachgerüstet habe - vielleicht war aber auch ein Upgrade auf CentOS 5.6 oder 5.7 der Auslöser.
Abgesehen davon, dass der Platten mit GB-großen Logdateien zugemüllt wird, ist bislang keine Störung festzustellen, aber irgendwie stören mich die Fehlermeldungen langsam doch etwas.
OS ist "CentOS release 5,7 (Final) mit Kernel Linux 2.6.18-274.3.1.el5 #1 SMP Tue Sep 6 20:13:52 EDT 2011 x86_64
Nachfolgend noch ein paar Konfigurationsdaten:
/proc/mdstat ============ Personalities : [raid6] [raid5] [raid4] [raid1] md4 : active raid5 sdm[0] sdq[4] sdp[3] sdo[2] sdn[1] 11702066176 blocks super 1.0 level 5, 256k chunk, algorithm 2 [5/5] [UUUUU]
md3 : active raid5 sdg[0] sdl[5] sdk[4] sdj[3] sdi[2] sdh[1] 9751704320 blocks level 5, 256k chunk, algorithm 2 [6/6] [UUUUUU]
md0 : active raid1 sda1[0] sdb1[1] 200704 blocks [2/2] [UU]
md2 : active raid5 sdf3[4] sde3[5] sdd3[3] sdc3[2] sdb3[1] sda3[0] 9730730240 blocks level 5, 256k chunk, algorithm 2 [6/6] [UUUUUU]
md1 : active raid5 sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0] 19960320 blocks level 5, 256k chunk, algorithm 2 [6/6] [UUUUUU]
grep md /proc/partitions ======================== unused devices: <none> 9 1 19960320 md1 9 2 9730730240 md2 9 0 200704 md0 9 3 9751704320 md3 9 4 11702066176 md4
ls -l /dev/md* ============== brw-r----- 1 root disk 9, 0 19. Sep 13:03 /dev/md0 brw-r----- 1 root disk 9, 1 19. Sep 13:03 /dev/md1 brw-r----- 1 root disk 9, 2 19. Sep 13:03 /dev/md2 brw-r----- 1 root disk 9, 3 19. Sep 13:04 /dev/md3 lrwxrwxrwx 1 root root 4 19. Sep 13:04 /dev/md4 -> md/4 /dev/md: insgesamt 0 brw-r----- 1 root disk 9, 4 19. Sep 13:04 4
mdadm -Ds ========= ARRAY /dev/md1 level=raid5 num-devices=6 metadata=0.90 UUID=b8120597:871a6e70:cf6b1487:dc58b391 ARRAY /dev/md2 level=raid5 num-devices=6 metadata=0.90 UUID=9894a242:7ff56a7b:c19ab258:6f9bfcc6 ARRAY /dev/md0 level=raid1 num-devices=2 metadata=0.90 UUID=29c84de8:372e4a7a:730b97e6:597fe28e ARRAY /dev/md3 level=raid5 num-devices=6 metadata=0.90 UUID=5a157b85:5daf922c:97ab19ab:5a4b9713 ARRAY /dev/md4 level=raid5 num-devices=5 metadata=1.00 name=4 UUID=dbe90346:4bec0a2a:a0f7bbea:5afaca67
mdadm -Es ========= ARRAY /dev/md0 level=raid1 num-devices=2 UUID=29c84de8:372e4a7a:730b97e6:597fe28e ARRAY /dev/md1 level=raid5 num-devices=6 UUID=b8120597:871a6e70:cf6b1487:dc58b391 ARRAY /dev/md2 level=raid5 num-devices=6 UUID=9894a242:7ff56a7b:c19ab258:6f9bfcc6 ARRAY /dev/md3 level=raid5 num-devices=6 UUID=5a157b85:5daf922c:97ab19ab:5a4b9713 ARRAY /dev/md/4 level=raid5 metadata=1.0 num-devices=5 UUID=dbe90346:4bec0a2a:a0f7bbea:5afaca67 name=4
/etc/mdadm.conf =============== # mdadm.conf written out by anaconda DEVICE partitions MAILADDR root ARRAY /dev/md0 level=raid1 num-devices=2 uuid=29c84de8:372e4a7a:730b97e6:597fe28e ARRAY /dev/md3 level=raid5 num-devices=6 uuid=5a157b85:5daf922c:97ab19ab:5a4b9713 spare-group=max3tb ARRAY /dev/md/4 level=raid5 metadata=1.0 num-devices=5 uuid=dbe90346:4bec0a2a:a0f7bbea:5afaca67 name=4
Irgendeine Idee, was diese permanenten Fehler auslöst und wie man das ändern kann? Danke schonmal!
Gruß, Tobias.