Hier wird permanent das Kernel-Log mit Fehlermeldungen "bug in file
drivers/md/md.c, line 1659" vollgemüllt, gefolgt von Status-Reports
über sämtliche "md" im System.
---------------8<---------------schnipp---------------8<---------------
md: bug in file drivers/md/md.c, line 1659
md: **********************************
md: * <COMPLETE RAID STATE PRINTOUT> *
md: **********************************
md4: <sdm><sdq><sdp><sdo><sdn>
md: rdev sdm, SZ:2925516544 F:0 S:1 DN:0
md: rdev superblock:
md: SB: (V:1.0.0) ID:<2a0aec4b.00000000.00000000.00000000> CT:eabbf7a0
md: L1741355610 S00000052 ND:0 RD:0 md0 LO:65536 CS:196610
md: UT:00000000 ST:0 AD:1556066032 WD:1 FD:1556066288 SD:1 CSUM:00000000 E:00000000
D 0: DISK<N:-1,(-1,-1),R:-1,S:-1>
D 1: DISK<N:-1,(-1,-1),R:-1,S:-1>
D 2: DISK<N:-1,(-1,-1),R:-1,S:-1>
D 3: DISK<N:-1,(-1,-1),R:-1,S:-1>
md: THIS: DISK<N:0,(0,0),R:0,S:0>
md: rdev sdq, SZ:2925516544 F:0 S:1 DN:4
md: rdev superblock:
md: SB: (V:1.0.0) ID:<2a0aec4b.00000000.00000000.00000000> CT:eabbf7a0
md: L1741355610 S00000052 ND:0 RD:0 md0 LO:65536 CS:196610
md: UT:00000000 ST:0 AD:1556066032 WD:1 FD:1556066288 SD:1 CSUM:00000000 E:00000000
D 0: DISK<N:-1,(-1,-1),R:-1,S:-1>
D 1: DISK<N:-1,(-1,-1),R:-1,S:-1>
D 2: DISK<N:-1,(-1,-1),R:-1,S:-1>
D 3: DISK<N:-1,(-1,-1),R:-1,S:-1>
md: THIS: DISK<N:0,(0,0),R:0,S:0>
md: rdev sdp, SZ:2925516544 F:0 S:1 DN:3
md: rdev superblock:
(usw.usf.)
---------------8<---------------schnipp---------------8<---------------
(bei Bedarf gerne den ganzen Status-Report, aber ist bei ca. 25
beteiligten block devices halt "etwas" umfangreich...)
Bin mir nicht ganz sicher, aber m.E. ist das erst aufgetreten, nachdem
ich vor einigen Monaten das md4, bestehend aus mehreren 3TB-Platten
nachgerüstet habe - vielleicht war aber auch ein Upgrade auf CentOS 5.6
oder 5.7 der Auslöser.
Abgesehen davon, dass der Platten mit GB-großen Logdateien zugemüllt
wird, ist bislang keine Störung festzustellen, aber irgendwie stören
mich die Fehlermeldungen langsam doch etwas.
OS ist "CentOS release 5,7 (Final) mit Kernel Linux 2.6.18-274.3.1.el5
#1 SMP Tue Sep 6 20:13:52 EDT 2011 x86_64
Nachfolgend noch ein paar Konfigurationsdaten:
/proc/mdstat
============
Personalities : [raid6] [raid5] [raid4] [raid1]
md4 : active raid5 sdm[0] sdq[4] sdp[3] sdo[2] sdn[1]
11702066176 blocks super 1.0 level 5, 256k chunk, algorithm 2 [5/5] [UUUUU]
md3 : active raid5 sdg[0] sdl[5] sdk[4] sdj[3] sdi[2] sdh[1]
9751704320 blocks level 5, 256k chunk, algorithm 2 [6/6] [UUUUUU]
md0 : active raid1 sda1[0] sdb1[1]
200704 blocks [2/2] [UU]
md2 : active raid5 sdf3[4] sde3[5] sdd3[3] sdc3[2] sdb3[1] sda3[0]
9730730240 blocks level 5, 256k chunk, algorithm 2 [6/6] [UUUUUU]
md1 : active raid5 sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0]
19960320 blocks level 5, 256k chunk, algorithm 2 [6/6] [UUUUUU]
grep md /proc/partitions
========================
unused devices: <none>
9 1 19960320 md1
9 2 9730730240 md2
9 0 200704 md0
9 3 9751704320 md3
9 4 11702066176 md4
ls -l /dev/md*
==============
brw-r----- 1 root disk 9, 0 19. Sep 13:03 /dev/md0
brw-r----- 1 root disk 9, 1 19. Sep 13:03 /dev/md1
brw-r----- 1 root disk 9, 2 19. Sep 13:03 /dev/md2
brw-r----- 1 root disk 9, 3 19. Sep 13:04 /dev/md3
lrwxrwxrwx 1 root root 4 19. Sep 13:04 /dev/md4 -> md/4
/dev/md:
insgesamt 0
brw-r----- 1 root disk 9, 4 19. Sep 13:04 4
mdadm -Ds
=========
ARRAY /dev/md1 level=raid5 num-devices=6 metadata=0.90 UUID=b8120597:871a6e70:cf6b1487:dc58b391
ARRAY /dev/md2 level=raid5 num-devices=6 metadata=0.90 UUID=9894a242:7ff56a7b:c19ab258:6f9bfcc6
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=0.90 UUID=29c84de8:372e4a7a:730b97e6:597fe28e
ARRAY /dev/md3 level=raid5 num-devices=6 metadata=0.90 UUID=5a157b85:5daf922c:97ab19ab:5a4b9713
ARRAY /dev/md4 level=raid5 num-devices=5 metadata=1.00 name=4 UUID=dbe90346:4bec0a2a:a0f7bbea:5afaca67
mdadm -Es
=========
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=29c84de8:372e4a7a:730b97e6:597fe28e
ARRAY /dev/md1 level=raid5 num-devices=6 UUID=b8120597:871a6e70:cf6b1487:dc58b391
ARRAY /dev/md2 level=raid5 num-devices=6 UUID=9894a242:7ff56a7b:c19ab258:6f9bfcc6
ARRAY /dev/md3 level=raid5 num-devices=6 UUID=5a157b85:5daf922c:97ab19ab:5a4b9713
ARRAY /dev/md/4 level=raid5 metadata=1.0 num-devices=5 UUID=dbe90346:4bec0a2a:a0f7bbea:5afaca67 name=4
/etc/mdadm.conf
===============
# mdadm.conf written out by anaconda
DEVICE partitions
MAILADDR root
ARRAY /dev/md0 level=raid1 num-devices=2 uuid=29c84de8:372e4a7a:730b97e6:597fe28e
ARRAY /dev/md3 level=raid5 num-devices=6 uuid=5a157b85:5daf922c:97ab19ab:5a4b9713 spare-group=max3tb
ARRAY /dev/md/4 level=raid5 metadata=1.0 num-devices=5 uuid=dbe90346:4bec0a2a:a0f7bbea:5afaca67 name=4
Irgendeine Idee, was diese permanenten Fehler auslöst und wie man das ändern kann?
Danke schonmal!
Gruß,
Tobias.