Prosíme přihlašte se nebo zaregistrujte.

Přihlašte se svým uživatelským jménem a heslem.
World of Warcraft

Novinky: Školení nejen k OS Ubuntu pro širokou veřejnost, více informací zde.

Autor Téma: mdadm raid1 po restartu nefunguje U16.10  (Přečteno 2417 krát)

nezik

  • Stálý člen
  • ***
  • Příspěvků: 713
  • Karma: +51/-9
    • Zobrazit profil
    • Chalupa Himmelreich
mdadm raid1 po restartu nefunguje U16.10
« kdy: 22 Říjen 2016, 16:04:04 »
Dobrý den,
po restartu mi nefunguje RAID1 pole. Je to datový disk, takže normálně nabootuju, ale boot trvá dlouho a vyhazuje chyby :
kern.log:
Kód: [Vybrat]
Oct 22 13:25:37 cisar kernel: [  144.752891] sd 3:0:0:0: [sdc] tag#26 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Oct 22 13:25:37 cisar kernel: [  144.752894] sd 3:0:0:0: [sdc] tag#26 Sense Key : Medium Error [current]
Oct 22 13:25:37 cisar kernel: [  144.752896] sd 3:0:0:0: [sdc] tag#26 Add. Sense: Unrecovered read error
Oct 22 13:25:37 cisar kernel: [  144.752899] sd 3:0:0:0: [sdc] tag#26 CDB: Read(10) 28 00 e3 00 8b 30 00 00 08 00
Oct 22 13:25:37 cisar kernel: [  144.752901] blk_update_request: I/O error, dev sdc, sector 3808463664
Oct 22 13:25:37 cisar kernel: [  144.752906] device-mapper: raid1: Primary mirror (8:32) failed while out-of-sync: Reads may fail.
Oct 22 13:25:37 cisar kernel: [  144.752911] device-mapper: raid1: Read failure on mirror device 8:32.  Failing I/O.
Oct 22 13:25:37 cisar kernel: [  144.752912] device-mapper: raid1: Mirror read failed.
Oct 22 13:25:37 cisar kernel: [  144.752927] ata4: EH complete
Oct 22 13:25:37 cisar kernel: [  144.752949] EXT4-fs error (device dm-3): __ext4_get_inode_loc:4317: inode #26215530: block 104857702: comm pool: unable to read itable block
Oct 22 13:25:37 cisar kernel: [  144.786864] device-mapper: raid1: Mirror read failed.
Oct 22 13:25:37 cisar kernel: [  144.786899] EXT4-fs error (device dm-2): __ext4_get_inode_loc:4317: inode #19791873: block 79167520: comm pool: unable to read itable block
Oct 22 13:25:37 cisar kernel: [  144.786993] device-mapper: raid1: Mirror read failed.
Oct 22 13:25:37 cisar kernel: [  144.787000] EXT4-fs error (device dm-1): __ext4_get_inode_loc:4317: inode #23593249: block 94371890: comm pool: unable to read itable block
Oct 22 13:25:37 cisar kernel: [  144.804049] device-mapper: raid1: Mirror read failed.
Oct 22 13:25:37 cisar kernel: [  144.804082] EXT4-fs error (device dm-1): __ext4_get_inode_loc:4317: inode #23593250: block 94371890: comm pool: unable to read itable block
Oct 22 13:25:28 cisar nautilus[2943]: g_dbus_interface_skeleton_unexport: assertion 'interface_->priv->connections != NULL' failed
Oct 22 13:25:52 cisar unity-panel-ser[2069]: gtk_icon_info_get_filename: assertion 'icon_info != NULL' failed
Oct 22 13:25:52 cisar unity-panel-ser[2069]: g_object_unref: assertion 'G_IS_OBJECT (object)' failed
Oct 22 13:25:52 cisar unity-panel-ser[2069]: gtk_icon_info_get_filename: assertion 'icon_info != NULL' failed
Oct 22 13:25:52 cisar unity-panel-ser[2069]: g_object_unref: assertion 'G_IS_OBJECT (object)' failed
Oct 22 13:25:52 cisar unity-panel-ser[2069]: gtk_icon_info_get_filename: assertion 'icon_info != NULL' failed
Oct 22 13:25:52 cisar unity-panel-ser[2069]: g_object_unref: assertion 'G_IS_OBJECT (object)' failed
Oct 22 13:25:52 cisar unity-panel-ser[2069]: gtk_icon_info_get_filename: assertion 'icon_info != NULL' failed
Oct 22 13:25:52 cisar unity-panel-ser[2069]: g_object_unref: assertion 'G_IS_OBJECT (object)' failed
Oct 22 13:29:16 cisar kernel: [  364.052761] INFO: task pool:2946 blocked for more than 120 seconds.

výpis fdisk:
Kód: [Vybrat]
Disk /dev/sdc: 1,8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x0004ebbe

Zařízení   Zaveditelný      Start      Konec    Sektory   Size Id Druh
/dev/sdc1                    2048 1740802047 1740800000 830,1G 83 Linux
/dev/sdc2              1740802048 2969602047 1228800000   586G 83 Linux
/dev/sdc3              2969602048 3907022847  937420800   447G 83 Linux
root@cisar:/home/nezik# fdisk /dev/sdd -l
Disk /dev/sdd: 1,8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x0004ebbe

Zařízení   Zaveditelný      Start      Konec    Sektory   Size Id Druh
/dev/sdd1                    2048 1740802047 1740800000 830,1G 83 Linux
/dev/sdd2              1740802048 2969602047 1228800000   586G 83 Linux
/dev/sdd3              2969602048 3907022847  937420800   447G 83 Linux

výpis blkid:
Kód: [Vybrat]
/dev/sda1: UUID="b2b53cc0-867f-4b9a-9a78-483e6743dcae" TYPE="ext4" PARTUUID="0005bf89-01"
/dev/sdb1: UUID="96f4f875-ab14-4c5c-862c-38ffdd3c750e" TYPE="ext4" PARTUUID="000934b9-01"
/dev/sdb2: UUID="f47ffc3b-51dd-4220-aeb2-4f7cfa7ca605" TYPE="ext4" PARTUUID="000934b9-02"
/dev/sde1: LABEL="Videa" UUID="78e29272-96f9-4ef5-a3ea-8dcb46bed28e" TYPE="ext4" PARTUUID="a86ee655-01"
/dev/mapper/isw_cjedbfhbeb_data1: LABEL="obrazky" UUID="11c18e23-a859-4a5c-ba29-d0252bed1671" TYPE="ext4" PARTUUID="0004ebbe-01"
/dev/mapper/isw_cjedbfhbeb_data2: LABEL="hudba" UUID="609a219b-e2cd-458a-8887-252ca1903ff3" TYPE="ext4" PARTUUID="0004ebbe-02"
/dev/mapper/isw_cjedbfhbeb_data3: LABEL="zaloha" UUID="0da7f49a-0fc4-4649-8e89-a1a2c0a15ad1" TYPE="ext4" PARTUUID="0004ebbe-03"
/dev/sdc: TYPE="isw_raid_member"
/dev/sdd: TYPE="isw_raid_member"
/dev/mapper/isw_cjedbfhbeb_data: PTUUID="0004ebbe" PTTYPE="dos"

výpis mdadm.conf:
Kód: [Vybrat]
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY metadata=imsm UUID=e805c021:eb993414:4544dfc3:fc95c993
ARRAY /dev/md/data container=e805c021:eb993414:4544dfc3:fc95c993 member=0 UUID=416f7d7e:5f6eb6b2:c0030aae:ccd7741f

# This configuration was auto-generated on Sat, 22 Oct 2016 15:08:04 +0200 by mkconf
a tady si myslím, že je chyba, protože tam ty disky nevidím.
Podařilo se mi je ručně namountovat, a kopíruju data na externí disk, kdyby se náhodou už nechtěli přihlásit vůbec, protože se mi to jednou stalo.

Bohužel jsem mi strejda gůgl neumí zodpovědět dotaz jak by měl mdadm.conf vypadat.
HP Pavilion a6165.it, 2GB ram, Core2duo E4400 nVidia GeForce 8400GS. Ubuntu 12.04
Kdesu není první slovo Hanáckeho opilce po probuzení, ale příkaz systému.
Ubuntu - nejlepší pařba od Diabla II. ;D

Petr Merlin Vaněček

  • Moderátor
  • Závislák
  • *****
  • Příspěvků: 4938
  • Karma: +347/-11
    • Zobrazit profil
    • Lomítkáři
Re:mdadm raid1 po restartu nefunguje U16.10
« Odpověď #1 kdy: 23 Říjen 2016, 11:13:24 »
Kód: [Vybrat]
cat /proc/mdstat

Odhaduji, že oba disky vykazují chybu, proto jsou vyřazené z pole.
Registered Linux user #421281
Stiskni CTRL + W ...
80% mozku tvoří kapalina ... u některých brzdová