{
    "version": "https:\/\/jsonfeed.org\/version\/1.1",
    "title": "Аникин: заметки с тегом mount",
    "_rss_description": "Блог об администрировании Linux, BSD и не только",
    "_rss_language": "ru",
    "_itunes_email": "",
    "_itunes_categories_xml": "",
    "_itunes_image": "",
    "_itunes_explicit": "",
    "home_page_url": "https:\/\/anikin.pw\/tags\/mount\/",
    "feed_url": "https:\/\/anikin.pw\/tags\/mount\/json\/",
    "icon": "https:\/\/anikin.pw\/pictures\/userpic\/userpic@2x.jpg?1478690884",
    "authors": [
        {
            "name": "Петр Аникин",
            "url": "https:\/\/anikin.pw\/",
            "avatar": "https:\/\/anikin.pw\/pictures\/userpic\/userpic@2x.jpg?1478690884"
        }
    ],
    "items": [
        {
            "id": "13",
            "url": "https:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/",
            "title": "Linux recovery system Server4You manual",
            "content_html": "Автор:  <a href=\"http:\/\/shmelenduk.ru\" target=\"_blank\">Артем Авдонин<\/a><p>\r\nДля чего может потребоваться загрузка вашего сервера под linux recovery system? Очевидный ответ - для проведения диагностики и процедур восстановления работоспособности ОС.\r\n\r\nЧто же из себя представляет сервер, загруженный в recovery? Это загруженный на Вашем сервере, по сети, образ linux. В нём уже установлены все основные утилиты, которые могут быть использованы при диагностике и восстановлении работоспособности сервера.\r\n\r\nИ так, у нас есть сервер в вышеупомянутом датацентре, загруженный в recovery mode.\r\n\r\nОглавление (постоянно обновляется)\r\n<ol>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#mdadm\">Запуск и монтирование корневой файловой системы<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#fsck\">Ошибки файловой системы<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#raid\">Проблемы RAID<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#hdd\">Проблемы HDD<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#troubleshoot\">Сброс правил firewall<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#backup\">Доступ к данным на сервере<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#passwd\">Сброс root пароля<\/a><\/li>\r\n<\/ol>\r\nПодключаемся к серверу по ssh. В качестве имени пользователя указываем суперпользователя root, пароль указывается при отправке сервера в recovery mode.\r\n<a name=\"mdadm\"><\/a>\r\n<h2 style=\"padding-left: 30px\">1. Запуск и монтирование корневой файловой системы<\/h2>\r\nВ случае, если в системе используется RAID массив, начнём с его запуска:\r\n<pre style=\"padding-left: 30px\">~# mdadm --assemble --run \/dev\/md2<\/pre>\r\nЭта команда запускает software RAID массив с меткой md2. На серверах s4y чаще всего md2 является rootfs (корневой файловой системой). Но не исключено, что искомым будем массив с меткой md1. Массив md0 - раздел \/boot По выполнению команды вы должны увидеть:\r\n<pre style=\"padding-left: 30px\">mdadm: \/dev\/md2 has been started with 2 drives.<\/pre>\r\nЭто значит, что RAID успешно запущен. Проверим нормально ли собрался RAID:\r\n<pre style=\"padding-left: 30px\">~# cat \/proc\/mdstat\r\n\r\nPersonalities : [raid1] [raid0] [raid6] [raid5] [raid4]\r\nmd2 : active raid1 sdb4[0] sda4[1]\r\n      1456634744 blocks super 1.2 [2\/2] [UU]                     \r\n\r\nunused devices: &lt;none&gt;<\/pre>\r\n2\/2 дисков добавлено в массив. Всё в порядке. В случае 1\/2 или ошибок после ввода команды сборки массива обращайтесь в раздел Проблемы RAID.\r\n\r\nМонтируем md2 в любую удобную вам точку. В данном случае я понтирую файловую систему в точку \/mnt:\r\n<pre style=\"padding-left: 30px\">~# mount \/dev\/md2 \/mnt<\/pre>\r\nУдостоверимся, что то, что мы примонтировали является rootfs нашего сервера:\r\n<pre style=\"padding-left: 30px\">~# ls \/mnt\r\naquota.user dev initrd.img lib64 mnt root srv usr\r\nbin etc lib lost+found opt sbin sys var\r\nboot home lib32 media proc selinux tmp vmlinuz<\/pre>\r\nВидим вполне стандартное дерево каталогов корневой файловой системы linux дистрибутива. Значит md2 является rootfs Вашего сервера.\r\n\r\nЕсли у Вас установлен шаблон без использования RAID, то нужно просто смонтировать \/dev\/sdaX, где X номер раздела с ОС.\r\n\r\nПосле монтирования файловой системы можно начинать работу по диагностике проблем ОС или работать с вашими файлами.\r\n<a name=\"fsck\"><\/a>\r\n<h2 style=\"padding-left: 30px\">2. Ошибки файловой системы<\/h2>\r\nЧасто ОС не может загрузиться из за ошибок файловой системы. Что бы исключить или подтвердить и исправить данную проблему необходимо выполнить проверку файловой системы с помощью fsck. fsck <strong>должен<\/strong> выполняться на отмонтированной файловой системе. Выполните раздел 1 этого руководства, исключая монтирование fs. Запустите таким образом md0 и md2 (\/boot и корневую fs).\r\n\r\nПосле того как массивы для проверки собраны выполняется fsck для md0 и md2:\r\n<pre>~# fsck -y \/dev\/md2\r\nfsck from util-linux 2.20.1\r\ne2fsck 1.42 (29-Nov-2011)\r\n\/dev\/md2 has been mounted 22 times without being checked, check forced.\r\nPass 1: Checking inodes, blocks, and sizes\r\nPass 2: Checking directory structure\r\nPass 3: Checking directory connectivity\r\nPass 4: Checking reference counts\r\nPass 5: Checking group summary information\r\n\/dev\/md2: 68650\/91045888 files (0.2% non-contiguous), 6396596\/364158686 blocks<\/pre>\r\nfsck, в данном случае, выполнился без ошибок.\r\n<a name=\"raid\"><\/a>\r\n<h2 style=\"padding-left: 30px\">3. Проблемы RAID<\/h2>\r\nНе загружающийся сервер может быть вызван не собирающимся, повреждённым, \"развалившимся\" RAID. Как запустить RAID указано в первой главе этой статьи. Запустите все имеющиеся у вас массивы и проверьте статистику mdstat:\r\n<pre style=\"padding-left: 30px\">~# cat \/proc\/mdstat\r\n<span style=\"color: #222222;font-family: 'Courier 10 Pitch', Courier, monospace;line-height: 21px\">~# cat \/proc\/mdstat\r\n<\/span>Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]\r\nmd1 : active raid1 sdb3[0] sda3[1](F)\r\n7999476 blocks super 1.2 [2\/1] [U_]\r\nmd2 : active raid1 sdb4[0] sda4[1](F) \r\n1456634744 blocks super 1.2 [2\/1] [U_]\r\nmd0 : active raid1 sdb2[0] sda2[1](F) \r\n499700 blocks super 1.2 [2\/1] [U_]\r\n\r\nunused devices: &lt;none&gt;<\/pre>\r\nЕсли вывод выглядит примерно так (обратите внимание на (F) и [2\/1]) - это значит, что массив не собран и не работает. (F) - обозначает пометка массива как fail. [2\/1] обозначает, что только один диск массива работает. Нужно удалить из массива сбойные разделы и попробовать добавить их снова:\r\n<pre style=\"padding-left: 30px\">~# mdadm \/dev\/md1 -r \/dev\/sda3\r\nmdadm: hot removed \/dev\/sda3 from \/dev\/md1\r\n~# mdadm \/dev\/md0 -r \/dev\/sda2\r\nmdadm: hot removed \/dev\/sda3 from \/dev\/md0\r\n~# mdadm \/dev\/md2 -r \/dev\/sda4\r\nmdadm: hot removed \/dev\/sda3 from \/dev\/md2<\/pre>\r\nДобавляем:\r\n<pre style=\"padding-left: 30px\">~# mdadm \/dev\/md0 -a \/dev\/sda2<\/pre>\r\nМы можем увидеть несколько ошибок и среди них\r\n<pre style=\"padding-left: 30px\">mdadm: To make this a spare, use \"mdadm --zero-superblock \/dev\/sda2\" first.<\/pre>\r\nВыполняем mdadm --zero-superblock \/dev\/sda2 и повторяем mdadm \/dev\/md0 -a \/dev\/sda2 для каждого удаляемого выше раздела.\r\n\r\nПроверим добавились ли разделы в массив:\r\n<pre style=\"padding-left: 30px\">~# cat \/proc\/mdstat\r\nPersonalities : [raid1] [raid0] [raid6] [raid5] [raid4]\r\nmd1 : active raid1 sda3[2] sdb3[0]\r\n 7999476 blocks super 1.2 [2\/1] [U_]\r\n resync=DELAYED\r\n\r\nmd2 : active raid1 sda4[2] sdb4[0]\r\n1456634744 blocks super 1.2 [2\/1] [U_]\r\n[&gt;....................] recovery = 0.1% (2332928\/1456634744) finish=365.5min speed=66306K\/sec\r\nmd0 : active raid1 sda2[2] sdb2[0]\r\n\r\n499700 blocks super 1.2 [2\/2] [UU]\r\n\r\nunused devices: &lt;none&gt;<\/pre>\r\nЗначит RAID собирается нормально. Если на одном из этапов возникла ошибка, то стоит попробовать сначала пересоздать всю таблицу разделов, возможно её что-то покрошило. Если даже после этого RAID не собирается, то нужно проверить жёсткие диски.\r\n<a name=\"hdd\"><\/a>\r\n<h2 style=\"padding-left: 30px\">4. Проблемы HDD<\/h2>\r\nНе загружается сервер? Не собирается RAID? Проверим диски!\r\n\r\nКонкретная ситуация - RAID на сервере не собирается. Разделы диска sda помечены как сбойные. Нужно проверить состояние s.m.a.r.t.  этого диска.\r\n<p style=\"padding-left: 30px\">smartctl -a \/dev\/sda<\/p>\r\nИз всего вывода нас интересует только серийный номер диска и таблица s.m.a.r.t :\r\n<pre style=\"padding-left: 30px\">Model Family: Seagate Barracuda LP\r\nDevice Model: ST31500541AS\r\nSerial Number: 5XW2PTK4<\/pre>\r\nИз таблицы интересуют только показатели, связанные с bad blocks:\r\n<pre style=\"padding-left: 30px\">5 Reallocated_Sector_Ct   0x0033   100   100   036    Pre-fail  Always       -       23\r\n198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       15<\/pre>\r\nЕсли показатели в последнем столбце отличнны от 0, это признак нарушения поверхности диска и он подлежит замене. Если значения равны нулю, но диск в RAID добавить не удаётся (или не удаётся смонтировать, в случае с шаблоном без RAID), то нужно выполнить проверку диска на badblocks. Процедура потребует времени - от 3  до 6 часов.\r\n<pre style=\"padding-left: 30px\">~# badblocks -v \/dev\/sda\r\nChecking blocks 0 to 1465138583\r\nChecking for bad blocks (read-only test): 0.01% done, 0:02 elapsed. (0\/0\/0 errors)<\/pre>\r\nЕсли во время проверки появились ошибки залогируйте их где-нибудь для передачи в техподдержку для замены диска.\r\n<a name=\"troubleshoot\"><\/a>\r\n<h2 style=\"padding-left: 30px\">5. Сброс правил firewall<\/h2>\r\nСлучайно сохранили некорректные правила iptables и установили на автозагрузку? Вам нужно примонтировать вашу файловую систему (раздел 1) и исправить\/удалить правила из автозагрузки. Путь до файла будет другой:\r\nфайл бывший <strong>\/etc\/rc.local<\/strong> будет <strong>\/mnt\/etc\/rc.local<\/strong>\r\n<a name=\"backup\"><\/a>\r\n<h2 style=\"padding-left: 30px\">6. Доступ к данным<\/h2>\r\nНужно просто снять бекапы? Выполняйте все действия из раздела 1. После этого Вы можете подключиться к серверу по sftp любым клиентом, например WinSCP и забрать Ваши файлы. Они будут находиться в каталоге \/mnt\r\n<a name=\"passwd\"><\/a>\r\n<h2 style=\"padding-left: 30px\">7. Сброс пароля<\/h2>\r\nДля того, что бы сбросить root пароль нужно выполнить все действия из раздела 1 и выполнить chroot на папке в которую примонтирована корневая файловая система, в данном случае это \/mnt\r\n<pre style=\"padding-left: 30px\">root@servername:~# chroot \/mnt\r\nservername:\/#<\/pre>\r\nТеперь можно менять пароль root:\r\n<pre style=\"padding-left: 30px\">servername:\/# passwd root\r\nEnter new UNIX password:\r\nRetype new UNIX password:\r\npasswd: password updated successfully<\/pre>",
            "date_published": "2013-10-22T19:36:05+03:00",
            "date_modified": "2014-04-04T17:56:16+03:00",
            "tags": [
                "badblocks",
                "chroot",
                "fsck",
                "mdadm",
                "mirror",
                "mount",
                "passwd",
                "raid",
                "raid1",
                "recovery",
                "s.m.a.r.t.",
                "s4y",
                "server4you",
                "smart"
            ],
            "_date_published_rfc2822": "Tue, 22 Oct 2013 19:36:05 +0300",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "13",
            "_e2_data": {
                "is_favourite": true,
                "links_required": null,
                "og_images": []
            }
        }
    ],
    "_e2_version": 4134,
    "_e2_ua_string": "Aegea 11.3 (v4134)"
}