{
    "version": "https:\/\/jsonfeed.org\/version\/1.1",
    "title": "Аникин: заметки с тегом raid1",
    "_rss_description": "Блог об администрировании Linux, BSD и не только",
    "_rss_language": "ru",
    "_itunes_email": "",
    "_itunes_categories_xml": "",
    "_itunes_image": "",
    "_itunes_explicit": "",
    "home_page_url": "https:\/\/anikin.pw\/tags\/raid1\/",
    "feed_url": "https:\/\/anikin.pw\/tags\/raid1\/json\/",
    "icon": "https:\/\/anikin.pw\/pictures\/userpic\/userpic@2x.jpg?1478690884",
    "authors": [
        {
            "name": "Петр Аникин",
            "url": "https:\/\/anikin.pw\/",
            "avatar": "https:\/\/anikin.pw\/pictures\/userpic\/userpic@2x.jpg?1478690884"
        }
    ],
    "items": [
        {
            "id": "46",
            "url": "https:\/\/anikin.pw\/all\/could-not-find-device-for-boot-boot-not-found-or-not-a-block-dev\/",
            "title": "Ошибка при восстановлении загрузчика после замены диска в RAID1",
            "content_html": "<p>Если при установке grub вы получаете ошибку следующего содержания:<\/p>\n<pre class=\"e2-text-code\"><code class=\"\">root #grub-install --root-directory=\/boot \/dev\/sda\nCould not find device for \/boot\/boot: not found or not a block device<\/code><\/pre><p>Выполните:<\/p>\n<pre class=\"e2-text-code\"><code class=\"\">root #grep -v rootfs \/proc\/mounts &gt; \/etc\/mtab<\/code><\/pre>",
            "date_published": "2015-01-25T11:23:34+03:00",
            "date_modified": "2015-01-25T11:27:17+03:00",
            "tags": [
                "debian",
                "grub",
                "grub2",
                "raid",
                "raid1",
                "ubuntu"
            ],
            "_date_published_rfc2822": "Sun, 25 Jan 2015 11:23:34 +0300",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "46",
            "_e2_data": {
                "is_favourite": false,
                "links_required": [
                    "highlight\/highlight.js",
                    "highlight\/highlight.css"
                ],
                "og_images": []
            }
        },
        {
            "id": "32",
            "url": "https:\/\/anikin.pw\/all\/zamena-dika-v-programnom-raid1-v-linux\/",
            "title": "Замена диска в програмном RAID1 в Linux",
            "content_html": "<p>Оглавление:<\/p>\n<p>\n<ol>\n\t<a href=\"http:\/\/anikin.pw\/all\/zamena-dika-v-programnom-raid1-v-linux\/#del\">I. Удаление диска из массива<\/a><\/br>\n\t<a href=\"http:\/\/anikin.pw\/all\/zamena-dika-v-programnom-raid1-v-linux\/#add\">II. Добавление диска в массив после замены<\/a><\/br>\n\t<a href=\"http:\/\/anikin.pw\/all\/zamena-dika-v-programnom-raid1-v-linux\/#parttabl\">&emsp;1. Определение таблицы разделов(GPT или MBR) и перенос её на новый диск<\/a><\/br>\n\t<a href=\"http:\/\/anikin.pw\/all\/zamena-dika-v-programnom-raid1-v-linux\/#adddisk\">&emsp;2. Добавление диска в массив<\/a><\/br>\n\t<a href=\"http:\/\/anikin.pw\/all\/zamena-dika-v-programnom-raid1-v-linux\/#grub\">III. Установка загрузчика<\/a>\n<\/ol><p>\nУ нас есть сервер в котором 2 диска: \/dev\/sda и \/dev\/sdb. Эти диски собраны у нас в софтверный RAID1 с помощью mdadm. Один из дисков вышел из строя, в нашем случае это \/dev\/sdb.<p>\n<a name=\"del\"><\/a>\n<b>I. Удаление диска из массива<\/b><p>\n\nПеред заменой диска желательно убрать диск из массива. Для начала проверим как размечен диск в массиве:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># cat \/proc\/mdstat \nPersonalities : [raid1] [raid0] [raid6] [raid5] [raid4] \nmd2 : active raid1 sda4[0] sdb4[1]\n      1456504640 blocks super 1.2 [2\/2] [UU]\n      \nmd1 : active raid1 sda3[0] sdb3[1]\n      7996352 blocks super 1.2 [2\/2] [UU]\n      \nmd0 : active raid1 sda2[0] sdb2[1]\n      499392 blocks super 1.2 [2\/2] [UU]\n      \nunused devices: &lt;none&gt;<\/code><\/pre><p>\n\nВ данном случае массив собран так. Что md0 состоит из sda2 и sdb2, md1 из sda3 и sdb3, md2 из sda4 и sdb4. На этом сервере md0 это \/boot, md1 — своп, md2 — корень. Убираем sdb из всех устройств.<p>\n\n<pre class=\"e2-text-code\"><code class=\"\"># mdadm \/dev\/md0 --remove \/dev\/sdb2\n# mdadm \/dev\/md1 --remove \/dev\/sdb3\n# mdadm \/dev\/md2 --remove \/dev\/sdb4<\/code><\/pre><p>\n\nЕсли разделы из массива не удаляются, это как в нашем случае. Mdadm не считает диск неисправным и использует его, и при удалении мы увидим ошибку, что устройство используется. В этом случае перед удалением помечаем диск как сбойный.<p>\n\n<pre class=\"e2-text-code\"><code class=\"\"># mdadm \/dev\/md0 -f \/dev\/sdb2\n# mdadm \/dev\/md1 -f \/dev\/sdb3\n# mdadm \/dev\/md2 -f \/dev\/sdb4<\/code><\/pre><p>\n\nА затем снова выполним команды по удалению разделов из массива.\nВсе, мы удалили сбойный диск из массива. Теперь можем писать в датацентр запрос на замену диска.<p>\n<a name=\"add\"><\/a>\n<b>II. Добавление диска в массив после замены<\/b><p>\n<a name=\"parttabl\"><\/a>\n&emsp;&emsp;<b>1. Определение таблицы разделов(GPT или MBR) и перенос её на новый диск<\/b><p>\nПосле замены поврежденного диска нужно добавить новый диск в массив. Для этого надо определить какая у нас таблица разделов: GPT или MBR. Для этого будем использовать gdisk\nУстановим gdisk:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># apt-get install gdisk -y<\/code><\/pre><p>\nВыполняем:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># gdisk -l \/dev\/sda<\/code><\/pre><p>\nГде \/dev\/sda — исправный диск находящийся в raid.\nВ выводе будет примерно это для MBR:<p>\n<pre class=\"e2-text-code\"><code class=\"\">Partition table scan:\nMBR: MBR only\nBSD: not present\nAPM: not present\nGPT: not present<\/code><\/pre><p>\n\nИ примерно это для GPT:<p>\n<pre class=\"e2-text-code\"><code class=\"\">Partition table scan:\nMBR: protective\nBSD: not present\nAPM: not present\nGPT: present<\/code><\/pre><p>\n\nПеред добавлением диска в массив нам нужно на нем создать разделы в точности такие же как и  на sda. В зависимости от разметки диска это делается по разному.<p>\n<b>Копирование разметки для GPT:<\/b><p>\n<pre class=\"e2-text-code\"><code class=\"\"># sgdisk -R \/dev\/sdb \/dev\/sda<\/code><\/pre><p>\nЗдесь надо быть внимательным. Первым пишется диск на который копируется разметка, а вторым с которого копируют. Если перепутать их местами, то разметка на изначально исправном диске будет уничтожена.<\/br>\nДаем диску новый случайный UIDD:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># sgdisk -G \/dev\/sdb<\/code><\/pre><p>\n<b>Копирование разметки для MBR:<\/b><p>\n<pre class=\"e2-text-code\"><code class=\"\"># sfdisk -d \/dev\/sda | sfdisk \/dev\/sdb<\/code><\/pre><p>\nЗдесь наоборот первым пишется диск с которого переносим разметку, а вторым на который переносим.\nЕсли разделы не видны в системе, то можно перечитать таблицу разделов командой:<p>\n<\/code># sfdisk -R \/dev\/sdb<\/code><p>\n<a name=\"adddisk\"><\/a>\n&emsp;&emsp;<b>2. Добавление диска в массив<\/b><p>\nКогда мы создали разделы на \/dev\/sdb, то можно добавлять диск в массив.<p>\n<pre class=\"e2-text-code\"><code class=\"\"># mdadm \/dev\/md0 -a \/dev\/sdb2\n# mdadm \/dev\/md1 -a \/dev\/sdb3\n# mdadm \/dev\/md2 -a \/dev\/sdb4<\/code><\/pre><p>\n<a name=\"grub\"><\/a>\n<b>III. Установка загрузчика<\/b><p>\nПосле добавления диска в массив нужно установить на него загрузчик. Если сервер загружен в нормальном режиме, то это делается одной командой:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># grub-install \/dev\/sdb<\/code><\/pre><p>\nЕсли сервер загружен в recovery или rescue, т.е с live cd, то установка загрузчика выглядит следующим образом.<\/br>\nМонтируем корневую файловую систему в  \/mnt:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># mount \/dev\/md2 \/mnt<\/code><\/pre><p>\nМонтируем boot:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># mount \/dev\/md0 \/mnt\/boot<\/code><\/pre><p>\nМонтируем \/dev, \/proc и \/sys:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># mount --bind \/dev \/mnt\/dev\n# mount --bind \/proc \/mnt\/proc\n# mount --bind \/sys  \/mnt\/sys<\/code><\/pre><p>\nЗатем делаем chroot в примонтированную систему:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># chroot \/mnt<\/code><\/pre><p>\nИ устанавливаем grub на sdb:<p>\n<pre class=\"e2-text-code\"><code class=\"\"># grub-install \/dev\/sdb<\/code><\/pre><p>\nТеперь можно попробовать загрузится в нормальный режим.\n<p>\n<b>P.S.<\/b>\nЕсли при установке загрузчика возникнет ошибка Could not find device for \/boot\/boot: not found or not a block device то вам <a href=\"http:\/\/anikin.pw\/all\/could-not-find-device-for-boot-boot-not-found-or-not-a-block-dev\/\">сюда<\/a>.",
            "date_published": "2014-08-08T09:42:17+03:00",
            "date_modified": "2015-01-25T11:26:21+03:00",
            "tags": [
                "debian",
                "gdisk",
                "GPT",
                "mbr",
                "mdadm",
                "raid",
                "raid1",
                "ubuntu"
            ],
            "_date_published_rfc2822": "Fri, 08 Aug 2014 09:42:17 +0300",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "32",
            "_e2_data": {
                "is_favourite": true,
                "links_required": [
                    "highlight\/highlight.js",
                    "highlight\/highlight.css"
                ],
                "og_images": []
            }
        },
        {
            "id": "13",
            "url": "https:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/",
            "title": "Linux recovery system Server4You manual",
            "content_html": "Автор:  <a href=\"http:\/\/shmelenduk.ru\" target=\"_blank\">Артем Авдонин<\/a><p>\r\nДля чего может потребоваться загрузка вашего сервера под linux recovery system? Очевидный ответ - для проведения диагностики и процедур восстановления работоспособности ОС.\r\n\r\nЧто же из себя представляет сервер, загруженный в recovery? Это загруженный на Вашем сервере, по сети, образ linux. В нём уже установлены все основные утилиты, которые могут быть использованы при диагностике и восстановлении работоспособности сервера.\r\n\r\nИ так, у нас есть сервер в вышеупомянутом датацентре, загруженный в recovery mode.\r\n\r\nОглавление (постоянно обновляется)\r\n<ol>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#mdadm\">Запуск и монтирование корневой файловой системы<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#fsck\">Ошибки файловой системы<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#raid\">Проблемы RAID<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#hdd\">Проблемы HDD<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#troubleshoot\">Сброс правил firewall<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#backup\">Доступ к данным на сервере<\/a><\/li>\r\n\t<li><a href=\"http:\/\/anikin.pw\/all\/linux-recovery-system-server4you-manual\/#passwd\">Сброс root пароля<\/a><\/li>\r\n<\/ol>\r\nПодключаемся к серверу по ssh. В качестве имени пользователя указываем суперпользователя root, пароль указывается при отправке сервера в recovery mode.\r\n<a name=\"mdadm\"><\/a>\r\n<h2 style=\"padding-left: 30px\">1. Запуск и монтирование корневой файловой системы<\/h2>\r\nВ случае, если в системе используется RAID массив, начнём с его запуска:\r\n<pre style=\"padding-left: 30px\">~# mdadm --assemble --run \/dev\/md2<\/pre>\r\nЭта команда запускает software RAID массив с меткой md2. На серверах s4y чаще всего md2 является rootfs (корневой файловой системой). Но не исключено, что искомым будем массив с меткой md1. Массив md0 - раздел \/boot По выполнению команды вы должны увидеть:\r\n<pre style=\"padding-left: 30px\">mdadm: \/dev\/md2 has been started with 2 drives.<\/pre>\r\nЭто значит, что RAID успешно запущен. Проверим нормально ли собрался RAID:\r\n<pre style=\"padding-left: 30px\">~# cat \/proc\/mdstat\r\n\r\nPersonalities : [raid1] [raid0] [raid6] [raid5] [raid4]\r\nmd2 : active raid1 sdb4[0] sda4[1]\r\n      1456634744 blocks super 1.2 [2\/2] [UU]                     \r\n\r\nunused devices: &lt;none&gt;<\/pre>\r\n2\/2 дисков добавлено в массив. Всё в порядке. В случае 1\/2 или ошибок после ввода команды сборки массива обращайтесь в раздел Проблемы RAID.\r\n\r\nМонтируем md2 в любую удобную вам точку. В данном случае я понтирую файловую систему в точку \/mnt:\r\n<pre style=\"padding-left: 30px\">~# mount \/dev\/md2 \/mnt<\/pre>\r\nУдостоверимся, что то, что мы примонтировали является rootfs нашего сервера:\r\n<pre style=\"padding-left: 30px\">~# ls \/mnt\r\naquota.user dev initrd.img lib64 mnt root srv usr\r\nbin etc lib lost+found opt sbin sys var\r\nboot home lib32 media proc selinux tmp vmlinuz<\/pre>\r\nВидим вполне стандартное дерево каталогов корневой файловой системы linux дистрибутива. Значит md2 является rootfs Вашего сервера.\r\n\r\nЕсли у Вас установлен шаблон без использования RAID, то нужно просто смонтировать \/dev\/sdaX, где X номер раздела с ОС.\r\n\r\nПосле монтирования файловой системы можно начинать работу по диагностике проблем ОС или работать с вашими файлами.\r\n<a name=\"fsck\"><\/a>\r\n<h2 style=\"padding-left: 30px\">2. Ошибки файловой системы<\/h2>\r\nЧасто ОС не может загрузиться из за ошибок файловой системы. Что бы исключить или подтвердить и исправить данную проблему необходимо выполнить проверку файловой системы с помощью fsck. fsck <strong>должен<\/strong> выполняться на отмонтированной файловой системе. Выполните раздел 1 этого руководства, исключая монтирование fs. Запустите таким образом md0 и md2 (\/boot и корневую fs).\r\n\r\nПосле того как массивы для проверки собраны выполняется fsck для md0 и md2:\r\n<pre>~# fsck -y \/dev\/md2\r\nfsck from util-linux 2.20.1\r\ne2fsck 1.42 (29-Nov-2011)\r\n\/dev\/md2 has been mounted 22 times without being checked, check forced.\r\nPass 1: Checking inodes, blocks, and sizes\r\nPass 2: Checking directory structure\r\nPass 3: Checking directory connectivity\r\nPass 4: Checking reference counts\r\nPass 5: Checking group summary information\r\n\/dev\/md2: 68650\/91045888 files (0.2% non-contiguous), 6396596\/364158686 blocks<\/pre>\r\nfsck, в данном случае, выполнился без ошибок.\r\n<a name=\"raid\"><\/a>\r\n<h2 style=\"padding-left: 30px\">3. Проблемы RAID<\/h2>\r\nНе загружающийся сервер может быть вызван не собирающимся, повреждённым, \"развалившимся\" RAID. Как запустить RAID указано в первой главе этой статьи. Запустите все имеющиеся у вас массивы и проверьте статистику mdstat:\r\n<pre style=\"padding-left: 30px\">~# cat \/proc\/mdstat\r\n<span style=\"color: #222222;font-family: 'Courier 10 Pitch', Courier, monospace;line-height: 21px\">~# cat \/proc\/mdstat\r\n<\/span>Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]\r\nmd1 : active raid1 sdb3[0] sda3[1](F)\r\n7999476 blocks super 1.2 [2\/1] [U_]\r\nmd2 : active raid1 sdb4[0] sda4[1](F) \r\n1456634744 blocks super 1.2 [2\/1] [U_]\r\nmd0 : active raid1 sdb2[0] sda2[1](F) \r\n499700 blocks super 1.2 [2\/1] [U_]\r\n\r\nunused devices: &lt;none&gt;<\/pre>\r\nЕсли вывод выглядит примерно так (обратите внимание на (F) и [2\/1]) - это значит, что массив не собран и не работает. (F) - обозначает пометка массива как fail. [2\/1] обозначает, что только один диск массива работает. Нужно удалить из массива сбойные разделы и попробовать добавить их снова:\r\n<pre style=\"padding-left: 30px\">~# mdadm \/dev\/md1 -r \/dev\/sda3\r\nmdadm: hot removed \/dev\/sda3 from \/dev\/md1\r\n~# mdadm \/dev\/md0 -r \/dev\/sda2\r\nmdadm: hot removed \/dev\/sda3 from \/dev\/md0\r\n~# mdadm \/dev\/md2 -r \/dev\/sda4\r\nmdadm: hot removed \/dev\/sda3 from \/dev\/md2<\/pre>\r\nДобавляем:\r\n<pre style=\"padding-left: 30px\">~# mdadm \/dev\/md0 -a \/dev\/sda2<\/pre>\r\nМы можем увидеть несколько ошибок и среди них\r\n<pre style=\"padding-left: 30px\">mdadm: To make this a spare, use \"mdadm --zero-superblock \/dev\/sda2\" first.<\/pre>\r\nВыполняем mdadm --zero-superblock \/dev\/sda2 и повторяем mdadm \/dev\/md0 -a \/dev\/sda2 для каждого удаляемого выше раздела.\r\n\r\nПроверим добавились ли разделы в массив:\r\n<pre style=\"padding-left: 30px\">~# cat \/proc\/mdstat\r\nPersonalities : [raid1] [raid0] [raid6] [raid5] [raid4]\r\nmd1 : active raid1 sda3[2] sdb3[0]\r\n 7999476 blocks super 1.2 [2\/1] [U_]\r\n resync=DELAYED\r\n\r\nmd2 : active raid1 sda4[2] sdb4[0]\r\n1456634744 blocks super 1.2 [2\/1] [U_]\r\n[&gt;....................] recovery = 0.1% (2332928\/1456634744) finish=365.5min speed=66306K\/sec\r\nmd0 : active raid1 sda2[2] sdb2[0]\r\n\r\n499700 blocks super 1.2 [2\/2] [UU]\r\n\r\nunused devices: &lt;none&gt;<\/pre>\r\nЗначит RAID собирается нормально. Если на одном из этапов возникла ошибка, то стоит попробовать сначала пересоздать всю таблицу разделов, возможно её что-то покрошило. Если даже после этого RAID не собирается, то нужно проверить жёсткие диски.\r\n<a name=\"hdd\"><\/a>\r\n<h2 style=\"padding-left: 30px\">4. Проблемы HDD<\/h2>\r\nНе загружается сервер? Не собирается RAID? Проверим диски!\r\n\r\nКонкретная ситуация - RAID на сервере не собирается. Разделы диска sda помечены как сбойные. Нужно проверить состояние s.m.a.r.t.  этого диска.\r\n<p style=\"padding-left: 30px\">smartctl -a \/dev\/sda<\/p>\r\nИз всего вывода нас интересует только серийный номер диска и таблица s.m.a.r.t :\r\n<pre style=\"padding-left: 30px\">Model Family: Seagate Barracuda LP\r\nDevice Model: ST31500541AS\r\nSerial Number: 5XW2PTK4<\/pre>\r\nИз таблицы интересуют только показатели, связанные с bad blocks:\r\n<pre style=\"padding-left: 30px\">5 Reallocated_Sector_Ct   0x0033   100   100   036    Pre-fail  Always       -       23\r\n198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       15<\/pre>\r\nЕсли показатели в последнем столбце отличнны от 0, это признак нарушения поверхности диска и он подлежит замене. Если значения равны нулю, но диск в RAID добавить не удаётся (или не удаётся смонтировать, в случае с шаблоном без RAID), то нужно выполнить проверку диска на badblocks. Процедура потребует времени - от 3  до 6 часов.\r\n<pre style=\"padding-left: 30px\">~# badblocks -v \/dev\/sda\r\nChecking blocks 0 to 1465138583\r\nChecking for bad blocks (read-only test): 0.01% done, 0:02 elapsed. (0\/0\/0 errors)<\/pre>\r\nЕсли во время проверки появились ошибки залогируйте их где-нибудь для передачи в техподдержку для замены диска.\r\n<a name=\"troubleshoot\"><\/a>\r\n<h2 style=\"padding-left: 30px\">5. Сброс правил firewall<\/h2>\r\nСлучайно сохранили некорректные правила iptables и установили на автозагрузку? Вам нужно примонтировать вашу файловую систему (раздел 1) и исправить\/удалить правила из автозагрузки. Путь до файла будет другой:\r\nфайл бывший <strong>\/etc\/rc.local<\/strong> будет <strong>\/mnt\/etc\/rc.local<\/strong>\r\n<a name=\"backup\"><\/a>\r\n<h2 style=\"padding-left: 30px\">6. Доступ к данным<\/h2>\r\nНужно просто снять бекапы? Выполняйте все действия из раздела 1. После этого Вы можете подключиться к серверу по sftp любым клиентом, например WinSCP и забрать Ваши файлы. Они будут находиться в каталоге \/mnt\r\n<a name=\"passwd\"><\/a>\r\n<h2 style=\"padding-left: 30px\">7. Сброс пароля<\/h2>\r\nДля того, что бы сбросить root пароль нужно выполнить все действия из раздела 1 и выполнить chroot на папке в которую примонтирована корневая файловая система, в данном случае это \/mnt\r\n<pre style=\"padding-left: 30px\">root@servername:~# chroot \/mnt\r\nservername:\/#<\/pre>\r\nТеперь можно менять пароль root:\r\n<pre style=\"padding-left: 30px\">servername:\/# passwd root\r\nEnter new UNIX password:\r\nRetype new UNIX password:\r\npasswd: password updated successfully<\/pre>",
            "date_published": "2013-10-22T19:36:05+03:00",
            "date_modified": "2014-04-04T17:56:16+03:00",
            "tags": [
                "badblocks",
                "chroot",
                "fsck",
                "mdadm",
                "mirror",
                "mount",
                "passwd",
                "raid",
                "raid1",
                "recovery",
                "s.m.a.r.t.",
                "s4y",
                "server4you",
                "smart"
            ],
            "_date_published_rfc2822": "Tue, 22 Oct 2013 19:36:05 +0300",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "13",
            "_e2_data": {
                "is_favourite": true,
                "links_required": null,
                "og_images": []
            }
        }
    ],
    "_e2_version": 4134,
    "_e2_ua_string": "Aegea 11.3 (v4134)"
}