| | 1.1, ilyafedin (ok), 20:57, 07/11/2019  [ответить] [﹢﹢﹢] [ · · · ] | –5 +/– |  |  Удивительно, но из-за лицензионных злодеяний оракла мы не можем нормально использовать элегантную ZFS. Вместо этого редхат как всегда накостылял монстра из D-Bus и прочих костылей с клеем, который теперь единственный будет работать без боданий с DKMS (btrfs же так и не стала стабильной). Более того, дистрибутивы фрагментируются в очередной раз на три технологии (ладно, обычно на две, но все же):
Редхатовые - Stratis
 SUSE - BtrFS
 Ubuntu - ZFS
 Требую немедленно сделать ZFS истинно-GPL'овой, встроить в ядро и принять во все дистрибутивы по дефолту.
 |  |  | 
 
|  | | 2.3, Аноним (3), 21:03, 07/11/2019 [^] [^^] [^^^] [ответить] | –3 +/– |  | ZFS жрет память как не в себя, а VDO работает только в редхате, значит для использования не целесообразно. 
 |  |  | 
 |  | | 3.6, rinat85 (?), 21:28, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | без deduplication и небольшим тюнингом настроек в /etc/default/zfs (оно вроде по умолчанию хочет 2/3 ram) живёт смирно 
 |  |  | 
 | 3.14, пох. (?), 22:29, 07/11/2019 [^] [^^] [^^^] [ответить] | –3 +/– |  | ваш линух жрет память как не в себя: Mem:       8160616    8030568     130048          0     152280    7144344
 -/+ buffers/cache:     733944    7426672
 видали - восемь гиг сожрал! Без всякой zfs.
 Возмутительнейшее безобразие. 
 |  |  | 
 |  | | 4.22, Аноним (22), 22:53, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Только в отличие от зфс, он эту память отдаст при необходимости (и ничего не потеряет особо при этом). В этом и проблема, не скалируется так просто. Кстати хинт: у free есть ключик -h, чтобы сделать читабельно. 
 |  |  | 
 |  | | 5.27, пох. (?), 23:20, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | в отличие от ваших прохладных былин - zfs спроектирована так, чтобы память, при ... большой текст свёрнут, показать |  |  | 
 |  | | 6.44, имя (ok), 06:31, 08/11/2019 [^] [^^] [^^^] [ответить] | +3 +/– |  |  > zfs спроектирована так, чтобы память, при необходимости - отдавать. Что ей вполне удается делать - в oracle solaris, ага Колись: устроился недавно сторожем в Газпром? Кто ж ещё нынче будет покупать оракловый солярис, в котором вот-теперь-точно-отдаётся-клянусь-слющай: https://blogs.oracle.com/solaris/changes-to-zfs-arc-memory-allocation-in-113-v
 А если мы говорим про былые, дооракловые времена, то высвобождение это было порой не без приколов: http://web.archive.org/web/20101126163729/http://bugs.opensolaris.org/bugdata Отдельно интересны расписанные там детали про kernel cage: получается, реализовано всё равно через гланды, прям как в этих ZoL/ZoF, разве что пользователю чаще кажется, что ему память возвращают.
 |  |  | 
 |  | | 7.65, пох. (?), 12:22, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | July 7, 2015 - это такое вот  теперь   Причем оно стало актуально, когда понадоб... большой текст свёрнут, показать |  |  | 
 |  | |  | |  | |  | | 11.138, пох. (?), 18:18, 14/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | ну так они-то, видимо, не собирались никуда мигрировать - у них все работало, пр... текст свёрнут, показать |  |  | 
 |  | |  | | 13.141, пох. (?), 11:57, 15/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | в смысле, это коммерческое решение какого-то 3d-party, ныне накрывшегося  Тогда ... текст свёрнут, показать |  |  | 
 | 
 | 
 | 
 | 
 | 
 | 
 | 
 | 6.56, mumu (ok), 11:23, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  > Там пару phd защитили на деталях этой самой реализации, а не за вечерок кое-как наляпали. Обидно, наверное, было вложить столько сил и времени в то, что в итоге нигде не используется и никому не нужно. Это примерно как в ReactOS контрибьютить: оно вроде и есть, но зачем не понятно.
 |  |  | 
 |  | | 7.59, пох. (?), 11:53, 08/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– |  | херассебе неиспользуется  Даже оставляя в стороне оракла с его загадочными клиен... большой текст свёрнут, показать |  |  | 
 |  | | 8.71, имя (ok), 13:03, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  Постгрес однажды чуть не перешёл так в 8 0 на ARC, но чуваки потом нашли US20040... текст свёрнут, показать |  |  | 
 |  | | 9.74, Онаним (?), 14:36, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Вместо перехода на ARC лучше бы вакуум-фри озаботились, а то очередной танцор с ... текст свёрнут, показать |  |  | 
 |  | | 10.120, имя (ok), 15:12, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  Фанаты MySQL опять забыли о существовании OPTIMIZE TABLE в их любимой СУБД ... текст свёрнут, показать |  |  | 
 |  | |  | | 12.131, имя (ok), 18:27, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |    8230 путём запуска подчищалок в отдельном треде  https   dev mysql com doc ref... текст свёрнут, показать |  |  | 
 |  | |  | | 14.134, имя (ok), 19:04, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  Вы опять смешали в одну кучу VACUUM и VACUUM FULL  Последний, да, упаковывает, а... текст свёрнут, показать |  |  | 
 |  | |  | | 16.136, имя (ok), 11:40, 12/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  Так надо было сразу уточнять, что вы работаете с наркоманами, ежесекундно испуск... текст свёрнут, показать |  |  | 
 | 
 | 
 | 
 | 
 | 
 | 
 | 
 | 9.80, пох. (?), 14:59, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | у NetApp есть свой патент  И она вполне успешно им воспользовалась - против sun ... текст свёрнут, показать |  |  | 
 | 
 | 
 | 7.73, Онаним (?), 14:35, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Ничего обидного. PhD есть, а то, что оно в реальности летает только с прицепленным к жопе пропеллером и на пинковом приводе - уже дело десятое. 
 |  |  | 
 | 
 | 
 | 
 | 
 |  | | 4.66, пох. (?), 12:28, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | >> ZFS жрет память как не в себя > Враньё.
 да нет, все правильно - не будет жрать - у нас будет пустая память, которая могла бы служить дисковым кэшэм. Вон, видал как линух-то жрьооот? Из 8 гиг сожрал восемь! То что там не все гладко и если хочется выжать последние килобайты нужно запастись кучей ненужных знаний - на фоне ужаса с lvm поверх dm поверх luks поверх непойми что без системды не работает - как-то особо уже и не пугает.
 (кстати, прикинь, какая у тех чудес эффективность кэширования, если там правая рука не знает, кому др..ит левая)
 |  |  | 
 | 
 | 
 | 2.4, Аноним (22), 21:03, 07/11/2019 [^] [^^] [^^^] [ответить] | +2 +/– |  | Я тут недавно шарился по зфсным реддитам (это там где ребятки увлекаются пулами на зфс) и сделал вывод, что не всё с ней так гладко. Чуть ли не лучший вариант это купить солярис под неё (но тогда придётся отказаться от форка зол и его фишечек). >IBM CANONICAL
 Лучше бы бтрфс допиливали, право, эта фрагментация бич опенсорса. Всё зло от жадных корпораций, как мы в очередной раз наблюдаем.
 |  |  | 
 |  | | 3.8, rinat85 (?), 21:39, 07/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | что именно не гладко? если по уму, когда память ecc, когда стоит ИБП, когда /boot на отдельном пуле zfs (достаточно большом для вмещения снапшотов, ≈1Гб хотя бы), когда на объеме  RAM не сэкономили $150, когда scrubbing проводят хотя бы пару раз в месяц, когда не юзают raidz1 вообще, и не юзают raidz2  для всего 4 дисков, когда не пытаются в одном пуле держать больше 12 дисков (не для того zfs, чтобы СХД заменить), когда send/receive бэкапы делают, какие проблемы? жалуются только, вот мол что делать, если всё таки рассыпался массив, где инструменты для восстановления, так ребята, нету их, для чего бэкапы то? :) 
 |  |  | 
 |  | | 4.12, Аноним (22), 21:56, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Слишком много "если", не? Типичный юзкейс - это "схд" на антресолях или в чулане, я думаю сегодня каждый не против его иметь. Люди берут готовые сборочки под эти задачи, и очень удивляются, когда всё сыпется. 
 |  |  | 
 |  | | 5.24, zzz (??), 22:57, 07/11/2019 [^] [^^] [^^^] [ответить] | –2 +/– |  | Можно и проще: если не заниматься дичью. И часто сыпется FreeNAS, есть репрезентативная выборка или очередное мнение эксперта? 
 |  |  | 
 |  | | 6.28, пох. (?), 23:22, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | когда (не если, а когда) он лично у тебя посыплется - тебе от "репрезентативной выборки" жарко станет, или холодно? |  |  | 
 |  | | 7.50, zzz (??), 09:22, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Всё это разговоры в пользу бедных. Если человек взялся говорить про то, что btrfs после допила будет лучше и надежнее zfs, то хотелось бы увидеть основания. 
 |  |  | 
 |  | | 8.67, пох. (?), 12:38, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | откройте рот  Так, закройте  Не вижу оснований, мешающих вам говорить ровно обра... текст свёрнут, показать |  |  | 
 | 
 | 
 | 
 | 5.55, rinat85 (?), 11:07, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | сказал ведь, "если по уму", 80% перечисленного относится ко всем видам массивов, даже железных 
 |  |  | 
 | 
 | 4.38, xm (ok), 01:52, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  Какой-то набор из мифов и пограничных случаев кривой реализации, по большей части, на Linux. Ну да, некоторые баги и проблемы там наблюдаются. Однако, судя по FreeBSD в последний год, источник всех этих проблем это кривой код идущий из ZoL. Если не явно кривой, так уж наверняка ломающий обратную совместимость. И что делать с этим "херак-херак и в продакнш" подходом, столь традиционным для линуксоидов, в нормальных системах не вполне понятно.
 
 |  |  | 
 | 4.48, SOska (?), 08:50, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Mdadm + lvm на 48 винтов, полет нормальный, памяти жрет мало, не разу не рассыпалось, чяНдр 
 |  |  | 
 | 4.75, Онаним (?), 14:40, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | Не очень понятно, чем вообще ZFS спасёт от повреждения данных _вне_ дисков - они будут повреждены ещё до расчёта сумм и записи. А на самих дисках и прочих носителях - внезапно - имеются свои ECC. Т.е. весь этот сомнительной надобности вторичный чексумминг и прочие бла-бла-радости спасут разве что от повреждения данных в цепочке шина-контроллер связи с накопителями-шина-контроллер накопителя. 
 |  |  | 
 |  | | 5.98, rinat85 (?), 17:07, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | "на самих дисках и прочих носителях - внезапно - имеются свои ECC" - а с этого момента можно поподробнее? особенно при повреждении уже записанных данных. zfs спасет тем, что воспользуется избыточностью, как бы все raid массивы с ней для этого существуют :) отличие же от mdraid в том, что целостность за счет хэшей обеспечивается сквозная и сканирование с последующим исправлением происходит во много раз быстрее. Ну и пресловутой writehole проблемы нет 
 |  |  | 
 |  | | 6.105, Онаним (?), 23:53, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > особенно при повреждении уже записанных данных Объясни мне, как они случатся, если на каждый блок данных на диске пишется ещё ECC?
 > zfs спасет тем, что воспользуется избыточностью, как бы все 
 Это уже raidz, а не просто zfs. 
 > целостность за счет хэшей обеспечивается сквозная
 Вот этот вот баззворд уже набил оскомину. Какая целостность? Чего целостность? Сквозная, навылет?
Данные когда с диска или флеша читаются - сверяются с ECC самим носителем. Если проверка не прошла - возвращается ошибка чтения, и никакие хеши тут уже не спасут, блок потерян.
 |  |  | 
 |  | | 7.121, имя (ok), 16:01, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  ECC не покрывает всех возможных ошибок  сколько их там на сектор максимум    , о... большой текст свёрнут, показать |  |  | 
 |  | | 8.122, Онаним (?), 17:37, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Merkle tree - сначала бы хоть разобрались, для чего он там, потом писали  ECC на... большой текст свёрнут, показать |  |  | 
 |  | | 9.129, имя (ok), 18:13, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  А так ли велика цена вопроса на фоне стоимости тех же дисков и контроллеров с по... текст свёрнут, показать |  |  | 
 | 
 | 
 | 
 | 
 | 5.119, Аноним (119), 15:11, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | ZFS должна еще конролировать что там и как для записи в файл подготавливают стор... большой текст свёрнут, показать |  |  | 
 |  | | 6.123, Онаним (?), 17:47, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > ZFS должна еще конролировать что там и как для записи в файл > подготавливают сторонние левые программы, не испортили ли они свои данные, неумёхи?
 Ты слышал звон, но не понял где он. Объясняю: лежит кусок данных на запись в памяти. Приложение может быть ещё пошлёт их на запись, может быть уже сформировало запрос, и он начал обрабатываться по дисковому стеку. И тут происходит битфлип. В этом самом куске. ZFS благополучно посчитает суммы от этого битфлипа, разнесёт их "максимально далеко друг от друга", и запишет на диск. Уже повреждёнными :D И ещё отреплицирует.
 Передача данных "до винта" защищена минимум CRC32 - в случае SATA. Это старый алгоритм, увы, но от единичных битфлипов он защищает, т.е. твоё "один битик изменится" - случай невозможный.
 |  |  | 
 | 
 | 
 | 
 | 3.17, пох. (?), 22:38, 07/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– |  | только его тебе никто не продаст  вот в чем беда  Даже если бы и продали - где т... большой текст свёрнут, показать |  |  | 
 |  | | 4.25, Аноним (22), 23:00, 07/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | С оракловой проблемы у людей возникали только при миграции на опенсорсную версию -- в ней совместимость только с очень древней зфс. >будет та, которую тебе осилит собрать орацл
 Так вроде с этим там проблем нет? В принципе, линуксовая самба вообще никуда не годится, если уж на то пошло.
 >зфс
>комьюнити
 |  |  | 
 |  | | 5.29, пох. (?), 23:42, 07/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | во времена, когда оракловая еще была сановской - проблемы возникали  Лечились, б... большой текст свёрнут, показать |  |  | 
 | 5.47, hhhg (?), 08:18, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Кто тебе расскажет о проблемах если этим никто не пользовался и теперь уже точно не будет? В лохматые года полтора компа и сисадмина были, интернета напротив не было, а теперь каждый себе сисадмин и зфс дома держит и воняет на форумах. Если тихо - это не значит что все хорошо.
 
 |  |  | 
 | 
 | 
 | 3.35, zzz (??), 00:26, 08/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– |  | btrfs в принципе не допиливаема, поскольку изначально криво спроектирована. Балансировка сверху-вниз неповоротлива на больших деревьях, хоть сколько там процессов балансировки пускай. Она хранит блоки переменного размера прямо в деревьях, из-за чего на куче мелких файлов пожирает огромное количество места под метаданные - на разделе с исходниками может свободно пожирать половину объема. Сбой по питанию во время балансировки может окончиться смертью ФС. По сути, её пропихнули в обход всех правил, лишь из-за того, что настоял Oracle. Никаких других причин пихать это поделие в основную ветку нет и не было. 
 |  |  | 
 | 
 | 2.9, ff (??), 21:45, 07/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– |  | У всех перечисленных есть свои + и -, хотя про стратис этот я ничего не понял, но подобные велосипеды поверх обычных фс и без него есть. Это линуксвей кстати =) 
 |  |  | 
 |  | | 3.19, пох. (?), 22:43, 07/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– |  | > хотя про стратис этот я ничего не понял чего тебе непонятного - хрустоподелка, собирается исключительно хрустокомпилятором позавчерашней сборки. Ничего не умеет, включая то, что давно умеют нижележащие слои (уж что-что, а хотя бы 2x redundancy lvm умел еще полтора десятка лет назад - а эти даже и того ниасилили), просто очередное средство для мышевозюкалок, прячущее редхатовское нагромождение адских уродов - до первой поломки, разумеется.
Кто уже пытался загрузить в single user редхатосистему с thin lvm - тот меня поймет. А чинить там уже и нечего будет, в случае чего. Получишь хорошо перемешанную кашу байтиков, размазанную ровным слоем по всем дискам. При желании - еще и зашифрованную.
 write only storage system. (c) redhatbm
 |  |  | 
 |  | | 4.103, Roman (??), 17:44, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  Вангую что это такой storage spaces из мира линукса от RH ( сам эти storage spaces руками не трогал впрочем) 
 |  |  | 
 |  | | 5.104, пох. (?), 18:43, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | storage spaces у нас называются lvm, и существовали за много-много лет до их пер... большой текст свёрнут, показать |  |  | 
 | 
 | 
 | 
 | 2.13, пох. (?), 22:26, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | конечно, это ж орацл вам сломал использование модулями aes-инструкций процессора... большой текст свёрнут, показать |  |  | 
 |  | | 3.16, ilyafedin (ok), 22:34, 07/11/2019 [^] [^^] [^^^] [ответить] | –2 +/– |  |  >[оверквотинг удален] > Орацл, проклятый, во всем виноват, конечно же ж.
 > А совсем не отсутствие сановского менеджера с палкой над горбом разработчиков, из-за
 > которого вся разработка выродилась в последовательное ухудшение и доламывание хорошей
 > системы, оставленной без присмотра.
 > Он, кстати, вам еще и в шта..в btrfs нас...л, потому что это
 > разработка, долгое время чуть ли не в одно жало делавшаяся сотрудником
 > оракла в рабочее время.
 > При этом те кто хотели - вполне себе zfs пользуются. Той, увы,
 > которую мы все заслуживаем, а не той, которую по прежнему пилит
 > себе оракл, но при закрытых дверях.
 Так и знал, что не пройдешь мимо и рассыпешься в большой поток сознания ❤️
 |  |  | 
 | 3.43, имя (ok), 05:29, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  > это ж орацл вам сломал использование модулями aes-инструкций процессора Ого, а Грег КХ в курсе, что он работает теперь на Эллисона?
 |  |  | 
 | 
 | 2.15, Olololo (?), 22:34, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Btrfs не стала стабильной только в одной конфигурации. И то даже в этой конфигурации она или уже стабильна или в самое ближайшее время её пометят стабильной в следующем релизе. 
 |  |  | 
 |  | |  | | 4.33, хомяк (?), 00:13, 08/11/2019 [^] [^^] [^^^] [ответить] | +4 +/– |  | «не стабльно» недостаточно точно описывает ситуацию «гарантировано разрушает пул при отключении или аварийном завершении процесса на протяжении некоего фрагмента цикла записи». И не только raid6, но и raid5.
 
 |  |  | 
 | 
 | 
 | 2.36, анонимно (?), 00:39, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | D-BUS одна из прекраснейших технологий 21 века. Очень годная вещь сосредоточившись на управлении через неё можно забыть о фрагментации дистрибутивов и подходов. Единый API ну разве это не шикарно! 
 |  |  | 
 |  | | 3.40, ilyafedin (ok), 02:51, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  > D-BUS одна из прекраснейших технологий 21 века. Очень годная вещь сосредоточившись на > управлении через неё можно забыть о фрагментации дистрибутивов и подходов. Единый
 > API ну разве это не шикарно!
 Одна и прекраснейших технологий, которая... тормозит как не в себя. Нет, не шикарно, API не должно требовать демона. Они сделали го*но и только додумались, что никакой демон не нужен, а достаточно лишь либы, которая реализует API (Varlink).
 |  |  | 
 | 
 | 2.46, iCat (ok), 07:28, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  >Требую немедленно сделать ZFS истинно-GPL'овой, встроить в ядро и принять во все дистрибутивы по дефолту. А смысл?
Разные задачи - разные инструменты.
 Поиски единственной FS на все случаи жизни - занятие столь же безсмысленное, как поиски "универсальной операционной системы".
 
 |  |  | 
 |  | | 3.81, пох. (?), 15:13, 08/11/2019 [^] [^^] [^^^] [ответить] | +2 +/– |  | ну вообще-то весь смысл этого cpaтиса, прости Г-ди - это как раз заменить возмож... большой текст свёрнут, показать |  |  | 
 | 
 | 2.72, Онаним (?), 14:33, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | ZFS элегантна примерно настолько же, насколько эленгантен ожиревший танцор балета весом 200кг с протезом вместо одной ноги, который к тому же вдвое длиннее оставшейся целой. 
 |  |  | 
 | 
 
 | 1.2, Аноним (3), 21:01, 07/11/2019  [ответить] [﹢﹢﹢] [ · · · ] | –1 +/– |  | Есть истории успеха в восстановление рейда на уровне LVM? mdraid при флапе нескольких линков восстанавливается с полпинка.
 Аппаратный чуть сложнее.
 lvcreate --type raid5 при тестах восстановить не удалось.
 
 |  |  | 
 
|  | |  | | 3.54, Аноним (54), 11:00, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | например вот такое  Aug 18 06 32 19 server kernel  ata6 00  exception Emask 0x50... большой текст свёрнут, показать |  |  | 
 |  | | 4.76, Онаним (?), 14:42, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Простите, но рейд и должен разваливаться при таком поведении. Флап линка - повод выбросить носитель из рейда до ручного вмешательства. 
 |  |  | 
 |  | | 5.77, Онаним (?), 14:44, 08/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– |  | Интересно то, что md похоже по умолчанию этого не делает... и тем более - не запоминает состояния на момент отвала. Битмап-то включен, надеюсь? Если нет, ССЗБ. 
 |  |  | 
 |  | |  | | 7.87, Онаним (?), 16:13, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Ну вот у писателя выше, судя по написанному, этого не произошло. Что он там выкрутил и где - мне неведомо. 
 |  |  | 
 |  | | 8.96, пох. (?), 17:06, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | видимо, не успело - традиционная беда линукса с несвязанными как следует между с... большой текст свёрнут, показать |  |  | 
 |  | |  | | 10.142, пох. (?), 12:09, 15/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | у меня нет multipathd и прочих дискмаперных наворотов - поэтому и работает   То ... текст свёрнут, показать |  |  | 
 | 
 | 
 | 
 | 
 | 6.109, Аноним (109), 08:11, 09/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | bitmap включен, возможно поэтому диск и не вылетел из массива (но проверять с отключеным не хочу). 
 |  |  | 
 | 
 | 
 | 
 | 
 | 2.11, ананим.orig (?), 21:56, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | на данный момент (а это уже лет 10) lvm - это всего-лишь комбинация тех или иных преднастроенных вызовов к dm. фактически как сабж, но без дбаса и с рэйдом.
 
 |  |  | 
 |  | | 3.34, хомяк (?), 00:15, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | однако инструментов для аварийного ковыряния в пуле не имеет. А инструменты от dm-* не подходят, потому что это хоть и dm* глубоко в душе — но снаружи всё же не dm*. 
 |  |  | 
 |  | | 4.61, Аноним (54), 12:10, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | эм... а какие инструменты вам нужны? и какие есть у zfs? lvm/mdadm/cryptsetup - это обертки над dmsetup, но вам никто не мешает в существующий lvm лезть руками при помощи dm-утилит (на свой страх и риск разумеется).
 из моей практики, у меня были проблемы с lvm, но мне его родных утилит хватило для восстановления.
 поделитесь своим опытом, когда lvm-утилиты не справились?
 
 |  |  | 
 | 
 | 
 | 2.31, Аноним (31), 00:05, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > нескольких линков если вы несколько дисков отключили от raid 5 то восстановить его будет нельзя.
 |  |  | 
 |  | |  | | 4.88, Онаним (?), 16:14, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > флап != отключение. При нормальной работе нормальной системы флап должен == отключению, за исключением единственного случая - когда от отключения до подключения не было записи, да и то нежелательно назад подключать. В противном случае последствия непредсказуемы.
 |  |  | 
 |  | | 5.110, Аноним (109), 08:18, 09/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | это в идеале  а еще raid1 на чтение должен читать с обоих дисков и в случае несо... большой текст свёрнут, показать |  |  | 
 |  | | 6.112, Онаним (?), 10:40, 09/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | По факту аппаратные рейд делают так же, а для сверки данных и обнаружения дохлых блоков есть скраббинг. В mdadm он тоже настраивается, кстати. 
 |  |  | 
 | 
 | 
 | 
 | 3.111, Аноним (109), 08:57, 09/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | нет, почему же? могу говорить только за mdadm, но отключение двух и более дисков из raid5 (на горячую) не убивают массив безвозвратно: доступ к данным массива теряется (io error на read/write), по /proc/mdstat видно что несколько дисков отсутствуют, перезапуск массива (mdadm --stop/mdadm --assemble --scan) результата не дает - массив все так же игнорирует отключеные диски (даже если они уже в системе), но mdadm --assemble --force - проблему решает, mdadm забивает на разные timestamp'ы у дисков одного массива и собирает их - массив можно дальше использовать. естественно данные, которые записывались в момент сбоя могут быть неполные, но все данные при этом не теряются. 
 |  |  | 
 | 
 | 2.79, Онаним (?), 14:47, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | > mdraid при флапе нескольких линков восстанавливается с полпинка RAID5? При флапе нескольких линков? Я очень сомневаюсь, что на том, что там восстановилось, данные будут корректны - при условии, что в момент отвала шла какая-то запись, естественно. Вылет двух дисков в RAID5 - это фатал.
 |  |  | 
 |  | | 3.85, пох. (?), 15:26, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | ну так ты продожай тут постить fud про zfs, не владея темой от слова нихрена. У которой флап (а не тотальный отказ) любого количества дисков в raidz1 - ведет всего лишь к потере последней не синхронной операции записи и необходимости ручного переподключения.
Вот такие вот чудеса, с 2004го года.
 А у тебя сразу п-ц и фатал, и непонятно, какие данные испортились, и как их отличить, но ты продолжай рассказывать какая плохая zfs, как не нужны чексуммы, и как все хорошо и замечательно у л@п4@тых в их поделках.
 P.S. поздравляю Максима с новой победой г0вноробота над людьми. А на новость про lizard времени так и не нашлось.
 P.P.S. mdadm таки переживет флап и с raid5, но гарантии что потом хваленый xfs восстановится родными утилитами нет никакой, разумеется.
 |  |  | 
 |  | | 4.86, Онаним (?), 16:11, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | raidz1 raid5
 FUD
 ... слов нет ... речь не про дублирующий рейд, да и там флап двух дисков (если дублей 1 штуко) - фатал
 А вообще в любом нормальном отказоустойчивом хранилище флап диска - это повод выкинуть диск до ручного вмешательства.
 |  |  | 
 |  | | 5.92, пох. (?), 16:50, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | > raidz1 > raid5
 > FUD
 > ... слов нет ... речь не про дублирующий рейд, да и там
 Наш всезнайка еще и не в курсе что такое raidz. Это не "дублирующий рейд", так, на минуточку. mirror у zfs называется, внезапно, mirror.
Но мнение при этом про zfs - он имеет, ага.
 > флап двух дисков (если дублей 1 штуко) - фатал 
 нет. Флап в нормально спроектированных системах - просто флап. Моргнуло, терабайты данных от этого не должны мгновенно аннигилироваться.
 > А вообще в любом нормальном отказоустойчивом хранилище флап диска - это повод 
> выкинуть диск до ручного вмешательства.
 именно так и происходит. Но одно дело, когда ручное вмешательство - просто вручную выдать команду attach или перезагрузиться в надежде на автоматику, а потом проверить консистентность дисков, совсем другое - когда ты сидишь перед рухнувшим dm, и не знаешь, как его теперь собрать обратно, а stackoverflow недоступен из-за аварии у оператора.
 |  |  | 
 |  | | 6.94, Онаним (?), 17:00, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > Флап в нормально спроектированных системах - просто флап. Моргнуло, терабайты данных Ну давай, расскажи мне про нормально спроектированные системы, где так происходит. Желательно с названиями.
Терабайты данных от этого никуда не деваются, диск вылетает, остальные работают. Если есть резерв - начинается копирование на резерв.
 > рухнувшим dm
 Так не надо его заставлять работать с выпавшим диском после флапа, и он никуда не денется. Да и md назад собрать - не бог весть какая затея, достаточно man с машины не удалять. Стэковерфловы - удел девляпсов.
 
 |  |  | 
 |  | | 7.99, пох. (?), 17:08, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | > он никуда не денется. Да и md назад собрать - не бог весть какая затея md - да. А как насчет dm-raid? 
(по понятным причинам, первый использовать, к сожалению, не стоит)
 
 |  |  | 
 | 
 | 6.97, Онаним (?), 17:07, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Чтобы иметь мнение насчёт несъедобности говна, пробовать его на вкус вовсе не обязательно. 
 |  |  | 
 |  | | 7.102, пох. (?), 17:21, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > Чтобы иметь мнение насчёт несъедобности говна, пробовать его на вкус вовсе не обязательно. чтобы это мнение имело ценность - надо иметь либо обоняние, либо хотя бы зрение.
А ты, увы, судя по невладению даже базовой терминологией - слышал в перепеве Рабиновича непонятно что и о чем.
 |  |  | 
 | 
 | 
 | 
 | 
 | 
 | 
 
 
|  | | 2.20, Аноним (20), 22:47, 07/11/2019 [^] [^^] [^^^] [ответить] | +2 +/– |  | Так написано же: Проект изначально преподносится как не требующий для администрирования квалификации эксперта по системам хранения.
 Пора редхету начать выпускать домашние аэс, не требующие квалификации эксперта.
 |  |  | 
 |  | |  | | 4.63, Аноним (54), 12:11, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | при создании нет, но при нештатных ситуациях, нужно уметь их исправлять. 
 |  |  | 
 |  | | 5.68, пох. (?), 12:44, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > при создании нет, но при нештатных ситуациях, нужно уметь их исправлять. ты правда думаешь что dbus-поделка что-то умеет - исправлять?
 Ну и про создание - пожалуйста, список команд для ручного создания xfs over thin-lvm (потому что мы, наверное, все же хотим lightweight-снапшоты) в студию, не подглядывая в стековерфлоу.
шит-криптографию и redundancy, чорт с ними, пока пропустим.
 
 |  |  | 
 | 5.114, Онаним (?), 10:45, 09/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > при создании нет, но при нештатных ситуациях, нужно уметь их исправлять. При нештатных ситуациях подобные управлялоподелки разваливаются первыми.
 |  |  | 
 | 
 | 
 | 
 | 2.26, Аноним (26), 23:14, 07/11/2019 [^] [^^] [^^^] [ответить] | +2 +/– |  | Я читал их документацию. Они собирают из кучи подсистем ядра (dmcrypt llvm xfs and friends) 5 слоев абстракции и управляют этим всем через ОДНУ утилиту в юзерспейсе. На выходе должна получится та же ZFS, только построенная на старом надежном функционале встроенном в ядро линукс. Вот только ZFS-фичи начнутся с версии 3.0.
 А еще, мне очень интересно, что случится с пулом если этот демон "внезапно" умрет (скажем от ommkiller-a), а система продолжит работать...  а потом, как произойдет перемещение пары тройки терабайт пропадет питание.
 Хорошо что у меня есть бекапы.
 
 |  |  | 
 |  | | 3.32, Аноним (31), 00:11, 08/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– |  | > 5 слоев абстракции Ещё интересно как это всё будет работать при обновлении ядра или утилит, с учётом "stable api nonsense". Если конечно у них вообще есть планы развивать это, а не делать эксклюзивно для redhatibm.
 |  |  | 
 |  | | 4.93, пох. (?), 16:54, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | >> 5 слоев абстракции > Ещё интересно как это всё будет работать при обновлении ядра или утилит,
 > с учётом "stable api nonsense". Если конечно у них вообще есть
 ну типа, чем дальше ты от "nonsense", тем безопаснее. То есть обновления ядра не затронут это чудо совсем, а при обновлении dbus скорее всего отвалится управление, но не развалится fs.
 А если ты так обновился, что в /sbin/lvm код несовместим с dm-*.ko - это, вероятно, либо очень кривой дистрибутив, либо нефиг лезть руками в сложные системы без понимания что и от чего тут зависит.
 Это тебе не "мы тут в новой версии запретили aes", и модуль не грузится и не компилируется.
 |  |  | 
 | 
 | 
 | 
 
 
|  | | 2.30, пох. (?), 23:44, 07/11/2019 [^] [^^] [^^^] [ответить] | –2 +/– |  | лежа в гробу? Вряд ли... что-то перспективы ms'овских стораджей сегодня выглядят еще более сомнительными чем перспективы йежа. |  |  | 
 |  | | 3.117, IdeaFix (ok), 12:46, 10/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  > лежа в гробу? Вряд ли... что-то перспективы ms'овских стораджей сегодня выглядят еще > более сомнительными чем перспективы йежа.
 Вы не поверите, но и МСовских гипервизоров и МСовской гиперконвергенции несколько больше, чем всяких проксмоксов и пр. вместе взятых...
 |  |  | 
 |  | | 4.118, пох. (?), 07:28, 11/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | не поверю. Где они, блжат? У MS в ажурном облачке? Проксмоксу видел, от наколенных поделок в конторе на пятнадцать страдальцев (с затолканым туда же фринасом, ховнклаудом и фрипое6иксой, как тут кто-то гордился) до довольно больших (где реально ссыкотно как оно все еще вообще не навернулось)
 Впопенштифт, с ceph и вот этой всей херней, настроенный методом next-next-next без малейшего понимания чем чревато - каждый день вижу, с..ные аутсорсеры.
 Про кластеры из г-на и палок (в смысле гластеров/прочих хреньфс) - ну живьем не видел, кроме собственных экспериментов, но слышал и читал - дохрена. У кого-то даже и работает, пока еще.
 Даже вмварьскую vsan видел (да, п-ц, непонятно ни зачем, ни как они вообще еще живут - но есть).
 Винду - не, не видел. При том что винда - везде, а вот эти линуксоподелки из дерьма и палок - очень местами и временами, и я еще и сознательно держусь от них как можно дальше, чтоб чинить не припахали.
У всех в этом "везде" почему-то обычные san-стораджи, иногда в обертке какой-нибудь виртуализации, иногда просто так.
 То есть вот если для линукса еще десять лет назад было _общим_ решением - "ставимся на машину с двумя дисками - включаем lvm с --mirrors 2, если железным рейдом обделили", то увидеть винду с включенным storage space (что можно было до недавнего времени в любой десяточке любому васяну) - ни разу. Васяны не в курсе, а остальным, видимо, не надо.
 |  |  | 
 |  | | 5.137, IdeaFix (ok), 22:51, 13/11/2019 [^] [^^] [^^^] [ответить] | +/– |  |  Практически все крупные ВУЗы, некоторые "типы" крупных госконтор и пр. оченно аквтивно используют гиперв. Просто гиперконвергенция от МС получается куда дешевле и понятнее гиперконвергенции от DELL-EMC даже на том же самом железе. И если дедупликацию от EMC мало кто на поде юзал, то тут есть шанс... Сам удивился как много в мире этого добра. Как много аутлук веб аппа и соответственно известного почтовика, как много ИИСа на проде наружу. Работает как-то. А азура нет... там другое.
 |  |  | 
 | 
 | 
 | 
 | 
 
 
|  | | 2.69, пох. (?), 12:46, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > Как там насчёт интеграции с systemd? без него ты даже не подключишь thin-раздел. Такие вот пирожки с крысятами :-(
 P.S. буду рад увидеть инструкцию, опровергающую это утверждение. Чур - лично проверенную.
 |  |  | 
 | 
 
 | 1.45, Аноим (?), 06:59, 08/11/2019  [ответить] [﹢﹢﹢] [ · · · ] | +1 +/– |  | > Значительное изменение номера версии связано с переименованием некоторых интерфейсов D-Bus и переработкой организации работы с D-Bus Вот это кстати, очень показательно: разрабы D-Bus занимаются "перестановкой кроватей" а все, чей софт от этого дибаса зависит, вынуждены эту имитацию деятельности отслеживать и переделывать свои проги.
 PS: Поигрался с этим стратисом: простой, удобный, ненужный. Как-то так)
 |  |  | 
 
|  | | 2.52, Аноним (53), 09:54, 08/11/2019 [^] [^^] [^^^] [ответить] | +3 +/– |  | >разрабы D-Bus занимаются "перестановкой кроватей" Или удовлетворением требований не использовать оскорбляющие чьи-то чувства имена.
 |  |  | 
 | 
 
 | 1.57, mumu (ok), 11:27, 08/11/2019  [ответить] [﹢﹢﹢] [ · · · ] | +3 +/– |  |  > Значительное изменение номера версии связано с переименованием некоторых интерфейсов D-Bus и переработкой организации работы с D-Bus Обновил дебас - развалился кластерный рейд. Энтерпрайзненько так.
 |  |  | 
 
|  | |  | | 3.70, пох. (?), 12:47, 08/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– |  | > ну, пользователям mdadm/lvm этого не понять. ну да, невостановимый отвал стораджа при смене hostname (внезапно, фича начиная с rhel7) - это ж мелочи жизни.
 |  |  | 
 |  | | 4.78, Онаним (?), 14:46, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | > невостановимый отвал стораджа при смене hostname Щито, простите?
 Или вы смогли так кластерный сторейдж завалить? Если да - я вас поздравляю, к кластерам вас лучше не подпускать.
 |  |  | 
 |  | | 5.84, пох. (?), 15:21, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | >> невостановимый отвал стораджа при смене hostname > Щито, простите
 научись пользоваться гуглем, неумешка.
 А то можешь оказаться в один непрекрасный день в очень неприятной позе, вместо любимой позы всезнайки.
 |  |  | 
 |  | | 6.89, Онаним (?), 16:15, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Тьфу-тьфу, я с 5-6-7-8 и разнотипными сторейджами работаю уже много лет, и прекрасно знаю, где соломку подстелить, чтобы оно не рассыпАлось. 
 |  |  | 
 |  | | 7.90, Онаним (?), 16:17, 08/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– |  | Если ребята на кластерах додумались хостнеймы менять бездумно и всё завалить - это вообще непонимание базы, неумение читать доки, ССЗБ и ЛПП, а не проблема RHEL. 
 |  |  | 
 |  | | 8.108, J3 (?), 08:04, 09/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Hostname не должен влиять на что-то отличное от сетевых настроек служб и т п   Е... текст свёрнут, показать |  |  | 
 | 
 | 7.91, пох. (?), 16:44, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | > Тьфу-тьфу, я с 5-6-7-8 и разнотипными сторейджами работаю уже много лет, next-next-next нажимаешь? 
Ну, ок.
 > прекрасно знаю, где соломку подстелить, чтобы оно не рассыпАлось.
 непохоже.
Больше похоже что пока - проносило.
 P.S. что характерно - пользоваться поисковиком пациент не умеет.
 |  |  | 
 |  | | 8.95, Онаним (?), 17:01, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– |  | Да, в голой консоли пишу next, и после пальцем на несенсорный экран там, где нап... текст свёрнут, показать |  |  | 
 | 
 | 
 | 
 | 
 | 
 | 
 | 
 
 |