После двух месяцев разработки Линус Торвальдс представил (https://lkml.org/lkml/2017/4/30/167) релиз ядра Linux 4.11 (https://www.kernel.org/). Среди наиболее заметных изменений: поддержка журналирования в программном RAID 4/5/6, новый тип сокетов SMC-R, встроенная реализация SipHash, системный вызов statx(), поддержка протокола Opal для работы самошифруюемыми накопителями, раздельные буферы с историей прокрутки для консолей.В новую версию принято около 12 тысяч исправлений от 1500 разработчиков,
размер патча - 39 Мб (изменения затронули 12479 файлов, добавлено 530154 строк кода,
удалено 232358 строк). Около 48% всех представленных в 4.11
изменений связаны с драйверами устройств, примерно 20% изменений имеют
отношение к обновлению кода специфичного для аппаратных архитектур, 14%
связано с сетевым стеком, 4% - файловыми системами и 5% c внутренними
подсистемами ядра.
Основные (http://kernelnewbies.org/Linux_4.11) новшества (https://lwn.net/Articles/716302/):-
Дисковая подсистема, ввод/вывод и файловые системы- В реализации RAID 4/5/6 на базе подсистемы MD появилась (https://git.kernel.org/linus/63c32ed4afc2afd6b5551a8fcdea5b5... поддержка журналирования, защищающая от потери данных в случае пропадании питания или краха. Реализация подготовлена (https://code.facebook.com/posts/414713638724358/improving-so... компанией Facebook. Журнал ведётся на отдельном носителе (SSD или NVRAM). Все данные вначале отражаются в журнале, после чего разносятся по дискам, входящим в RAID-массив. В ситуации неожиданного отключения питания, даже если RAID находился в деградированном состоянии или данные были записаны лишь на часть дисков, повреждений удастся избежать, так как вся информация о транзакции отражена в журнале;
- Для файловой системы ext4 реализована новая ioctl-команда EXT4_IOC_SHUTDOWN, которая позволяет убедиться, что раздел остановлен и нет необходимости в сбросе данных, остающихся в оперативной памяти. Возможность подготовлена по аналогии с командой XFS_IOC_GOINGDOWN;
- В файловой системе CIFS реализована (https://git.kernel.org/linus/2bfe01eff4307409b95859e860261d0... поддержка шифрованного доступа к разделам с использованием протокола SMB3;
- В многоуровневой системе очередей (multiqueue), рассчитанной на организацию многопоточного доступа к данным на многоядерных системах, появилась (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... поддержка подключения планировщиков ввода/вывода. В настоящее время для multiqueue пока портирован только планировщик deadline, но планируется портирование cfq, noop и даже планировщика ввода/вывода BFQ (https://www.opennet.dev/opennews/art.shtml?num=15332), который ожидается в ядре 4.12;
- Добавлена возможность работы с накопителями, соответствующими спецификации Opal (https://en.wikipedia.org/wiki/Opal_Storage_Specification), которая определяет механизм шифрования хранимых данных, позволяющий не допустить утечку информации в случае попадания носителя информации не в те руки. Поддержка Opal добавлена только для поддерживающих данную технологию NVME-контроллеров. Пользователям предоставлены команды для настройки, блокирования при переходе в спящий режим и разблокирования SED-накопителей (Self-Encrypting Drives);- В F2FS, развиваемой компанией Samsung высокопроизводительной файловой системе для Flash-накопителей, включена по умолчанию опция inline_xattr, обеспечивающеая inline-хранение в inode атрибутов xattr. Для отключения предложена опция монтирования "noinline_xattr". Добавлен отдельный поток для асинхронного выполнения команд "discard";
- В OverlayFS обеспечена поддержка многопоточного копирования содержимого обычных файлов (ранее операции копирования выполнялись последовательно, что было узким местом в производительности);
- Отключена (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... поддержка NFSv4 по UDP, которая была в неработоспособном виде и расходилась со спецификацией. Также по умолчанию отключены метки безопасности для NFS (для активации при экспорте следует явно указывать security_label), так как данная возможность имеет смысл только при установке на сервере и клиенте похожих правил SELinux;-
Виртуализация и безопасность- Для использования с ядром портирован GCC-плагин structleak (https://lwn.net/Articles/712161/), разработанный проектом Grsecurity и выполняющим принудительную инициализацию структур, передаваемых в пространство пользователя для блокирования возможных утечек информации;
- В ядро встроена (https://lkml.org/lkml/2016/12/21/477) реализация алгоритма SipHash, предоставляющего более безопасный и быстрый метод хэширования;- В Xen добавлена (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... поддержка загрузки гостевых систем в режиме PVH, комбинирующем элементы режимов паравиртуализации (PV) для ввода/вывода, обработки прерываний, организации загрузки и взаимодействия с оборудованием, с применением полной виртуализации (HVM) для ограничения привилегированных инструкций, изоляции системных вызовов и виртуализации таблиц страниц памяти;
- Для KVM реализован (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... драйвер PTP, позволяющий получить доступ из гостевой системы к часам реального времени хост-системы, что даёт возможность использовать Chrony для высокоточной синхронизации часов хоста и гостевой системы;
- Добавлен интерфейс /sys/kernel/security/lsm, через который можно узнать список активных LSM-модулей;
- Добавлена (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... реализация алгоритма шифрвоания AES, обеспечивающая фиксированное время выполнения для защиты от атак, пытающихся определить характер данных на основе изменения времени обработки операции;
- Реализация генератора псевдослучайных чисел переведена (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... с хэширования MD5 на использование безопасного и быстрого алгоритма поточного шифра ChaCha20 при формировании энтропии для целочисленного вывода get_random_int и get_random_long;
- Добавлен (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... sysctl для загрузки правил AppArmor непривилегированным пользователем для нового namespace;
-
Сетевая подсистема- Реализован новый тип сокетов "SMC-R (ftp://public.dhe.ibm.com/software/os/systemz/pdf/Linux_SMC-R... (Shared Memory Communications over RDMA, RFC-7609 (https://tools.ietf.org/html/rfc7609)), предназначенный для организации похожих на TCP каналов связи поверх транспорта RDMA (https://ru.wikipedia.org/wiki/%D0%A3%D0%... (Remote Direct Memory Access). Протокол разработан компанией IBM и позволяет без внесения изменений (загрузив библиотеку через LD_PRELOAD) адаптировать уже написанные для TCP приложения для работы в сетях RoCE (RDMA over Converged Ethernet (https://en.wikipedia.org/wiki/RDMA_over_Converged_Ethernet));
- Добавлен модуль "psample" для выборки сетевых пакетов, проходящих через сетевой интерфейс, для дальнейшего отсеивания фильтром-классификатором;
- В сетевой подсистеме теперь применяется (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... SipHash вместо MD5 для генерации номеров последовательности и вместо SHA1 для syn...
URL: https://lkml.org/lkml/2017/4/30/167
Новость: http://www.opennet.dev/opennews/art.shtml?num=46433
Что-то Linux-Libre отстаёт в этот раз. http://linux-libre.fsfla.org/pub/linux-libre/releases/4.11-gnu/ пока нет.
Что-то Linux-nothing-works отстаёт в этот раз.
А еще там появилась поддержка вот этого ТВ тюнера
https://www.kaa.org.ua/en/22-articles/61-evromedia-usb-full-...
Уя! А это крутой девайс? Или он пока тоже "ундер констрикшон" как и сайт с мутным сертификатом?
Обычно дрова к тюнерам свежие лежат в другом месте и в ядро их берут очень медленно, поэтому страждущие их сами тянут и собирают.
Все ближе и ближе для декстопа, хотя сами окружения декстопа куча несвязанных компонентов с оверхеодм на диске как Quartz
Набор слов.
Как нет тут и приближения к десктопам
> Как нет тут и приближения к десктопамНоутбуки - новая цель :).
Тут только надо понять, где будут сами ноутбуки лет через пять
И где они будут? Никуда не денутся. На одних смартах - ещё не скоро будем сидеть.
А что изменится через пять лет? У людей вместо рук отрастут тентакли? :)
Продажи и доля ноутов снижается уже который год подряд. Растут продажи смартов и планшетов.
Производительность ноутов и стационарников последние несколько лет растёт черепашьими темпами, поэтому нет смысла обновлять. И заменить жёсткий диск на SSD можно без замены всего стационарника или ноута.
Производители планшетов и мобильников кладут болт на нормальное обновление ПО, мобильники и планшеты чаще ломаются и хуже поддаются ремонту. И этого достаточно, чтобы покупать новые каждые пару лет.
Работать в местах где нужно работать а не "развлекаться"
Работать на рабочих местах с типичной для рабочих мест ОС :)
Что там с baytrail? Звук, сенсор и индикация батареи теперь работают? Или все еще нет?
Давно работают!
Да, всё работает - огонь. Ну, вот, разве что только это:
https://bugzilla.kernel.org/show_bug.cgi?id=109051
> here's a big huge *UCK YOU for being A *UCKING ***HOLE!!Во. Процесс по решению проблемы как идет. В лучших традициях линукс сообщества :D
В китайских bay trail и cherry trail обожают ставить сеть на базе рилтека 8723BS (на SDIO шину) - наконец-то драйвер влили в ядро, если все пойдет по плану, уже в 4.12 будет из коробки сеть на разных планшетах работать: http://linuxiumcomau.blogspot.com/2017/04/rtl8723bs-wifi-soo...
У меня вот сенсор и аккум не завелись на планшете, но то было сырое 4.11. Надеюсь на свежачке ситуация будет получше. Или может вовсе стоит подождать ядер 4.12 - 4.15?
Очень зависит от конкретного датчика в конкретном планшете.Обычно всякие Dell и Lenovo работают и на старых ядрах нормально, а совсем уж китайцы могут требовать чего-то странного, что не в ядре.
Сенсор и информация с аккума (а также WiFi, звук, акселерометр для поворота экрана и еще некоторые вещи) типично висят на SDIO, если не работают сразу несколько подобных устройств, то проблема иногда может быть не в драйверах самих устройств, а в том, что какие-то каналы SDIO как-то не так инициализировались и за ними вообще не видно никаких устройств. Я такое встречал. Надо смотреть списки устройств на шинах I2C и SDIO - все ли определяются корректно с правильными идентификаторами; если да, то проблема с драйвером или отсутствием фирмвари, необходимой устройству, если нет, то это более глобальное и надо ковырять, что не так с тем же SDIO, после появления устройства оно может само заработать.
Но в общем и целом, за исключением отдельных планшетов, где все хорошо, в общем и целом ситуация по ним пока печальная. Напр. характерная таблица поддержки для (даже не слишком уж китайского) ASUS'а: https://wiki.debian.org/InstallingDebianOn/Asus/T100TA#Overa...
У меня в iPad все датчики работают.
У вас iPad на платформе Intel с кучей оборудования на шинах I2C и SDIO? Потому что мы тут вообще-то такой кейз обсуждаем..
Спасибо за ответ! Теперь понятно хоть куда копать, если не заработает. Как ядра > 4.11 появятся в оф. репо, буду экспериментировать.
Можно глупый вопрос? Хардварные рейды еще покупают? Если да, то почему?ЗЫ Я админ локалхоста, поэтому правда не знаю и мне интересно.
> Хардварные рейды еще покупают? Если да, то почему?Покупают. Потому что это надёжность, значительно большая производительность и устойчивость к нагрузкам. Ну это всё, если мы рассматривает полноценный хардварный RAID-контроллер, а не какой-нибудь встроенный в материнку fake-raid.
давай посмеемся - найди мне HW raid который выдаст на RAID6 в конфигурации 8+2 из 40 дисков - скорость 8-9Gbyte/s, а linux mdraid6 это может..
> давай посмеемся - найди мне HW raid который выдаст на RAID6 в
> конфигурации 8+2 из 40 дисков - скорость 8-9Gbyte/s, а linux mdraid6
> это может..деятелей, пытающихся хранить деловые даннные на таких конструкциях, стараюсь не допускать в апппаратные комнаты.
Гонору бы по-меньше и было бы хорошо.
Пока не стали считать сколько у вас там "апппаратных" комнат и какие блондинки там крутятся.По теме: вопрос — с учетом lvm2, clvm2 и поддержкой ими raid'ов любых мастей и качество поддержки всего этого в ядре — очень даже имеет смысл.
> деятелей, пытающихся хранить деловые даннные на таких конструкциях, стараюсь неони может write-only ?
то что автор скромно умолчал, что за fs у него поверх этого рейда, как бы намекает...
> деятелей, пытающихся хранить деловые даннные на таких конструкциях, стараюсь не допускать в апппаратные комнаты.Сударь, а у вас всех контроллеров HW-RAID по паре?
Завидую...
> Сударь, а у вас всех контроллеров HW-RAID по паре?а зачем по паре? Их либо две-три пары и все как минимум в hot standby конструкциях (если это большая хранилка), либо их просто по нескольку запасных для каждого используемого типа (это если сотни ящиков и десятки стоек) - причем количество и качество типов, у тех кто понимает, контролируется.
Ну либо делаем красиво и подорого - когда в хепе, циске, не приведи Г-дь, плохой дороге сгорит контроллер - прискачет курьер и привезет в пакетике новый (хепе, циску - целиком) - а по отдельности и без сервис-контракта к ним не то что контроллер, сломавшуюся защелку корзинки не купить.
> ...сотни ящиков и десятки стоек...
> ...прискачет курьер и привезет в пакетике новый......и опять нет повода не позавидовать...
>из 40 дисковИ сколько выйдет, если разбить эту конфигурацию на 2 части? А если на три? На четыре? А что если нужен хотспэйр?
Нет, я очень рад, что у вас все работает и вас все устраивает. Только не надо мерятся МПХ без постановки задачи, ладно? А то получается, что у вас единственно верная задача для всех случаев жизни, ее все знают и все поголовно только ее и решают.
> скорость 8-9Gbyte/s,Это у вас какая-то бытовая потребность. Вы не в теме про фичу аппаратных рейдов.
И что из этого, сколько он при этом отберёт у системы ресурсов при работе БД? Как перенесёт вырубание питания? как закешит и "где" данные при массовой записи от СУБД?
А это ничего, что в "хардварных" рейдах унутре свой проц, своя оперативка и свой софт, писанный секретными индусами?
И закрытые дрова, приколоченные гвоздями к полутора версиям редхата и зюзи.
И если почитать changelog от какого-нито такого аппаратного рейда, то иногда волосья на голове шевелятся.
> А это ничего, что в "хардварных" рейдах унутре свой проц, своя оперативка
> и свой софт, писанный секретными индусами?код линукс подсистем в 1/2 недалеко от кривого индусского.
написали, как-то работает, круто же.> И закрытые дрова, приколоченные гвоздями к полутора версиям редхата и зюзи.
необходимо таки подбирать оборудование по целям и качеству.
> И если почитать changelog от какого-нито такого аппаратного рейда, то иногда волосья
> на голове шевелятся."какие-нить" не покупайте.
когда аппаратный рейд поломается, высока вероятность что придется искать такой же контроллер чтобы прочитать данные
Матери с SATA port multiplier'ами хватает. Raid Reconstructor для определения очередности записи блоков на диск и R-Studio для вытягивания данных. У ынтерпрайзных админов бэкапов не было. На священный аппартаный raid надеялись, ага. Adaptec 8405.
> когда аппаратный рейд поломается, высока вероятность что придется искать такой же контроллер
> чтобы прочитать данныеэто если у вас нет второго контроллера, который работает в параллель с первым, нет зеркальной копии тома на второй СХД, нет CDP и репликации, и наконец, нет традиционных СРК.
вот только в этом случае может возникнуть такой фактор.
в конторах, где этот фактор учитывают, вероятность попадания какого-нибудь шифровальщика на фс на этом аппаратном рейде на порядок выше, чем вероятность его отказа. я бы даже сказал, что данные на этом аппаратном рейде в таких конторах нужны в основном для блезиру, ну и в налоговую отчетность сдать на флешечке.
> код линукс подсистем в 1/2 недалеко от кривого индусского.Его хотя бы шансы есть посмотреть и поправить (что может не хватить времени или квалификации - вопрос отдельный).
С прошивкой "аппаратного рейда" - жри, что дают, деньги неси, целуй вендора в #опу.>> И закрытые дрова, приколоченные гвоздями к полутора версиям редхата и зюзи.
> необходимо таки подбирать оборудование по целям и качеству.Внезапно, не все в ынтырпрайзе работают. Не поверите - есть еще средний и малый бизнес, где бюджета на ангар с тестовыми серваками нету.
>> И если почитать changelog от какого-нито такого аппаратного рейда, то иногда волосья
>> на голове шевелятся.
> "какие-нить" не покупайте.Можно подумать, другие есть.
Наверное, стоит покупать аппаратные контроллеры RAID, которые не требуют каких-то внешних драйверов и выглядят для системы как стандартное SATA, SAS, SCSI устройство.
> Наверное, стоит покупать аппаратные контроллеры RAID, которые не требуют каких-то внешних
> драйверов и выглядят для системы как стандартное SATA, SAS, SCSI устройство.А что, риск нарваться на кривую прошивку от этого пропадет?
Да проще всё - сдохнет карта, и вдруг окажется что чтобы прочитать данные тебе нужна _точно_такая_же_, вплодь до совпадения майнор билт намбера на FW ... А их ужо не продают :-\ И пойдёшь ты покупать у них кастом билд по соооовсем другой цене.Поэтому под коней эры железных рэйдов, кровавый из покупал ка минимум пару. Один в сервак, другой на склад и описать в DR procedure.
Нееееее - нафик!
Просто оставлю это здесь.
Старенький LSI MegaRAID SAS 9260-8i (Mfg. Date: 08/31/13), 7x3TB raid6 SATA Seagate .3, zfs-on-linux против новой сборки zfs raidz-2 6x2TB SATA HGST HUS с кэшом из пары Samsung SSD 850 PRO 128GB.Конфигурации ±схожие. Ключевое отличие — наличие кэша 512МБ DDR + BBU у "железки" против 2х SATA SSD на софт-рэйде. Результаты прогона bonnie++ на области 50ГБ (начало дисков в обоих случаях):
# bonnie++ ZFS 6x 2TB HDD, новая сборка с centos 7 + ZoL
mkdir /home/test
chown nobody:nobody /home/test
bonnie++ -u nobody -d /home/test/ -s 51200 -r 8000 -n 0 -bVersion 1.97 ------Sequential Output------ --Sequential Input- --Random-
Concurrency 1 -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
x1 50G 146 99 492821 86 154981 44 357 98 389092 45 212.3 21
Latency 82613us 14348us 1055ms 88732us 507ms 166ms1.97,1.97,x1,1,1491898455,50G,,146,99,492821,86,154981,44,357,98,389092,45,212.3,21,,,,,,,,,,,,,,,,,,82613us,14348us,1055ms,88732us,507ms,166ms,,,,,,
# bonnie++ ZFS @ LSI MegaRAID SAS 2108 7x 3TB HDD, старая сборка с centos 6 + ZoL
Version 1.96 ------Sequential Output------ --Sequential Input- --Random-
Concurrency 1 -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
st1 50G 74 99 324079 73 148538 48 154 99 468356 60 234.2 6
Latency 141ms 1527ms 529ms 88479us 383ms 127ms1.96,1.96,st1,1,1491914042,50G,,74,99,324079,73,148538,48,154,99,468356,60,234.2,6,,,,,,,,,,,,,,,,,,141ms,1527ms,529ms,88479us,383ms,127ms,,,,,,
(В целом сравнимо, с поправкой на кэши.)
А теперь — ext4 поверх lvm на старом:
# bonnie++ ext4 @ LSI MegaRAID SAS 2108 7x 3TB HDD
Version 1.96 ------Sequential Output------ --Sequential Input- --Random-
Concurrency 1 -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
bcp1 50G 313 99 799005 94 225400 33 843 99 757494 58 537.1 18
Latency 31092us 149ms 199ms 16939us 50420us 97653us1.96,1.96,bcp1,1,1491907084,50G,,313,99,799005,94,225400,33,843,99,757494,58,537.1,18,,,,,,,,,,,,,,,,,,31092us,149ms,199ms,16939us,50420us,97653us,,,,,,
Вот так-то. На zfs кэши вполне прилично реализованы, но скорость записи съедается (≈50%) cow-дизайном. А что под lvm подкладывать будем? lv-cache? Так оно — только на чтение и 1 том = 1 партиция кэша afaik. Ещё варианты?
> Просто оставлю это здесь.у вас задача как-то выпала из описания. вы ж не под бонии его собирали?
В случае zfs реальная задача очень заметно отличается от синтетических тестов - причем как в лучшую, так и в худшую до полной неработоспособности сторону, если не угадать с record size, количеством памяти и размерами кэшей.> Вот так-то. На zfs кэши вполне прилично реализованы, но скорость записи съедается
> (≈50%) cow-дизайном.я не очень понял - у вас на этих дисках l2 ? Если мы про запись - то, возможно, вы тот уникальный человек, которому на самом деле нужен лог.
> у вас задача как-то выпала из описания. вы ж не под бонии
> его собирали?"Бюджетные" $3…6k x86-гипервизоры с DAS в небольшом телекоме.
Запись, как правило, низкоинтенсивная и практически последовательная. Чтение — можно словить "полку". На биллинге, например. И при бэкапах (в текущей схеме).
Текущее решение "подпирается" кэшами raid-карточек, а zfs до недавнего времени занимался только бэкапами. После 6 лет эксплуатации на бэкапах, zfs признан достаточно стабильным (и документированным) для замены LVM в данном кейсе.
Бонусы: бо́льшая часть чтения имеет ТТХ SSD (почти). "Предоплаченный" бэкап (тянем zfs send|recv вместо тотал-скана для lvm) с возможностью гонять репликацию в прайм-тайм. Последние снимки доступны локально, (чуть)проще расследовать/исправлять ошибки персонала.
Минусы: готовим 4…6ГБ ОЗУ под обслуживание вышеописанных ≈7ТБ. Из которых нельзя брать больше 5ТБ. Больше возможностей нарваться на панику (хотя, с lvm это тоже не проблема: поменьше ОЗУ & побольше снапшотов и…). Непригодно для критичных к записи задач (e.g. большие БД). Жрёт CPU (soft-raid6 + sha256-checksums).
Ну и DKMS в минусы запишем. (Для убунтоидов это больше не проблема, но я им не завидую https://wiki.ubuntu.com/1404_HWE_EOL и т.п., в 16.04 вообще за 2 дня нашёл 4 ошибки в сетевом стеке + 1 в multipath, но это уже другая история).
> Да проще всё - сдохнет карта, и вдруг окажется что чтобы прочитать
> данные тебе нужна _точно_такая_же_, вплодь до совпадения майнор билт намбера на
> FW ... А их ужо не продают :-\ И пойдёшь ты
> покупать у них кастом билд по соооовсем другой цене.
> Поэтому под коней эры железных рэйдов, кровавый из покупал ка минимум пару.
> Один в сервак, другой на склад и описать в DR procedure.господи, да как же надоели вы с этой песней, товарищи строители хранилищ из овна и епок.
купить нормальную СХД, в которой как минимум два контроллера - это мы с негодованием вычеркиваем сразу.
сделать нормальную CDP, если уж нам так важно RPO=0 (я правильно понял, суть всего этого онанизма с покупкой второго контроллера - получить нулевой RPO неестественным образом?), это никак невозможно,
организовать вторую копию тома на втором контроллере, который стоит рядом или в соседнем сервере - это никак невозможно.
а вот купить второй контроллер и положить его на полку, где он будет пылиться - это да, это правильно и экономично. держать резервный же фонд у нас могут позволить себе не только лишь кровавые ынтерпрайзные вендоры, обслуживающие клиентов по гарантии, но и простой малый бизнос.
и да, как я уже сказал выше - бэкапа обычного у вас тоже не делают, видимо, поэтому первый приблудный шифровальщик разрушит всю вашу цивилизацию к такой-то маме, но это же ерунда, у вас же лежит на полочке и описан в dr процедуре запасной контроллер.
> А это ничего, что в "хардварных" рейдах унутре свой проц, своя оперативка
> и свой софт, писанный секретными индусами?
> И закрытые дрова, приколоченные гвоздями к полутора версиям редхата и зюзи.
> И если почитать changelog от какого-нито такого аппаратного рейда, то иногда волосья
> на голове шевелятся.Следует также прибавить невыносимо отвратительные софты для управления и мониторинга, после которых на mdadm смотришь с умилением.
Всегда на mdadm с умилением смотрел. Из чего-то удобнее только btrfs вспоминается.
После появления в lvm2 поддержки raid5/6/итд.. тоже стал не востребован.
А так да, затыкал нос аппаратным лет 15, если не больше.
Но до появления zfs и потом lvm2/clvm2 с рэйдами.
Бтр же пока никак.
> А это ничего, что в "хардварных" рейдах унутре свой проц, своя оперативка и свой софт, писанный секретными индусами?Какой ещё свой код? Кому надо заморачиваться? Там унутре тот же linux с тем же MD RAID. Индусского всего-то — обвязка для управления этим хозяйством.
Вот сразу видно кто хардварных раид контроллеров и в глаза не видел.
Иди сначала initramfs из прошивки контроллера выковыряй, потом будешь всем рассказывать как его там нет.
Пример контроллера с линуксом внутри в студию.
Areca.
ну труп же ж.
К тому же линукс там был, вероятнее всего, только в интерфейсе (отдельно ужасном).
> Какой ещё свой код? Кому надо заморачиваться? Там унутре тот же linuxэта... areca вроде десять лет уже банкрот. Где вы еще линyпс-то нашли?
> с тем же MD RAID. Индусского всего-то — обвязка для управления
> этим хозяйством.есть один ньюанс, да: процессор нифига не xeon. Поэтому даже если вы где-то в прошивке и увидели знакомые буквы - совершенно не надо делать слишком широкоохватные выводы.
У меня вот в циске не просто линукс, а можно в него натурально в шелл вывалиться (и некоторые вещи этого требуют). Более того - отдельные доступны в виде .ovf Означает ли это, что я могу циску выкинуть, и писюком под линуксом заменить, как вы думаете?
(и да, процессор - нифига не ксеон ;-)P.S. второй ньюанс в том, что индусы все же читали статью Анвина. Ее, к сожалению, WASP americans тоже читали. До или после исправления - а вот угадайте. ;-)
HW не безопасны. Полетит и информацию будет не восстановить, т.к. формат не стандартизирован, а такой же можно и не найти.
Ну так делай бекапы! RAID это не система резервного копирования.
> Ну так делай бекапы! RAID это не система резервного копирования.Бекапы не панацея.
Поднять из бэкапа многия терабайты ... это от недели и больше. К тому времени твои клиенты уже будут у твоих конкурентов. Поэтому покупайте контроллеры парами. :-\
> Поднять из бэкапа многия терабайты ... это от недели и больше. К
> тому времени твои клиенты уже будут у твоих конкурентов. Поэтому покупайте
> контроллеры парами. :-\причем - _сразу_ (ох какие занимательные приколы были у lsi megaraid "чуть другого релиза")
Правда, для многих терабайт это излишне (несколько часов на нормальном рейде. если бэкап сам готов отдавать с нужной скоростью), а когда их многие сотни или первые тысячи, вот тут уже начинается цирк, который лучше смотреть с верхних ярусов. До оркестра кровь и кишки иногда долетают.
(да, разумеется, такие системы никогда не упираются в один контроллер ;-)
> Поднять из бэкапа многия терабайты ... это от недели и больше. К
> тому времени твои клиенты уже будут у твоих конкурентов. Поэтому покупайте
> контроллеры парами. :-\3-2-1
Минимум три копии данных
Минимум на двух независимых носителях
Минимум один носитель вне зданияВ случае аварии на основном носителе данных переключаемся на второй, который становится актуальным, "поднимаем" аварийный доступным способом и оттуда в "новый актуальный" дописываем данные, не попавшие в последнюю синхронизацию.
Это же азбука, ребята!Если требуется непрерывность доступности данных - используем технологию хранения, позволяющую хранить избыточный набор данных.
К примеру - Raid-Z, там можно на одном наборе томов записывать данные в 2-х, 3-х экземплярах, что позволяет заменять выпадающие тома почти незаметно для пользовательских приложений.
Бэкапы в любом случае делать надо. HW - это просто дополнительная точка отказа в системе.
> стандартизирован, а такой же можно и не найти.RAID купил, саппорт не купил.
> RAID купил, саппорт не купил.саппорт купил, а он тебе и говорит человечьим голосом - "а это у вас от того, что вы два года назад пропустили рекомендованный нами апгрейд (ну да, ну да - с уводом в оффлайн, парой часов траходрома без гарантии что потом подберутся диски, а не "ой нишмагла, прикажете переформатировать?"), или вообще ему endoflife пришел, да, вот те у вас хорошие, правильные - как не видите разницы - вот же, восемнадцатая цифробуква в серийнике должна быть больше шести.
нет, если ты купил у EMC, то, наверное, так не будет - но, блин, не у всех же деньги действительно бесконечные.
> саппорт купил, а он тебе и говорит человечьим голосом - "а это
> у вас от того, что вы два года назад пропустили рекомендованный
> нами апгрейд (ну да, ну да - с уводом в оффлайн,
> парой часов траходрома без гарантии что потом подберутся диски, а не
> "ой нишмагла, прикажете переформатировать?"), или вообще ему endoflife пришел, да, вот
> те у вас хорошие, правильные - как не видите разницы -
> вот же, восемнадцатая цифробуква в серийнике должна быть больше шести.
> нет, если ты купил у EMC, то, наверное, так не будет -
> но, блин, не у всех же деньги действительно бесконечные.будет точно так же, вы думали, в рай попали? единственно в случае покупки поддержки 24х7 саппорт будет говорить вам это круглые сутки, был бы кастомер контакт на проводе.
а ваш пойнт в чем? что наличие саппорта не позволяет забить на техобслуживание?
так больше того, наличие саппорта не отменяет того, что в реале отвечаю за данные я, и за их доступность на СХД в нужное бизнесу время, и за восстановление в объявленное бизнесу время. и это моя ответственность подставить все возможные костыли, чтобы отказ одного контроллера или отпадение одного луна не поставили раком всю систему или позволили ее восстановить в объявленное время.
вендор и интеграторы/консультанты тут не гарантия, они косячат точно так же, как и простые смертные.
В основном из-за плохой производительности на запись у софтрейдов. Как загоните CPU на в 100% iowait - сразу поймёте, почему.
> на в 100% iowaitНа записи в 100% iowait
особенно NVme
> В основном из-за плохой производительности на запись у софтрейдов. Как загоните CPU
> на в 100% iowait - сразу поймёте, почему.на скорости 9Gbyte/s в случае linux md raid 6, упираемся в pagecache - а не в IO wait.
что не так делаем?
>> В основном из-за плохой производительности на запись у софтрейдов. Как загоните CPU
>> на в 100% iowait - сразу поймёте, почему.
> на скорости 9Gbyte/s в случае linux md raid 6, упираемся в pagecache
> - а не в IO wait.
> что не так делаем?превращаете материнскую плату для unix в плату для raid контроллера.
А почему бы и нет, если рассмотреть следующую конструкцию? В Linux есть модуль для прямого соединения материнок по PCI-Express. Соединяем основную мать со многими ядрми CPU с дополнительной менее мощной. На дополнительной свой Linux выполняет функции софтового RAID, обмен по PCI-E быстрый.
Потом увольняетесь, а пришедшие админы ох.евают от данного цирка и проклинают вас.
Слабаки!ps уже задолбали рассуждения о нанятых для экономии в качестве админов домохозяйках
> ps уже задолбали рассуждения о нанятых для экономии в качестве админов домохозяйкахНу почему же? Если тут админ ничего не задокументировал, то последователям в любом случае придётся пытаться угадать, что и как он сделал.
ну такие как вы в будущем и без работы будут
>Потом увольняетесь, а пришедшие админы ох.евают от данного цирка и проклинают вас.Мне на неосиляторов 100500 колограмовый прибор покласть :)
Бизнесс платит за решение его проблем, решения не всегда бывают простыми и понятными. Если "пришедшие админы" хотят бабла, что платили мне - ну пусть уж напрягутся. Или делают своё. ТЧК Ъ!
такие идеи есть только у админов локалхоста. в нормальных фирмах ни такого отношения к своей работе, ни вообще возможности наворотить чтото без согласования на нескольких уровнях и без технической документации - технически невозможно. Вы это просто не сможете сделать. вас не поймут, и вашу гениальность выставят за дверь.
А в мелких конторках да,бывает, что админ может чегото наворотить и не задокументировать :)
>и не задокументироватьНайди такие буквы в оригинальном посте, дятлушка :)
Плач был о том что мол сложно, у эникеёщикафф извилинки трещат! Чо вот придумывывают фню всякую спрашивается? Взять всё и поделить! В смысле HW RAID впихнуть и всё :))))
>в нормальных фирмахА как ты узнаешь, что фирма нормальная?
>без технической документации
Есть "нормальные фирмы", где отдельные отделы забивают болт на это дело. Потом сидишь и расхлебываешь. Все зависит от людей, а не от "фирм".
> Бизнесс платит за решение его проблем,бизнесу, обычно, не нужно одноразовое решение, которое, когда ломается (а того хуже - начинает потихоньку глючить), никто не может восстановить, кроме ушедшего в туман автора.
> Если "пришедшие админы" хотят бабла, что платили мне
и много заплатили? А то там, где платят гусарам-самоучкам с мотором, вместо покупки индустриального решения, обычно с баблом-то как раз все как-то вот не очень. И платить норовят в конвертике, да?
Потому как "решение" либо таки было одноразовое на здесь и сейчас, и через неделю разобрано на запчасти, либо сделано нищeбродами по методу "вы же специалист, сделайте нам забесплатно - вон на складе куча списанных из под сокращенных сотрудников десктопов прошлого веку валяется".
Ну и какую реальную проблему оно "решало" - так и осталось за рамками этого интересного рассказа.
> Потом увольняетесь, а пришедшие админы ох.евают от данного цирка и проклинают вас.Это ещё что..
Один заказчик соорудил конструкцию из дискового массива: сделал вынос на проводах дисков в количестве 24 шт. из дисковой полки в спецдевайс для быстрого уничтожения данных. На случай "маски шоу".Вот тут реально есть с чего ох..ть. Когда такое увидел - долго приводил мысли в порядок.
Начальству предложил серьёзно задуматься над вопросом: а нужен ли нам такой заказчик ?
> А почему бы и нет, если рассмотреть следующую конструкцию? В Linux есть
> модуль для прямого соединения материнок по PCI-Express. Соединяем основную мать со
> многими ядрми CPU с дополнительной менее мощной. На дополнительной свой Linux
> выполняет функции софтового RAID, обмен по PCI-E быстрый.И получаем ровно то же, что продаётся под названием "hardware RAID".
>> В Linux есть модуль для прямого соединения материнок по PCI-Express. Соединяем основную >> мать со многими ядрми CPU с дополнительной менее мощной.
> И получаем ровно то же, что продаётся под названием "hardware RAID"....только с открытой прошивкой, что, КМК, немаловажно.
И в несколько раз дороже, что тоже немаловажно.
>В Linux есть модуль для прямого соединения материнок по PCI-Express.А можно по подробнее? Что-то не нашёл такого.
https://www.kernel.org/doc/Documentation/ntb.txt
и
https://github.com/jonmason/ntb/wiki
Я как админ в прошлом и владелец бизнеса в настоящем вышвырнул бы за шиворот без выходного пособия за такое "решение". Свой сумрачный гений надо в локальной сети применять, а не в бизнесе.
Думаешь от того что скучно такие решения придумывают, чаще мы хотим такого но денег не дадим.
> Думаешь от того что скучно такие решения придумывают, чаще мы хотим такого
> но денег не дадим.включая зарплату гусару-без-мотора (в принципе, он в месяц все же подороже дешевого контроллера стоит). В результате он делает на от'сь, в перерывах между латаниями дыр, документацию пишет так же или не пишет вообще, в надежде потом, после увольнения, стребовать еще раз много денег, но, разумеется, никто к нему с деньгами не приходит, приходят с тазиком и мешком цемента.
Ну или следующий неудачник, проклиная все, пытается этот труп оживить за зарплату.Сделал бы сразу на доступных по деньгам стандартных компонентах - или отказал в хотелке - двоим (минимум, а то иногда такое и третьего дожидается) жизнь бы и облегчил.
Бизнесу, если он хоть более-менее нормальный - что характерно, тоже.А то как-то изучал я презентацию на HL (или чем-то подобном) двухлетней давности - все, что оставили предшественники на тему "да нахрена ж вообще всю эту глупость навернули в столько этажей и каких целей на самом деле хотели, помимо 'денег никому не платить'".
> А почему бы и нет, если рассмотреть следующую конструкцию? В Linux есть
> модуль для прямого соединения материнок по PCI-Express. Соединяем основную мать со
> многими ядрми CPU с дополнительной менее мощной. На дополнительной свой Linux
> выполняет функции софтового RAID, обмен по PCI-E быстрый.Вы только что описали плату аппаратного RAID контроллера на "ширпотребных компонентах" с возможностью быстрой кастомизации под конкретную задачу, ещё стоит добавить что плата должна быть с питанием от встроенного автомобильного аккумулятора с контроллером заряда и мгновенным переключением в аварийный режим.
Админы делятся на две категории, те кто верит в волшебные свойства хардварных рейдов и те кто уже нет.
Основное волшебное свойство заключается в том, что при записи на софтовый RAID6 из 12 дисков вы получите 12x наборов данных по шине.
> Основное волшебное свойство заключается в том, что при записи на софтовый RAID6
> из 12 дисков вы получите 12x наборов данных по шине.P.S. Не понимающим, почему 12, советую предположить типовую для потоковой записи ситуацию, в которой данных страйпа с "соседних" дисков в кеше нет.
> Можно глупый вопрос? Хардварные рейды еще покупают? Если да, то почему?ну вот потому что линукс в 2017м году от Р.X. "сделал лог в raid 456".
А в каком году он сделает raid1 без double performance hit - ученые пока не знают.меня вот больше изумляет, что по сей день находятся ненормальные, которые этими линуксными поделками (плюс, конечно же, lvm, чтобы ЭТО восстановлению не подлежало в принципе) пользуются - при наличии с одной стороны, почти живой zol, с другой - почти работающих адаптеков (больше, кажется, _работающих_ никого не осталось).
и да, хозяйке на заметку - lsi с "IT" прошивкой - _дороже_ обычного (и не просто так ;-)
(или может, чтоб уже совсем не мучаться, вы громоздите softraid over lvm over десяток sata-разъемов на матери? А чо, асусу (ваших данных) не жалко ведь.)
Этими линуксными поделками как раз пользуются те кто уже походил по граблям с почти работающими конроллерами.И уж упоминать адаптек как что-то хорошее надо иметь напрочь промытые мозги, до сих пор с содроганием вспоминаю это дерьмо переOEMленое в IBM serveraid.
И кстати если вы не знали, LSI c IR прошивкой без проблем перешивается в IT.
> почти работающих адаптековха-ха. Адаптек и "работающий" в одной фразе.
> и да, хозяйке на заметку - lsi с "IT" прошивкой - _дороже_
> обычного (и не просто так ;-)прошивка меняется одной командой. Правда ребут нужен и собственно прошивка. С хренов бы оно было дороже.
>> почти работающих адаптеков
> ха-ха. Адаптек и "работающий" в одной фразе.не все адаптеки одинаково полезны, да.
>> и да, хозяйке на заметку - lsi с "IT" прошивкой - _дороже_
>> обычного (и не просто так ;-)
> прошивка меняется одной командой. Правда ребут нужен и собственно прошивка.которую приходится брать хз где, ага, потому что под твоим логином, внезапно, только новая версия рейдовой - если была.
> С хренов бы оно было дороже.
ну вот открываешь ценник, и изумляешься. А потом прикидываешь, ЧТО ставят на "IT", а что на raid-версию, и понимаешь, что, в общем-то, ну да, так и должно быть, чего б тебя не развести еще на десять процентиков.
И опять же - альтернативы-то нету (ну, то есть за сравнимые деньги и чтоб, хотя бы, не вся полка разом в оффлайн при попытке единственный диск вытащить). Был 3ware (который и в jbod неплохо работал), да весь вот вышел куда-то.
> которую приходится брать хз где, ага, потому что под твоим логином, внезапно, только новая версия рейдовой - если была.Почему это "хз где", ясно где. На MyOracleSupport. Не буду ж я прямо с адаптеком общаться.
> ну вот открываешь ценник, и изумляешься
В ораклем ценнике оно одинаково.
> И опять же - альтернативы-то нету
LSI. Собственно адаптек теперь уже и не предлагается.
Хардварный разве что позволяет винду на raid 0 поставить. Всё остальное реализуется софтварным, который и быстрее, и мониторится удобнее и восстанавливается проще.
> Хардварный разве что позволяет винду на raid 0 поставить. Всё остальное реализуется
> софтварным, который и быстрее, и мониторится удобнее и восстанавливается проще.Удобнее - да. Проще - да. Быстрее - увы, нет.
покупают
один винт в raid-е ~ один поток на его обработку
если у вас вафельница на три-четыре диска - это не критично
если у вас сторадж в стойке на 8..36 (а то и больше) винтов, то вы не захотите упираться в проц. да и в контроллер, в данном случае, надо будет гнать одни и те же байтики по шине *надцать раз.
зачем? когда можно воткнуть нормальный контроллер и переложить весь головняк на него
> планируется портирование cfq, noopНет.
>раздельные буферы с историей прокрутки для консолейДжвадцать лет ждал!
Ещё бы отдельные наборы виртуальных консолей для каждой физической головы (видеокарта + клавиатура + мышь) во многоголовых конфигурациях.
Идею им подкинь, девелоперы могут не догадываться что кому-то такое нужно. Я бы не догадался.
> Отключена поддержка NFSv4 по UDP, которая была в неработоспособном видеРазве UDP не использовался в NFS по умолчанию?
В NFSv3 и более старых.
Если точнее, в v2 и более старых, а начиная с v3 UDP поддерживался, но рекомендуется TCP.
Использовался, но это не эффективно, поэтому в NFSv4 перешли по умолчанию к TCP, да и NFSv3 насколько помню TCP использовал по умолчанию, по крайней мере в том дистрибутиве, что я использовал.Почему UDP не эффективен для NFS? NFS читает и пишет блоками 8 килобайт (настраиваемый параметр), UDP не умеет сегментировать/фрагментировать PDU прикладного уровня (в отличие от TCP/SCTP), он размещает полный блок в датаграмме. И если MTU канального уровня будет ниже, а оно скорее всего будет ниже для средней сети, фрагментация будет выполнена на на сетевом уровне, силами IP. И всё бы нечего, если бы не одна проблема, в случае потери любого одного IP фрагмента, пересылается весь IP пакет. Ещё IP фрагменты в случае, если пакет будет по какой-то причине дефрагментирован на транзитном устройстве, будут обрабатываться на process level/slow path.
> Использовался, но это не эффективнодело не в "неэффективно". Дело в отсутствии вменяемых программистов. А они ушли вместе с sun, и тот кусок кода уже лет десять никто не трогает.
> Почему UDP не эффективен для NFS? NFS читает и пишет блоками 8
он очень даже эффективен, в той _крайне_редкой_ в XXI веке ситуации, когда у вас теряются пакеты между NAS и хостом. Недо-ccna оставляется для самостоятельного изучения, почему - именно udp. На досуге рекомендую отдельно подумать, если есть еще чем, что в sun и в XX веке работали отнюдь не бестолковые идиоты, как вам показалось, и выбрали udp они не просто так. И да, mtu у нас в те времена был строго 1500.
К счастью для вынужденных пользоваться этим выкидышем сана, в реальных сетях XXI века потери пакетов между nas и хостом - катастрофа, за которую отрывают местному недо-ccnp все что висит. А если пакеты не теряются - то и хрен с ним, с tcp. Неэффективный протокол с большим оверхедом- ничего, сделаем сеть на jumbo-frames, и переведем ее на отдельные свитчи, vlan per host. А tcp все равно заоффлоажен на сетевухи.
Ну а если это домашний недо-нас с порнухой, то там и вообще всем пофиг. А писать код для tcp проще на порядок.
> дело не в "неэффективно". Дело в отсутствии вменяемых программистов. А они ушли
> вместе с sun, и тот кусок кода уже лет десять никто
> не трогает.Экий бред сумасшедшего.
То есть можно будет включить blk-mq, чтобы он работал для SSD, и встроенный в него Deadline для HDD? Круто если так
blk-mq это не то, не думаю что потребительские продукты поддерживают multi queue. вообще не знаю, не читал пока что это такое ;)
1. structleak
2. раздельные буферы с историей прокрутки для консолейГодно. Даже не знаю что меня больше радует....
> Для KVM реализован драйвер PTPТеперь ntp сервер можно будет поднимать в виртуалке?
>> Для KVM реализован драйвер PTP
> Теперь ntp сервер можно будет поднимать в виртуалке?Ну, вам, видать, и ntpdate - "сервер".
#>> драйвер PTP, позволяющий получить доступ из гостевой системы к часам реального времени хост-системы, что даёт возможность использовать Chrony для высокоточной синхронизации часов хоста и гостевой системы;
Читаю внимательно вслух: точнее синхронизовать виртуалку с хостом.
Проверочный вопрос: что-что в-в виртуалке-вертуале, ась-ась?
Вопрос был в том, можно ли тем же chrony, который имеет доступ к часам хост системы, раздавать время другим хостам, или это пока влажные мечты?
> Вопрос был в том, можно ли тем же chrony, который имеет доступ
> к часам хост системы, раздавать время другим хостам, или это пока
> влажные мечты?Тем крони, который _берёт_ время с "часов хоста", раздавать другим виртуалкам?
Ентерпрайс строишь? Осторожнее -- майекрософт не любит конкурентов...
> Вопрос был в том, можно ли тем же chrony, который имеет доступ
> к часам хост системы, раздавать время другим хостам, или это пока
> влажные мечты?Chrony - это штука для NTP и никакого отношения к этому не имеет. NTP нужен для синхронизации времени в масштабах глобальной сети и дает точность в десятки миллисекунд. PTP - между узлами в одном сегменте сети с точностью до микросекунды. Работает с аппаратной поддержкой в сетевухе и ее драйвере, из-за чего сложнее в настройке и значительно менее гибкий, чем NTP.
Точное время принимайте через NTP, а PTP нужен для синхронизации timestamp'ов между приложениями в кластере и подобных вещей.
> Теперь ntp сервер можно будет поднимать в виртуалке?не только. ещё смотреть РТР
Все, что связано с сетевым стеком мне понравилось, остальное на любителя)Linus Torvalds, thank you very much.
Согласен. Поджскажите если не сложно - как можно с SMC-R поиграться?
Для начала надо приобрести RoCE-железо
Вот тут https://en.wikipedia.org/wiki/RDMA_over_Converged_Ethernet
"the protocol can also be used on a traditional or non-converged Ethernet network"
Да, действительно, должно работать на обычных NIC'ах
"Модуль для обеспечения сжатия LZ4 заменён на новую реализацию, демонстрирующей более высокую производительность;" На какую? Ткните носом, пожалуйста.
> "Модуль для обеспечения сжатия LZ4 заменён на новую реализацию, демонстрирующей более высокую
> производительность;" На какую? Ткните носом, пожалуйста.в zswap вроде использовался, но не по умолчанию...ммм в initramfs возможно, но не в дефолтах...в общем не помню, но в любом случае, это хорошо.
Я не об этом. Я хочу увидеть тесты. Насколько увеличилась производительность?
>Я хочу увидеть тесты.https://duckduckgo.com/?q=lz4+high+performance+benchmark
> Насколько увеличилась производительность?
икс три. ы м м в.
Я так понял на LZ4 fast перешлиhttps://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin...
> "Модуль для обеспечения сжатия LZ4 заменён на новую реализацию, демонстрирующей более высокую
> производительность;" На какую? Ткните носом, пожалуйста."На какую" - "другую реализацию" написано здесь => https://lwn.net/Articles/713175/
Либрари бандлинг, коде блоаут и уан труЪ вей -- так победим...
(я видел перепрыг про "на какую" "высокую п." -- русская языка трудная языка, да, сама мучаюсь)
Maxwell - это девятисотая серия, а не тысячная, поправьте. Для них ускорение уже работает. Для Паскалей - только с ядром и месой из гита.
Херову тучу ошибок ACPI уже замели под ковёр или так и цветёт в системных логах?
пруф?
А всё от того, что ACPI-таблицы редко когда нормально заполнены. Всё больше или криво левой пяткой или какой-то собственный дикий колхоз. За всеми в рамках одного ядра не уследишь.
Что интересно, у меня на последних ядрах на Core2Duo ни одного разрыва по acpi в системном логе, а на i7 тоже не молодом уже Ivy Bridge портянка ошибок acpi на несколько десятеов строк. При этом всё нормально работает канеш.
> этом всё нормально работает канеш.ACPI вообще глюкодром адовый. Проблема в одном месте (в кривом DSDT, например) может быть обойдена/обкостылена где-нибудь в другом месте (в BIOS, в kernel, в драйвере, даже в юзерспейсе где-нибудь). И в результате, вроде как, всё работает, но в dmesg, например, дикий вой ACPI ERROR: ***. Или глючит, от сочетания всего этого, но как-то по другому.
ЗЫ. Это не только к linux относится, это везде так.