The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Зона Solaris не видит интернет., !*! Byte, (Solaris) 26-Май-10, 15:14  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
XEN SERVER 5.5.0 upd2 глючит консоль в XenCenter, !*! XoXa, (Виртуализация) 13-Май-10, 15:32  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Конвертирование видео на backend'е, !*! ciwl, (Кластеры) 10-Мрт-10, 13:36  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


2 и более аппаратных RAID-контроллера в сиcтеме одновременно, !*! netserfer, (Хранилища данных) 07-Апр-10, 12:22  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Дисковый кеш (на запись), !*! IVB, (Увеличение производительнсти) 30-Мрт-10, 13:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


Самосборная СХД (OSOL, ZFS, Comstar), !*! m0ps, (Хранилища данных) 05-Мрт-10, 12:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


Проблемы с нагрузкой на CPU, !*! 0nik, (Увеличение производительнсти) 28-Янв-10, 01:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Проектирование виртуальной системы, !*! Grave, (Виртуализация) 18-Мрт-10, 08:24  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
SNMP - мониторить циски, IBM BladeCenter E, IBM NAS, !*! XoXa, (Аппаратное обеспечение) 16-Фев-10, 12:57  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
PostgreSQL 12G база. Тюнинг БД. Медлиный SELECT + ORDER BY, !*! Roaming, (Другие СУБД) 30-Июл-06, 14:36  (рейтинг 2,2) [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
На сколько надежны DAS MD1000?, !*! alexrn, (Хранилища данных) 25-Янв-10, 12:24  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


nagios - для разных таймаутов оповещение на разные email, !*! Аноним, (Увеличение наджности) 15-Фев-10, 02:55  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
посоветуйте FS, !*! sluge, (Хранилища данных) 15-Фев-10, 22:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Как мигрировать виртуальные машины?, !*! sheff.artx, (Виртуализация) 11-Фев-10, 16:58  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Fastwell CPC303-01 и linux, !*! axel101, (Аппаратное обеспечение) 13-Фев-10, 22:59  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • GX1 32 MB SDRAM FFD 16 MB В общем понятно, почему там стоит FreeDOS , !*! Andrey Mitrofanov (?), 13:00 , 14-Фев-10 (1)
    >Последние несколько дней пытаюсь поставить debian на плату CPC303-01.
    >с внутренней флехи, на которой стоит FDOS. При попытке поставить debian

    ...GX1. 32 MB SDRAM. FFD 16 MB... В общем понятно, почему там "стоит" FreeDOS...

    Хотя с бругой стороны, в [минимум, если я правильно помню, сколько стоит в моей "коробочке с WiFi" за ~1900рэ] 2Мб флэша и 8Мб ОЗУ _некоторые запихивают... такое запхивают... [правда, _никакой "лишней" фунециональности] и даже продают миллионами(?) единиц.

    >больше нет и убить нечего. Пытался подключить usb флеху и на

    "Диск" на USB в общем-то само по себе может быть проблемой.

    >Теперь вопрос: Какие вообще дистрибутивы используются на подобных промышленных компьютерах,

    Старательно выпиленные _профессионалом образы ОС, заливаемые на флэшь. Вариантов два: учиться, пока у самого не выпилится что-то удовлетворяющее (долго?),++

    http://www.linuxfordevices.com/c/a/Linux-For-Devices-Article.../

    > и есть ли тематические сайты, форумы (желательно рускоязычные)?

    ++ либо заплатить кому-то, кто сделает... Да, "встраиваемая" техника -- это Индустия, за всё с тебя захотят денег.
    http:/cgi-bin/openforum/vsluhboard.cgi?az=list&forum=vsluhfo... ?

    сообщить модератору +/ответить
vmware, !*! har, (Виртуализация) 29-Янв-10, 09:09  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Как задействовать память, !*! bassmaster, (Увеличение производительнсти) 09-Фев-10, 14:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
ESXi + SNMP + temperature, !*! sheff.artx, (Виртуализация) 05-Фев-10, 17:29  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
sun 280r+adaptec 2130s+hp ultrium 232, !*! avator, (Серверные платформы) 03-Фев-10, 20:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Сетевые настройки во FreeBSD 8, !*! deletant, (Разное) 23-Янв-10, 15:43  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Диссертация на тему мониторинга и диагностики техн. средств, !*! demiurg, (Увеличение наджности) 16-Дек-09, 19:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
RAID на дисках 2*250+2*120, !*! Alexey, (Хранилища данных) 11-Сен-07, 13:44  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • LSI MegaRaid, !*! LILO (??), 12:25 , 13-Сен-07 (1)
    >помогите подобрать наиболее приемлимый конфиг RAID имеется 2*250+2*120
    >без потери дискового пространства

    LSI MegaRaid

    сообщить модератору +/ответить
  • два зеркала и lvm поверх них потери пространства будут, но данные обычно ценнее , !*! anonymous (??), 23:17 , 04-Янв-10 (3)
    >помогите подобрать наиболее приемлимый конфиг RAID имеется 2*250+2*120
    >без потери дискового пространства

    два зеркала и lvm поверх них.

    потери пространства будут, но данные обычно ценнее.  иначе зачем вам raid?

    сообщить модератору +/ответить
  • 1 берете и отрезаете от 250-к по два куска _заведомо_меньших по объему любого с, !*! sHaggY_caT (ok), 01:29 , 13-Янв-10 (7)
    >помогите подобрать наиболее приемлимый конфиг RAID имеется 2*250+2*120
    >без потери дискового пространства

    1. берете и отрезаете от 250-к по два куска _заведомо_меньших по объему любого существующего на рынке диска 120Gb (дело в том, что часто модели даже одного производителя с одной маркировкой объема имеют, на самом деле, различающийся объем даже на единицы гигабайт),

    2. отрезаете куски такого же объема от 120-к

    3. Из получившихся 4 одинаковых дисковых разделов делаете линуксовый mdraid5 (фейк-рейд контроллеры с их индусским кодом в ядре зло, а вот mdraid вполне промышленно надежен для применения на не самых отвественных системах с низким бюджетом)

    4. про маленькие куски 120-к забываете,

    5. Отрезаете по такому же принципу куски (такие же или чуть большего объема) от оставшихся кусков 250-к, про них забываете

    6. Из получившихся двух одинаковых кусков делаете зеркало (mdraid1), на него ставите операционную систему (root-раздел) и все, что требует наиболее интенсивного ввода-вывода, так как raid5 достаточно тормозной в сравнении с зеркалом, и, тем более, десятым рейдом (например, в redhat системах sqlite базу rpm, /var/log/, и т д). ОС (или, хотя бы, /boot с Grub) необходимо ставить на raid1, так как BIOS не знает что такое софтовое зеркало. Для установки загрузчика на оба диска, что бы система грузилась после смерти любого из них, можно сделать grub-install /dev/md1, где md1 Ваше зеркало(может быть другой номер).

    7. Покупаете один запасной диск объемом 250 гигов. В случае вылета диска 120 гигов ставите вместо него временно 250, в случае вылета 250-ки, разбиваете диск 250-ки так же, как и ее оставшегося в живых соседа (man sfdisk) и вставляете в два рейда две ее партиции (в пятый и первый), и сразу же идите в магазин и покупаете запасной диск нужного объема. 250-ку не на своем месте нужно сразу же поменять на 120-ку

    8. Настраиваете мониторинг mdraid (уведомление по почте), в сети куча инструкций, в т.ч. на опеннет

    9. Сверху raid1 и raid5, для более гибкого управления дисковым пространством, можно сделать два _отдельных_ _независимых_ VolumeGroup LVM

    10. Обязательно(!) покупаете UPS, и настраиваете автоотключение системы при пропадании питания

    11. И все равно, все это посоветовано без каких-либо гарантий и пр. серьезные данные лучше хранить на аппаратных контроллерах с обязательно батарейкой (без батарейки они бесполезный мусор), и в любом случае настроить бэкапы на другой массив.  
    ------

    остальным: схемы с lvm под mdraid(md из девайсов device-mapper) глючат и нормально не работают (так как необходим четкий порядок инициализации, почти всегда md инициализируется раньше LVM. копаться в стартовых сценариях себе дороже, все равно сломается после обновления, ставить в исключения пакетного менеджера тоже нельзя, так как часто стартовые сценарии входят в пакеты с торчащим наружу софтом, да и криво это)

    Такие схемы можно использовать только в случае крайней необходимости, и не с lvm-девайсами, а с lvm-девайсами поверх, например, iscsi-устройств с таргетами на разных банках с дисками, и писать, по-возможности, свой SysV сценарий, стартующий после lvm и md, но до прикладного софта, но это не случай топикстартера, ему чем проще тем лучше.


    Делать софтовые рейды на дисках неправильно, одно из преимуществ софтовых рейдов в том, что не нужно смотреть в HCL контроллера, что бы знать о совместимости прошивок и _совпадающей_геометрии_ дисков
    Софтовые рейды нужно делать на разделах/слайсах/labels

    Так как фря не умеет софтовый raid5 через geom, а стоит задача именно сохранить как можно больше объема, я и посоветовала не raid 1+0 (gmirror+gstripe) а Linux без упоминания альтернатив и mdraid.

    Так как с gvinum я не работала, но несколько знакомых, больше работающих с фрей (мне ближе Linux, хотя к фряхе тоже хорошо отношусь) отзывались о нем в негативном ключе, а gmiror5 еще нет в апстриме, я о нем тоже не упоминала (автор не высказал жестких религиозных предубеждений, а попросил работающее решение с четким ТТЗ)

    сообщить модератору +/ответить


HPC и ScientificLinux, !*! NickName, (Вычислительные кластеры) 22-Дек-09, 07:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
балансировка исходящего трафика по загруженности канала, !*! Гость, (Увеличение производительнсти) 30-Дек-09, 03:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Limit CPU in Solaris, !*! usmt, (Solaris) 02-Дек-09, 06:14  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
BACULA КОМАНДНАЯ СТРОКА, !*! buboni, (Хранилища данных) 23-Ноя-09, 11:32  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Нужна топовая система. Максимальная производительность., !*! d_D_d, (Увеличение производительнсти) 06-Мрт-09, 11:34  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


SLES 11 на HP DL320 G6, !*! shagg, (Серверные платформы) 13-Ноя-09, 16:11  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Глюки IPMP на Solaris10 x86, !*! Dmitry, (Solaris) 16-Июл-09, 22:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Если оба интерфейса настроены Active Active, а не Active Standby, то исходящий т, !*! kolayshkin (??), 06:19 , 18-Июл-09 (1)
    Если оба интерфейса настроены Active/Active, а не Active/Standby, то исходящий трафик распараллеливается между всеми интерфейсами IPMP группы. Настрой второй интерфейс как StandBy и наверное настанет счастье.
    сообщить модератору +/ответить
  • ищи документ IPMP Rearchitecture High-Level Design Specification в Active-Acti, !*! Валерий (??), 11:01 , 12-Ноя-09 (3)
    ищи документ "IPMP Rearchitecture: High-Level Design Specification"

    в Active-Active IPMP может отвечать 1) с любого активного интерфейса 2) использовать в исходящем пакете любой из IP адресов в качестве Source address

    3.2 Outbound Load-Spreading
    Currently, the IP module load-spreads outbound traffic for each IP destination address across any
    active interface in the group, where active is defined as an interface that is not marked FAILED,
    INACTIVE, or OFFLINE, and has at least one UP address14. This will be unchanged in the new
    model.
    3.3 Source Address Selection
    Currently, if the application does not bind to a specific source address, the IP module will select
    a source address from the set of addresses in the IPMP group. The purpose of varying the source
    address is to affect inbound load-spreading. Specifically, in the current model, all addresses hosted
    on a given interface are associated with that interface’s hardware address. Thus, currently, if one
    connection uses a source address on ce0, and another a source address on ce1, then each connection
    will use a different interface for inbound traffic. It’s important to note that choice of outbound
    interface is independent from choice of source address. Thus, it is quite common to have
    a connection which sends packets through ce0, using a source address hosted on ce1, and thus
    receives the response on ce1 (this is necessary to spread outbound load when the set of available
    source addresses is smaller than the set of available outbound interfaces).

    сообщить модератору +/ответить
Мониторинг активности жесткого диска, !*! sasku, (Увеличение производительнсти) 11-Ноя-09, 11:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру