The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Программирование базы данных для метрологического  контроля, !*! LeninLifeForever, (Другие СУБД) 23-Сен-19, 18:16  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте меня зовут Андрей, на работе планируется задача по запуску конвейера, по метрологическому контролю параметров различных микросхем, под это дело стоит задача, спроектировать базу данных,
на данный момент это выглядит так: сохраняемые файлы, Txt или XLS, сохраняются на рабочий компьютер в определенную директорию, от туда, выгружаются, затем это должно быть отображено в более удобной форме, на данный момент это представляется как веб станица с интерактивными гипер ссылками.
я почти новичок в этой области, не подскажите с чего начать, какой язык лучше подойдет. С чего начать в общем.
Какие книги лучше почитать, где поискать инфу? Понимаю что многого прошу но хотелось бы поконкретней.
Очень сильно прошу не бить.
  • gt оверквотинг удален В вашем описании нет постановки задачи https yandex ru, !*! ыы (?), 20:34 , 23-Сен-19 (1)
    >[оверквотинг удален]
    > базу данных,
    > на данный момент это выглядит так: сохраняемые файлы, Txt или XLS, сохраняются
    > на рабочий компьютер в определенную директорию, от туда, выгружаются, затем это
    > должно быть отображено в более удобной форме, на данный момент это
    > представляется как веб станица с интерактивными гипер ссылками.
    > я почти новичок в этой области, не подскажите с чего начать, какой
    > язык лучше подойдет. С чего начать в общем.
    > Какие книги лучше почитать, где поискать инфу? Понимаю что многого прошу но
    > хотелось бы поконкретней.
    > Очень сильно прошу не бить.

    В вашем описании нет постановки задачи.

    https://yandex.ru/search/?oprnd=9657439023&text=проектирование%20баз%20данных&lr=20728

    сообщить модератору +/ответить
  • Ставь Oracle, там все есть, и мастер форм отчетов , !*! Фомичев (ok), 19:39 , 25-Сен-19 (2)
    Ставь Oracle, там все есть, и мастер форм (отчетов) ....
    сообщить модератору +/ответить
  • Подсказка RRD Round-robin Database, кольцевая база данных и Cacti как веб инте, !*! universite (ok), 13:46 , 26-Сен-19 (3)
    > Здравствуйте меня зовут Андрей, на работе планируется задача по запуску конвейера, по
    > метрологическому контролю параметров различных микросхем, под это дело стоит задача, спроектировать
    > базу данных,

    Подсказка.
    RRD (Round-robin Database, кольцевая база данных) и Cacti как веб интерфейс.

    Подсказка2.
    Percona (fork MySQL)

    сообщить модератору +/ответить
  • Для начала определиться с размерами и объемами, если вам надо 3 устройства по 2 , !*! fantom (??), 11:42 , 18-Фев-20 (6)
    > Здравствуйте меня зовут Андрей, на работе планируется задача по запуску конвейера, по
    > метрологическому контролю параметров различных микросхем, под это дело стоит задача, спроектировать
    > базу данных,

    Для начала определиться с размерами и объемами, если вам надо 3 устройства по 2 параметра с каждого, то тут и sqlite3 спокойно справится, если 100 тыщьмильёнов, то нужно сразу с прицелом на масштабирование и кластеризацию.

    > на данный момент это выглядит так: сохраняемые файлы, Txt или XLS, сохраняются
    > на рабочий компьютер в определенную директорию, от туда, выгружаются, затем это
    > должно быть отображено в более удобной форме, на данный момент это
    > представляется как веб станица с интерактивными гипер ссылками.

    ЧТО!!! конкретно не устраивает в текущей реализации??
    Ответы типа "Это не круто" вычеркните сразу!  


    > я почти новичок в этой области, не подскажите с чего начать, какой
    > язык лучше подойдет. С чего начать в общем.
    > Какие книги лучше почитать, где поискать инфу? Понимаю что многого прошу но
    > хотелось бы поконкретней.
    > Очень сильно прошу не бить.

    Начните с формулировки цели первого этапа, не надо сразу замахиваться на кнопку "нажми тут и все будет ЗАШИБИСЬ!", но хотя бы с приведения исходных данных в некую единую систему и формулировки общего представления что хотите увидеть в итоге.

    сообщить модератору +/ответить
  • gt оверквотинг удален Навеяло https www youtube com watch v 9eHk_exMZp4Прям , !*! fantom (??), 11:49 , 18-Фев-20 (7)
    >[оверквотинг удален]
    > базу данных,
    > на данный момент это выглядит так: сохраняемые файлы, Txt или XLS, сохраняются
    > на рабочий компьютер в определенную директорию, от туда, выгружаются, затем это
    > должно быть отображено в более удобной форме, на данный момент это
    > представляется как веб станица с интерактивными гипер ссылками.
    > я почти новичок в этой области, не подскажите с чего начать, какой
    > язык лучше подойдет. С чего начать в общем.
    > Какие книги лучше почитать, где поискать инфу? Понимаю что многого прошу но
    > хотелось бы поконкретней.
    > Очень сильно прошу не бить.

    Навеяло:
    https://www.youtube.com/watch?v=9eHk_exMZp4
    Прям отношения заказчик-манагер-разработчик, вот только жаль в реальных условиях шут с принцессой редко адекватные...

    сообщить модератору +/ответить
Сетевая адаптация к новому железу., !*! sevajkl, (Сетевое оборудование) 09-Окт-19, 14:34  [ | | | ] [линейный вид] [смотреть все]
Тема возможно избита, но я здесь первый!Следующее: Сняли образ диска с OS  Fedora8 2.6.23.1.-42, с древнего 2010г компа. на флешнакопитель.С USB связь с промышленным контроллером по eth0 имеется.Но при работе с флешнакопителя с ноутбука, связь с контроллером через eth0 отсутствует.Этот ноутбук планируется как палочка выручалочка,в случае выхода основного системника.Какая мне необходимо информация, куда бежать и как настроить через ноут связь. В этом вопросе у меня пробел...
  • Драйвер сетевой карты вероятно отсутствует надо вам найти в инете сайт произво, !*! ыы (?), 16:04 , 09-Окт-19 (1)
    > Тема возможно избита, но я здесь первый!Следующее:
    > Сняли образ диска с OS Fedora8 2.6.23.1.-42, с древнего 2010г компа. на флешнакопитель.
    > С USB связь с промышленным контроллером по eth0 имеется.
    > Но при работе с флешнакопителя с ноутбука, связь с контроллером через eth0 отсутствует.
    > Этот ноутбук планируется как палочка
    > выручалочка,в случае выхода основного системника.
    > Какая мне необходимо информация, куда
    > бежать и как настроить через ноут связь.

    Драйвер сетевой карты вероятно отсутствует. надо вам найти  в инете сайт производиетеля ноутбука, и найти у него драйвер для вашей сетевой карты.. или посмотреть dmesg загрузки ноутбука, и найти какая там у вас сетевушка. после этого попытаться подгрузить модуль драйвера если он есть, или дособрать его если он по умолчанию небыл собран в вашем линуксе. Но вообще может быть так, что ваше старье такое старое что лучше обновится совсем.

    >  В этом вопросе у
    > меня пробел...

    сообщить модератору +/ответить
  • rm etc udev rules d 70-persistent-net rules reboot, !*! Аноним (5), 19:30 , 09-Окт-19 (2) +1
    > Тема возможно избита, но я здесь первый!Следующее: Сняли образ диска с OS
    >  Fedora8 2.6.23.1.-42, с древнего 2010г компа. на флешнакопитель.С USB связь
    > с промышленным контроллером по eth0 имеется.Но при работе с флешнакопителя с
    > ноутбука, связь с контроллером через eth0 отсутствует.Этот ноутбук планируется как палочка
    > выручалочка,в случае выхода основного системника.Какая мне необходимо информация, куда
    > бежать и как настроить через ноут связь. В этом вопросе у
    > меня пробел...

    rm /etc/udev/rules.d/70-persistent-net.rules && reboot

    сообщить модератору +1 +/ответить
  • Всё намного прозаичнее контроллер на второй машине определяется как eth1 ну ил, !*! DiabloPC (ok), 19:02 , 13-Окт-19 (6)
    Всё намного прозаичнее: контроллер на второй машине определяется как eth1 (ну или 2, 3 и т.д).
    Всё что нужно сделать - настроить eth1 так-же как и eth0, после этого конфиг будет работать на обеих машинах, просто при запуске на первой сеть будет подниматься как eth0, а на другой как eth1.

    Емнип, федорка там это лишь виртуалка поверх арча ( или это я с соседней темой попутал?), если так, то сеть нужно на хосте настраивать, а не в самой федоре.

    сообщить модератору +/ответить
Посоветуйте трубку с базой поддерживающие iax2 (Asterisk), !*! obleg, (Разное) 07-Фев-12, 22:26  [ | | | ] [линейный вид] [смотреть все]
Всем привет, в интернете стоит сервер с астериском, в оффисах стоят дешевые (3тр) трубки, поддерживающие iax2. Все отлично работало пока эти "дешевые" трубки не стали сбрасывать конфиги раз в две недели примерно.

В связи с чем встал вопрос о покупки новых. Посоветуйте нормальные беспроводные трубки (базу+трубку) с поддержкой iax2, исходя из опыта и удобства работы.

Если соберетесь уговаривать переводить офисы на sip, пожалуйста аргументируйте :)
Спасибо.

Стоит ли поднимать БД на X5680 + SSD, !*! ОлдФак, (Серверные платформы) 10-Мрт-17, 17:40  [ | | | ] [линейный вид] [смотреть все]
Товарищи, прошу дельного совета.

Итак ситуация такая, что надо строить сервер для БД. Посмотрел стоимость новых серверов, все от 200 тыс. рублей.

В процессе изучения вопроса нашёл варианты Б/У серверов Supermicro, и они значит практически все на Xeon'ах 2010 года. Например X5680.

Так вот вопросов несколько:
1. Стоит ли брать Б/У сервер двухсокетный на таком процессоре?
2. Стоит ли под БД делать схему хранилища такую: 2xHDD + 2xSSD, где зеркало на HDD'ах под систему, а зеркало на SSD'ах под БД.
3. Какое примерно % соотношение желательно для RAM и объёма БД?

Вопрос про схему хранения заключается в том, что SSD же желательно поменьше дёргать на запись, и если SSD в зеркале, то они и на запись одинаково будут "истощаться", это в плане отказоустойчивости вообще имеет смысл?

И если у сервера например ОЗУ 96Гб, при размере БД 16Гб, то не будет ли постоянно что-то писаться на диск?

  • гадалок здесь нетначнём допрос что за движок бд , !*! omnomnin (?), 17:57 , 10-Мрт-17 (1) +1
    гадалок здесь нет

    начнём допрос:
    что за движок бд?

    сообщить модератору +1 +/ответить
  • При таком раскладе юзай MySQL и MEMORY storage engine Или вообще NoSQL и не пар, !*! ACCA (ok), 18:06 , 10-Мрт-17 (2) +1
    > И если у сервера например ОЗУ 96Гб, при размере БД 16Гб, то
    > не будет ли постоянно что-то писаться на диск?

    При таком раскладе юзай MySQL и MEMORY storage engine. Или вообще NoSQL и не парь никому мозг.

    сообщить модератору +1 +/ответить
  • 1 нет и вообще не покупайте б у серверы, лучше соберите машинку из десктопного , !*! Аноним (-), 12:53 , 01-Окт-17 (19)
    1. нет и вообще не покупайте б/у серверы, лучше соберите машинку из десктопного железа
    2. да, используйте ссд для всего, кроме холодного хранилища больших файлов
    3. памяти много не бывает, желательно чтобы бд "помещалась" в память. Должны помещаться как минимум индексы.


    > SSD же желательно поменьше дёргать на запись,

    Забудьте про это. Ресурс SSD уже на уровне обычных. Хреновые харды летят быстрее, чем ссд без всякой нагрузки.

    >это в плане отказоустойчивости вообще имеет смысл?

    Имеет. У одного может выйти из строя контроллер. Рейды имеют смысл всегда, как и бэкапы.

    сообщить модератору +/ответить


postfix - логи по внутреннему домену, !*! Alessandro1991, (Разное) 05-Окт-18, 10:00  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!
как настроить postfix? чтоб писали логи кому отправляет письма, от ящика локального домена на ящик тоже локального домена.
если наружу, то все пишет.
  • Для начала расскажите, как вы настроили постфих, что он у вас этого не делает , !*! Аноним (1), 12:13 , 05-Окт-18 (1)
    > как настроить postfix? чтоб писали логи кому отправляет письма, от ящика локального домена на ящик тоже локального домена.

    Для начала расскажите, как вы настроили постфих, что он у вас этого не делает...

    В общем, возьмите конфиг по умолчанию, и меняйте опции по одной и только при условии понимания смысла своих действий. После каждой правки внимательно изучайте логи, на предмет выявления изменений. Мне это обычно помогает.

    сообщить модератору +/ответить
  • А есть уверенность, что письма вами упомянутые вообще и впринципе на постфикс по, !*! fantom (??), 14:12 , 05-Окт-18 (2)
    > Здравствуйте!
    > как настроить postfix? чтоб писали логи кому отправляет письма, от ящика локального
    > домена на ящик тоже локального домена.
    > если наружу, то все пишет.

    А есть уверенность, что письма вами упомянутые вообще и впринципе на постфикс попадают???

    сообщить модератору +/ответить
Zabbix на PostgreSQL, !*! Andrey Mitrofanov, (Увеличение масштабируемости) 29-Апр-13, 12:18  [ | | | ] [линейный вид] [смотреть все]
[ Я вынес сюда "свою" ветку про SUBJ из новости: ]

=== 26.04.2013 10:48  Высокопроизводительный MySQL-движок TokuDB переведён в разряд открытых проектов
http://www.opennet.dev/opennews/art.shtml?num=36779

=== Аноним, 11:59 , 26-Апр-13 (1) +4
#>>> Интересно, если Заббикс на этот движок перенести - ему поможет?

=== alp, 12:22 , 26-Апр-13 (4) +2
#>> Postgres ему точно поможет


http://www.opennet.dev/cgi-bin/openforum/vsluhboard.cgi?az=sh...

>> Postgres ему точно поможет
> Не-а. Моему Zabbix-у на Pg, "сурово" загруженному до того по диску/SQL (не
> считая не-масштабируемости самого Z.), помогло разделение напополам на два сервера -
> половина~ хостов туда, половина сюда.

.
> Партишионинг я не осилил.

.
> Ну, housekeeper по-переписывал -- чтоб он не забивал своим io более приоритетные
> (для меня) основные процессы Z.

--- 8< ---

Поясню/дополню:

W-I-P, comming soon---

  • ---- Моё Не-а относилось к флейм-вбросу пользователя alp Mysql vs PgSQL и м, !*! Andrey Mitrofanov (?), 12:41 , 29-Апр-13 (1)
    > === Аноним, 11:59 , 26-Апр-13 (1) +4
    > #>>> Интересно, если Заббикс на этот движок перенести - ему поможет?
    > === alp, 12:22 , 26-Апр-13 (4) +2
    > #>> Postgres ему точно поможет
    > http://www.opennet.dev/cgi-bin/openforum/vsluhboard.cgi?az=sh...
    >>> Postgres ему точно поможет
    >> Не-а. Моему Zabbix-у на Pg, "сурово" загруженному до того по диску/SQL (не
    >> считая не-масштабируемости самого Z.), помогло разделение напополам на два сервера -
    >> половина~ хостов туда, половина сюда.

    ----

    = Моё "Не-а"

    ...относилось к флейм-вбросу пользователя alp Mysql vs PgSQL и моим _впечатлениям про немасштабируемость Zabbix-а. Мой подопечный Zabbix рос-рос, и "выросла такая большая...".

    = Re: "помогло разделение напополам"

    * Не только. Было ещё заметно помогшее изменение: добавление ОЗУ: 32Гб -> 96Гб, при размере базы на диске в районе 48-49Гб. То есть грубо - база поместилась в кеше. Вероятно, паттерн работы с диском поменялся на "преимущественно запись", каковым он сейчас является. Но во время того изменения я не снимал параметры дискового в/в.

    * Параметры разделения:

    zabbix "performance" (~значения-айтемы в секунду) до разделения ~770, после разделения два сервера, ~320 и ~450. (айтемов ~70-72K - всего (unsupported - 7.9-8.5К, not-monitored -- оно и само не умеет отдавать, в виде performance, разве что), после разделения ещё не числил базы от "второй половины", только Not-monitored поставил на хосты из "не той" половины.

    === В&О #1

    = sauron, 13:57 , 26-Апр-13 (9) +3
    > PostgeSQL хоть потюненый был?

    Был... Наверное. shmem в ядре и конфиге pg добавлял, немного покрутил bg-writer-ы, когда занялся переписыванием housekeeper-а. Но особо боевой сервер не менял, а сделать подобную нагрузку на стенде -- даже и не пытался.

    = anonymous, 16:08 , 26-Апр-13, (36)

    >> Ну, housekeeper по-переписывал -- чтоб он не забивал своим io более приоритетные
    >> (для меня) основные процессы Z.
    > Заббикс версии 1.8 или 2.+?

    Сейчас 2.0. (~~ 1.8.10?.12 -> 1.8.16 -> 2.0.2 ..., сейчас 2.0.5 + "патчики")
    HK "начал беспокоить" ещё на 1.8, на 2.0 я дошёл до "влезания вовнутрь"...

    = AlexAT, 21:48 , 26-Апр-13, (66)
    > А для статистики - не скажете число итемов/триггеров?

    Сейчас "два сервера" выглядят примерно так:

    Number of hosts (monitored/not monitored/templates)
       >>#1>>      1142     478 / 507 / 157
       >>#2>>      1147     382 / 610 / 155

    Number of items (monitored/disabled/not supported)
       >>#1>>     30746   22938 / 498 / 7310
       >>#2>>     30714   29942 / 29 / 743

    Number of triggers (enabled/disabled)[problem/unknown/ok]
       >>#1>>     14518   13880 / 638  [176 / 0 / 13704]
       >>#2>>      3377    3213 / 164  [44 / 0 / 3169]


    > Просто интересно, насколько наша инсталляция крупная/мелкая.

    Эммм. Зависит... , кого %) "принять за образцы". Сам ;) в непонятках. В т.ч., видимо, либо потому, что не публикуют[*PS], либо я ленив и zabbix.com не читаю.

    PS: Пойду в бухгалтерию получать премию за разглашение чувствительной.

    сообщить модератору +/ответить
  • XoRe, 17 12 , 26-Апр-13, 46 Спасибо Я пока не лезу глубоко в Pg, ограничив, !*! Andrey Mitrofanov (?), 12:44 , 29-Апр-13 (2)
    > Поясню/дополню:
    > .
    >> Партишионинг я не осилил.
    > --- 8< ---

    = XoRe, 17:12 , 26-Апр-13, (46)

    > Могу порекомендовать:
    > autopartitioning для zabbix 2.x, самый простой и эффективный способ:

    Спасибо.

    Я (пока?) не лезу глубоко в Pg, ограничиваюсь тем, что влез в Zb (housekeeper расковырял).

    сообщить модератору +/ответить
  • А как себя чувствуют Monitoring Events Monitoring Triggers Удивительно - но та, !*! AlexAT (ok), 20:52 , 29-Апр-13 (3)
    А как себя чувствуют Monitoring/Events / Monitoring/Triggers?

    >>> zabbix.com не читаю.

    Удивительно - но там на форумах в основном мелочевка. До 10000 итемов... Выше похоже как-то у всех грабли начинаются.

    Кое-что в заббиксе патчил, но сейчас примерно вот так:

    ---

    Number of hosts (monitored/not monitored/templates)    1149    1104 / 0 / 45
    Number of items (monitored/disabled/not supported)    102735    97111 / 4252 / 1372
    Number of triggers (enabled/disabled)[problem/unknown/ok]    37998    28120 / 9878  [86 / 0 / 28034]
    Required server performance, new values per second    330.89     -

    ---

    Один хост, 2.0.5, немножко допиленный. Очередь почти всегда пустая. После рестарта прочесывается (опустошает очередь) за ~10 минут. Активно используются скриптовые (external) опросы, и discovery - как по хостам, так и по элементам.

    Сам Zabbix: ESXi 5.1, 2 x Xeon E5620 @ 2.40GHz, 3 vCores, 3 Gb RAM.
    DB-сервер: ESXi 5.1, 2 x Xeon E5620 @ 2.40GHz, 8 vCores, 8 Gb RAM, MariaDB 5.5.30/TokuDB 7.0.1. Диски SATA.

    База в TokuDB, объем сырой базы вместе с историей на сейчас - 15 Гб (это около 45 Гб несжатых). Параллельно заббиксу на этом DB-сервере крутятся (только базы, естественно) еще Cacti (Boost) на 37000 графиков, архив RADIUS с начала времен, и всякая мелочевка.

    ---

    Если интересно - неспецифичные патчи для заббиха выложу, там в основном мелочевка - обход косяков оптимизатора. Вполне возможно, что в MariaDB часть косяков испарилась - но проверять депатчингом на боевой инсталляции не хочу :)

    Несколько целиком переписанных запросов завязаны на нашу специфику - но и пресловутых патчей на обход съезжающего под его запросами оптимизатора нам уже хватило для того, чтобы заббих прочесался из небытия до рабочего состояния.

    сообщить модератору +/ответить
Файловое хранилище, !*! PashaTurok, (Хранилища данных) 05-Фев-13, 12:48  [ | | | ] [линейный вид] [смотреть все]
Подскажите пожалуйста качественное и БЕЗОПАСНОЕ (как с точки зрения доступа так и целостности данных) решение. Есть 3 сервера на каждом 8 дисков.

1. Возможно ли объединить все дисковое пространство всех серверов в одно большое файловое пространство для работы с самбой? - чтобы у нас было не три диска самбы - по одному на каждый сервер (+LVM), а один диск. Смысл конечно заключается в том, чтобы вначале заполнялись полностью диски первого сервера, потом второго и т.п.

2. Какие есть решения, чтобы один мастер сервер сам выбирал нужный сервер и нужный диск исходя из размера записываемого файла и свободного места на диске и т.п. То есть, чтобы пользователь даже не знал, где размещается файл.

Хотелось бы конечно проверенные временем и бесплатные решения. Я понимаю, что в интернете много, но что используется больше всего на практике?

  • gt оверквотинг удален Решений море, от scsi over IP Eth до распределенных фай, !*! fantom (ok), 13:12 , 05-Фев-13 (1)
    >[оверквотинг удален]
    > целостности данных) решение. Есть 3 сервера на каждом 8 дисков.
    > 1. Возможно ли объединить все дисковое пространство всех серверов в одно большое
    > файловое пространство для работы с самбой? - чтобы у нас было
    > не три диска самбы - по одному на каждый сервер (+LVM),
    > а один диск. Смысл конечно заключается в том, чтобы вначале заполнялись
    > полностью диски первого сервера, потом второго и т.п.
    > 2. Какие есть решения, чтобы один мастер сервер сам выбирал нужный сервер
    > и нужный диск исходя из размера записываемого файла и свободного места
    > на диске и т.п. То есть, чтобы пользователь даже не знал,
    > где размещается файл.

    Решений море, от scsi over IP(Eth) до распределенных файловых систем

    http://ru.wikipedia.org/wiki/Список_файловых_систем#.D0.A0.D0.B0.D1.81.D0.BF.D1.80.D0.B5.D0.B4.D0.B5.D0.BB.D1.91.D0.BD.D0.BD.D1.8B.D0.B5_.D1.84.D0.B0.D0.B9.D0.BB.D0.BE.D0.B2.D1.8B.D0.B5_.D1.81.D0.B8.D1.81.D1.82.D0.B5.D0.BC.D1.8B

    http://habrahabr.ru/post/133987/

    сообщить модератору +/ответить
  • iSCSI Рейд из NBD , !*! pavlinux (ok), 15:09 , 05-Фев-13 (2)
    > Хотелось бы конечно проверенные временем

    iSCSI

    > и бесплатные решения.

    Рейд из NBD

    сообщить модератору +/ответить
  • Привет,FreeNAS смотрели Может, подойдет вам Из более умных решений мне лично н, !*! Mr. Mistoffelees (?), 17:53 , 08-Фев-13 (7) –1
    Привет,

    > Хотелось бы конечно проверенные временем и бесплатные решения. Я понимаю, что в
    > интернете много, но что используется больше всего на практике?

    FreeNAS смотрели? Может, подойдет вам.

    Из более умных решений мне лично нравится как работает GridFS.

    WWell,

    сообщить модератору –1 +/ответить
  • Купите 4U или 3U сервер определится с рэйром железный или нет и вставьте в нег, !*! lbcom (?), 02:30 , 09-Фев-13 (8)
    Купите 4U или 3U сервер +определится с рэйром(железный или нет) и вставьте в него все ваши диски.


    >[оверквотинг удален]
    > файловое пространство для работы с самбой? - чтобы у нас было
    > не три диска самбы - по одному на каждый сервер (+LVM),
    > а один диск. Смысл конечно заключается в том, чтобы вначале заполнялись
    > полностью диски первого сервера, потом второго и т.п.
    > 2. Какие есть решения, чтобы один мастер сервер сам выбирал нужный сервер
    > и нужный диск исходя из размера записываемого файла и свободного места
    > на диске и т.п. То есть, чтобы пользователь даже не знал,
    > где размещается файл.
    > Хотелось бы конечно проверенные временем и бесплатные решения. Я понимаю, что в
    > интернете много, но что используется больше всего на практике?

    сообщить модератору +/ответить
  • Купите 4U или 3U сервер определиться с рэйром железный или нет и вставьте в н, !*! lbcom (?), 02:35 , 09-Фев-13 (9)
    Купите 4U или 3U сервер + определиться с рэйром(железный или нет) и вставьте в него все ваши диски. И экономия и надежность побольше, чем с трех разных машин.

    >[оверквотинг удален]
    > файловое пространство для работы с самбой? - чтобы у нас было
    > не три диска самбы - по одному на каждый сервер (+LVM),
    > а один диск. Смысл конечно заключается в том, чтобы вначале заполнялись
    > полностью диски первого сервера, потом второго и т.п.
    > 2. Какие есть решения, чтобы один мастер сервер сам выбирал нужный сервер
    > и нужный диск исходя из размера записываемого файла и свободного места
    > на диске и т.п. То есть, чтобы пользователь даже не знал,
    > где размещается файл.
    > Хотелось бы конечно проверенные временем и бесплатные решения. Я понимаю, что в
    > интернете много, но что используется больше всего на практике?

    сообщить модератору +/ответить
  • GlusterFSДиски на серверах в рейд, по 2 тома на сервер, тома в гластер на 2 репл, !*! stre10k (ok), 23:31 , 11-Июл-13 (10)
    GlusterFS

    Диски на серверах в рейд, по 2 тома на сервер, тома в гластер на 2 реплики и 3 страйпа.
    GlusterFS помоему сам по самбе умеет раздавать.

    по поводу 1 пункта, лучше чтобы диски заполнялись на всех серверах равномерно, для производительности.

    сообщить модератору +/ответить


Автоматический огнетушитель для небольшой серверной, !*! billybons2006, (Разное) 07-Фев-19, 14:56  [ | | | ] [линейный вид] [смотреть все]
Всем привет! Можете посоветовать, какой автоматический огнетушитель поставить в небольшой серверной? Небольшая - 2.5 м кв примерно, по размеру как кладовка. Был Bonpet, но прошло много лет, его пора менять, может сейчас что-то лучше есть? Может, тот же МПП-2.5 (Буран)?
kvm virt-manager(install) iSCSI, !*! yolkov, (Увеличение масштабируемости) 23-Ноя-09, 19:15  [ | | | ] [линейный вид] [смотреть все]
Всем привет!
Установлена fedora 12, qemu-kvm, python-virtinst + на этой же машине поднято iSCSI target.
Хочу поднять виртуальную машину и хранить ее на этом iSCSI target'е, чтобы когда купим отдельное iSCSI хранилище и перенести эту мащину туда.
Вопрос:
Как мне создать виртуальную машину с местом хранения на iSCSI хранилище, пытался скормить разные параметры для virt-install ничего не подходит, знает ли кто правильные параметры?
Еще пробывал с другой машины запустить virt-manager, storage мне подцепить удалось, но создать на нем разделы не удаеться, и виртулаьную машину тоже создать не могу.

Может virt-install не может напрямую работать с iSCSI хранилищем? И если не может то как нужно обходить эту ситуацию?

Помогите плиз, запарился уже.
спасибо
  



linux+postfix+sasl, !*! Alessandro1991, (Разное) 14-Июл-18, 22:18  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!
не могу поладить sasl.
выдает ошибку
fatal: no SASL authentication mechanisms

main.cf
smtpd_banner = $myhostname ESMTP $mail_name (Debian/GNU)
biff = no

append_dot_mydomain = no
readme_directory = no

smtpd_tls_key_file = /etc/ssl/private/server.key
smtpd_tls_cert_file = /etc/ssl/certs/server.pem
smtpd_use_tls = yes
smtpd_tls_session_cache_database = btree:${data_directory}/smtpd_scache
smtp_tls_session_cache_database = btree:${data_directory}/smtp_scache

myhostname = debian.test.ru
myorigin = $myhostname
mydestination = localhost

mailbox_size_limit = 16252928000
recipient_delimiter = +
inet_interfaces = all
virtual_mailbox_domains = mysql:/etc/postfix/sql/virtual-mailbox-domains.cf

virtual_mailbox_maps = mysql:/etc/postfix/sql/virtual-mailbox-maps.cf
virtual_alias_maps = mysql:/etc/postfix/sql/virtual-alias-maps.cf
virtual_uid_maps = static:5000
virtual_gid_maps = static:5000
virtual_transport = dovecot
dovecot_destination_recipient_limit = 1
smtpd_sasl_type = dovecot
smtpd_sasl_path = private/auth
smtpd_sasl_auth_enable = yes

smtpd_sender_restriction = permit_mynetworks,
                           check_sender_access mysql:/etc/postfix/mysql-sender.cf,
                           reject_unknown_sender_domain,
                           reject_unverified_sender,
                           reject

smtpd_client_restriction = permit_mynetworks,
                           reject


smtpd_recipient_restrictions = permit_sasl_authenticated,
                               permit_mynetworks,
                               reject_unauth_destination,
                               reject_non_fqdn_hostname,
                               reject_non_fqdn_sender,
                               reject_non_fqdn_recipient,
                               reject_unauth_pipelining,
                               reject_invalid_hostname,
                               check_policy_service inet:127.0.0.1:10023,
                               check_sender_access hash:/etc/postfix/sender_access,
                               check_helo_access hash:/etc/postfix/helo_access,
                               permit
smtpd_helo_required = yes
smtpd_helo_restrictions = permit_mynetworks,
                          permit_sasl_authenticated,
                          reject_invalid_hostname,
                          reject_non_fqdn_hostname,
                          reject_unknown_hostname,
                          permit
smtpd_delay_reject = yes
smtpd_data_restrictions = reject_unauth_pipelining, reject_multi_recipient_bounce, permit

mynetworks = 127.0.0.0/8 172.16.0.0/22 172.17.0.0/22 192.168.4.0/24 192.168.5.0/24 192.168.6.0/24 192.168.7.0/24 192.168.8.0/24 192.168.9.0/24

message_size_limit = 31457280

recieve_override_options = no_address_mappingsaddress_verify_sender
address_verify_sender =$double_bounce_sender
default_process_limit = 150

compatibility_level = 2

и в dovecot \ 10-master.conf

auth_mechanisms = plain cram-md5

unix_listener /var/spool/postfix/private/auth {
       mode = 0660
     user = postfix
        group = postfix

  }

}

Процессор Intel Xeon X560 в сервере HP Proliant DL16-G5, !*! nops, (Серверные платформы) 23-Фев-18, 11:26  [ | | | ] [линейный вид] [смотреть все]
Доброго здравия всем.
Обращаюсь с вопросом и за советом.
У меня работал X5460 на s775 и все было прекрасно, пока я не захотел больше памяти и больше производительности. У меня уже лежал второй процессор X5460 и тут мне на халяву достался сервак HP ProLiant DL160 G5. Сейчас там установлены Е5430, 2 штуки. Он как бы работает, но хочется поставить Х5460, они по частоте побольше.
Так вот.
Поставил я вчера эти процессоры, запускать, а у меня на экране толко начальный экран HP ProLiant и все, даже в бис зайти не могу. Ничего не происходит и не грузится, просто горит на экране заставка.
Выключил, открываю, а куллера у меня горячащие, градусов под 70.
Процессоры поставил правильно, ключами куда надо.
В спецификации на сервер(http://www.proliant.ru/catalog/servers/DL/servery_snjatye_s_...) написано, что этот сервер поддерживает этот процессор.

Подскажите, как быть и что делать? Может я что-то делаю не так или может нужно перепрошить сервер?
Или может нужно активировать лицензионный ключ для поддержки этого процессора?

  • Запусти сначала с одним термопаста , !*! pavlinux (ok), 16:48 , 23-Фев-18 (1)
    > Процессоры поставил правильно, ключами куда надо

    Запусти сначала с одним.

    >  а куллера у меня горячащие, градусов под 70.

    термопаста?

    сообщить модератору +/ответить
  • Обновить BIOS , !*! universite (ok), 08:02 , 24-Фев-18 (3)

    > Подскажите, как быть и что делать? Может я что-то делаю не так
    > или может нужно перепрошить сервер?

    Обновить BIOS.

    сообщить модератору +/ответить
  • gt оверквотинг удален Итак Друзья Причина найдена и я вам расскажу, может кто , !*! nops (ok), 07:31 , 27-Фев-18 (17)
    >[оверквотинг удален]
    > начальный экран HP ProLiant и все, даже в бис зайти не
    > могу. Ничего не происходит и не грузится, просто горит на экране
    > заставка.
    > Выключил, открываю, а куллера у меня горячащие, градусов под 70.
    > Процессоры поставил правильно, ключами куда надо.
    > В спецификации на сервер(http://www.proliant.ru/catalog/servers/DL/servery_snjatye_s_...)
    > написано, что этот сервер поддерживает этот процессор.
    > Подскажите, как быть и что делать? Может я что-то делаю не так
    > или может нужно перепрошить сервер?
    > Или может нужно активировать лицензионный ключ для поддержки этого процессора?

    Итак.
    Друзья.
    Причина найдена и я вам расскажу, может кто тоже не сразу сообразит.
    Процессоры Х5460 были сняты с двух работающих серверов, при чем один процессор работал в серверной платформе Intel S5000PLAR, второй был с перемычкой и работал на s775 на матери GigaByte. Ода работали до выключения и снятия процессоров.
    Оба были установлены в сервер НР. Он сразу как-то не адекватно работал и я не понимал почему.
    Вчера я попробовал завести сервер, по отдельности на каждом из процессоров, в итоге получилась следующая] картина:
    1. Процессор, который стоял с перемычкой на обычной матери, прекрасно взлетел и начал работать.
    2. Процессор, который стоял в интеловской платформе, даже не завелся.

    Проверяйте перед установкой, что каждый процессор реально рабочий.

    Всем спасибо кто принимал участие в разборе ситуации.

    сообщить модератору +/ответить


Nagios  SMS, !*! beaver33, (Увеличение наджности) 22-Янв-10, 10:01  [ | | | ] [линейный вид] [смотреть все]
Привет, Всем
Вопрос по поводу отсылки SMS сообщения от NAGIOS.
На почту приходит, а вот на мою мобилу в виде sms - нет. Что очень огорчает.
Краткое содержание системы.
1.    OS Linux CentOS.
2.    Nagois nagios-2.12-6.el5
3.    gnokii-0.6.27-2.el5

Nagos стартует, на почту шлёт алерты, (сделал 2 тестовых хоста, загнал их в down и теперь тестирую) в логах видно, что nagios шлёт рассылку
===============================================================
Jan 22 09:30:14 CentOS nagios: HOST NOTIFICATION: nagios-admin;PODMENKA2;DOWN;host-notify-by-sms;CRITICAL - Host Unreachable (172.16.2.172)
Jan 22 09:30:14 CentOS nagios: HOST NOTIFICATION: nagios-admin;PODMENKA2;DOWN;host-notify-by-email;CRITICAL - Host Unreachable (172.16.2.172)
Jan 22 09:31:31 CentOS nagios: HOST NOTIFICATION: nagios-admin;3COM;DOWN;host-notify-by-sms;CRITICAL - Host Unreachable (172.16.5.219)
Jan 22 09:31:31 CentOS nagios: HOST NOTIFICATION: nagios-admin;3COM;DOWN;host-notify-by-email;CRITICAL - Host Unreachable (172.16.5.219)

Что касается Gnokii, то с ней тоже - полный порядок
gnokii –identify

Manufacturer : SIEMENS
Model        : MC75
Product name : MC75
Revision     : REVISION 04.001
Serial device: closing device

Вот настройки nagios, по поводу отсылки SMS

Commands.cfg

define command {
    command_name host-notify-by-sms
    command_line    /usr/bin/printf "%b" "Notification Type: $NOTIFICATIONTYPE$\nHost: $HOSTNAME$\nState: $HOSTSTATE$\nAddress: $HOSTADDRESS$\nInfo: $HOSTOUTPUT$\n\nDate/Time: $LONGDATETIME$\n" | /usr/bin/gnokii --sendsms + мой номер
}

define command {
    command_name notify-by-sms
    command_line    /usr/bin/printf "%b" "Notification Type: $NOTIFICATIONTYPE$\n\nService: $SERVICEDESC$\nHost: $HOSTALIAS$\nAddress: $HOSTADDRESS$\nState: $SERVICESTATE$\n\nDate/Time: $LONGDATETIME$\n\nAdditional Info:\n\n$SERVICEOUTPUT$" | /usr/bin/gnokii --sendsms + мой номер
}

Localhost.cfg

define contact{
    contact_name nagios-admin
    alias Nagios Admin
    service_notification_period 24x7
    host_notification_period 24x7
    service_notification_options w,u,c,r
    host_notification_options d,r
    service_notification_commands notify-by-email,notify-by-sms
    host_notification_commands host-notify-by-email,host-notify-by-sms
    email моё мыло
    pager + мой номер
    }

Если я даю команду системе

# /usr/bin/printf "%b" "Notification Type: $NOTIFICATIONTYPE$\nHost: $HOSTSTATE$\nAddress: $HOSTADDRESS$\nInfo: $HOSTOUTPUT$\n\nDate/Time: $LONGDATETIME$\n" | /usr/bin/gnokii --sendsms +мой номер

То получаю SMS на мой телефон
Notification
Type: $
Host: $
Address: $
Info: $
Date/Time: $

Но это из командной строки и ручонками. А вот nagios – шлёт только на почту.
Что нужно подправить, чтобы я алерты получал на телефон в виде SMS?
Если кто-нибудь воевал с подобным – подскажите.
Спасибо, извиняюсь за оторванное время.




postfixadmin+dovecot, !*! Alessandro1991, (Разное) 15-Фев-18, 23:59  [ | | | ] [линейный вид] [смотреть все]
здравствуйте!
помогите плиз.
по этой ссылки делал настройку квот, пока без оповещения.
https://kamaok.org.ua/?p=2189
по итогу -
doveadm quota get -u test2@test.ru
Quota name Type    Value Limit                                                                     %
User quota STORAGE 13482     -                                                                     0
User quota MESSAGE    13     -                                                                     0
лимиты не работают.
может там что не правильно?
это норм?

user_query = SELECT '/var/vmail/%d/%n' as home, 'maildir:/var/vmail/%d/%n' as mail, 5000 AS uid, 8 AS gid, concat('*:bytes=', quota) AS quota_rule FROM mailbox WHERE u$
password_query = SELECT username as user, password, '/var/vmail/%d/%n' as userdb_home,'maildir:/var/vmail/%d/%n' as userdb_mail, 5000 as userdb_uid, 8 as userdb_gid FR$

  • auth Warning sql Ignoring changed user_query in etc dovecot dovecot-sql conf, !*! Alessandro1991 (ok), 18:12 , 18-Фев-18 (1)
    auth: Warning: sql: Ignoring changed user_query in /etc/dovecot/dovecot-sql.conf, because userdb sql not used
    такая ошибка

    такие настройки
    password_query = SELECT username as user, password FROM mailbox WHERE username = '%u'
    user_query = SELECT '/var/vmail/%d/%n' AS home, 5000 AS uid, 5000 AS gid, CONCAT('*:bytes=', CAST(quota AS CHAR)) AS quota_rule FROM mailbox WHERE username = '%u' AND active = '1'

    сообщить модератору +/ответить
Подключение ленточного накопителя HP MSL 2024 по fibre channel , !*! sergicus, (Хранилища данных) 22-Ноя-17, 10:55  [ | | | ] [линейный вид] [смотреть все]
Вот у меня какая проблема - мне нужно подключить по fibre channel ленточный накопитель к серверу на freebsd 11.1

У меня есть fg карта Qlogic ISP 2532   и ленточный накопитель HP MSL 2024
Я установил эту карточку в сервер, подключил оптическим  патчкордом к ленточному накопителю.

пересобрал ядро  с опциями

device         isp
device         ispfw
options        ISP_TARGET_MODE

Вижу сетевая карта видна

dmesg | grep -i isp
isp0: <Qlogic ISP 2532 PCI FC-AL Adapter> port 0x2000-0x20ff mem 0xdfa00000-0xdfa03fff,0xdf900000-0xdf9fffff irq 16 at device 0.0 on pci2

Запускаю
[root@bareos /usr/ports/sysutils/pciutils]# ctladm port -l
Port Online Frontend Name     pp vp
0    NO     camsim   camsim   0  0  naa.5000000988d59b01
1    YES    ioctl    ioctl    0  0
2    YES    tpc      tpc      0  0
3    NO     camtgt   isp0     0  0


[root@bareos /usr/ports/sysutils/pciutils]# ctladm devlist -v
LUN Backend       Size (Blocks)   BS Serial Number    Device ID
[root@bareos /usr/ports/sysutils/pciutils]#


[root@bareos /usr/ports/sysutils/pciutils]# sysctl dev.isp.
dev.isp.0.use_gff_id: 1
dev.isp.0.use_gft_id: 1
dev.isp.0.topo: 0
dev.isp.0.loopstate: 0
dev.isp.0.fwstate: 0
dev.isp.0.linkstate: 0
dev.isp.0.speed: 0
dev.isp.0.role: 0
dev.isp.0.gone_device_time: 30
dev.isp.0.loop_down_limit: 60
dev.isp.0.wwpn: 5764963215614133682
dev.isp.0.wwnn: 5764963215614133683
dev.isp.0.%parent: pci2
dev.isp.0.%pnpinfo: vendor=0x1077 device=0x2532 subvendor=0x103c subdevice=0x3262 class=0x0c0400
dev.isp.0.%location: slot=0 function=0 dbsf=pci0:16:0:0 handle=\_SB_.PCI0.PEX1.PXS1
dev.isp.0.%driver: isp
dev.isp.0.чsc: Qlogic ISP 2532 PCI FC-AL Adapter
dev.isp.%parent:
[root@bareos /usr/ports/sysutils/pciutils]#


Я не понимаю что делать дальше?? ПОДСКАЖИТЕ

  • Частично разобралсяПосле долгих поисков нашел и прописал hint isp 0 role 2 в , !*! sergicus (ok), 14:51 , 23-Ноя-17 (1)
    Частично разобрался

    После долгих поисков нашел и прописал

    hint.isp.0.role="2"  в     /boot/device.hints

    Перегрузил и логах появилось

    [root@bareos /home/serge]# dmesg | grep -i isp
    isp0: <Qlogic ISP 2532 PCI FC-AL Adapter> port 0x2000-0x20ff mem 0xdfa00000-0xdfa03fff,0xdf900000-0xdf9fffff irq 16 at device 0.0 on pci2
    isp0: Chan 0 setting role to 0x2
    ch0 at isp0 bus 0 scbus0 target 0 lun 1
    sa0 at isp0 bus 0 scbus0 target 0 lun 0

    Т.е появились устройства /dev/nsa0   /dev/sa0    /dev/esa0  

    Потом вводил
    [root@bareos /home/serge]# ctladm port -l
    Port Online Frontend Name     pp vp
    0    NO     camsim   camsim   0  0  naa.500000013145ef01
    1    YES    ioctl    ioctl    0  0
    2    YES    tpc      tpc      0  0
    3    NO     camtgt   isp0     0  0

    [root@bareos /home/serge]# ctladm port -o on -t fc
    Front End Ports enabled


    [root@bareos /home/serge]# ctladm port -l
    Port Online Frontend Name     pp vp
    0    NO     camsim   camsim   0  0  naa.500000013145ef01
    1    YES    ioctl    ioctl    0  0
    2    YES    tpc      tpc      0  0
    3    YES    camtgt   isp0     0  0  naa.5001438021dfc5b2

    Вот что тотолько не могу до них достучатся

    [root@bareos /home/serge]# mt -f /dev/esa0 status
    mt: /dev/esa0: Input/output error
    [root@bareos /home/serge]# mt -f /dev/sa0 status
    mt: /dev/sa0: Input/output error
    [root@bareos /home/serge]# mt -f /dev/nsa0 status
    mt: /dev/nsa0: Input/output error


    Что посоветуете ????

    сообщить модератору +/ответить
postfix - QUIT\r\n, !*! Alessandro1991, (Разное) 21-Ноя-17, 08:46  [ | | | ] [линейный вид] [смотреть все]
здравствуйте!
переношу настройки на новый сервер freebsd 10.3
postfix+cour+ldap+sasl
подключение почтовым клиентом не проходит.
локально telnet-ом 110 порт все ок, логин\пароль проходит.
в maillog -
Nov 21 10:42:56 desertfox pop3d: LOGOUT, ip=[::ffff:127.0.0.1]
Nov 21 10:42:56 desertfox pop3d: LOGOUT, ip=[::ffff:127.0.0.1]
Nov 21 10:42:56 desertfox postfix/smtpd[48770]: improper command pipelining after EHLO from localhost.polushka.net[127.0.0.1]: QUIT\r\n
Nov 21 10:42:56 desertfox postfix/smtpd[48770]: disconnect from localhost.polushka.net[127.0.0.1] ehlo=1 quit=1 commands=2
что может быть?
p.s. подключение идет 127.0.0.1 - потому что подкл. с  перебросом портов. сервер стоит внутри сети в другом месте.
VMWare ESXI 5.1 - замена загрузочного диска, !*! ASphinx, (Виртуализация) 10-Фев-17, 13:36  [ | | | ] [линейный вид] [смотреть все]
Доброе время суток всем!

Есть на работе машинка для различных экспериментов под VMWare ESXI 5.1, Free license. Количество задач выросло - стало не хватать места. Начальство расщедрилось и выделило новый HDD с требованием вернуть старый диск после замены во внутренний оборот железа. Пытался перенести содержимое акронисом, norton ghost-ом, простым dd - лучше всех справился dd, но теперь машинка грузится долго, в логе куча ругани типа:

WARNING: NMP: nmp_IssueCommandToDevice:2955:I/O could not be issued to device "${новый диск}" due to Not found
WARNING: NMP: nmp_DeviceRetryCommand:133:Device "${новый диск}": awaiting fast path state update for failover with I/O blocked. No prior reservation ex
WARNING: NMP: nmp_DeviceStartLoop:721:NMP Device "${новый диск}" is blocked. Not starting I/O from device
WARNING: NMP: nmpDeviceAttemptFailover:599:Retry world failover device "${новый диск}" - issuing command 0x412400816cc0
WARNING: NMP: nmpDeviceAttemptFailover:658:Retry world failover device "${новый диск}" - failed to issue command due to Not found (APD), try again...
WARNING: NMP: nmpDeviceAttemptFailover:708:Logical device "${новый диск}": awaiting fast path state update...
[много раз по кругу...],
наконец, потеряна информация о локальном сторадже для виртуальных машин и сами виртуальные машины на новом диске. Я понимаю, что лучше было бы ставить систему на отдельном диске, но... Никто не думал тогда, что виртуалка приживётся так надолго.
В гугле много советов, как поменять носители в рейде и стораджах, но про загрузочный диск как-то тихо. :(
Есть у кого положительный опыт или ставить систему заново и восстанавливать конфигурации?

  • посикпано Видимо, нет решения Ладно, следующий вопрос переставил esxi на, !*! ASphinx (??), 15:35 , 14-Фев-17 (1)
    > Доброе время суток всем!
    > Есть на работе машинка для различных экспериментов под VMWare ESXI 5.1, Free
    > license. Количество задач выросло - стало не хватать места. Начальство расщедрилось
    > и выделило новый HDD с требованием вернуть старый диск после замены
    > во внутренний оборот железа. Пытался перенести содержимое акронисом, norton ghost-ом,

    [посикпано...]
    > Есть у кого положительный опыт или ставить систему заново и восстанавливать конфигурации?

    Видимо, нет решения. :(

    Ладно, следующий вопрос: переставил esxi на новый диск, подцепляю старый, чтобы перелить гостевые vm-ки, а команды mount нет. :( Пытался подцепить через add storage - мастер говорит, что диск пустой и жаждет отформатировать его заново. :( В гугле ответов тоже пока не нашлось, хотя я ещё в процессе... Линукс vmfs не понимает (пробовал грузиться в kali). :(

    Остаётся ещё вариант сливать гостевые системы по ssh, но хочется решения побыстрее...

    сообщить модератору +/ответить
Вопрос по синтаксису команд, !*! anikibeniki, (Разное) 29-Авг-16, 12:05  [ | | | ] [линейный вид] [смотреть все]
Добрый день подскажите пожалуйста, что сделает следующяя цепочка команд :
~$ find /tmp -name "sess_*" -type f -cmin +30 -print0 | xargs -r -0rm>/dev/null 2>&1


После прошифки раид контроллер не видит диски, !*! sergicus, (Аппаратное обеспечение) 28-Июн-17, 15:58  [ | | | ] [линейный вид] [смотреть все]
Есть у меня сервер Fujitsu Siemens model PRIMERGY RX300 S4
Попробовал я обновить его до самых последних версий прошивки биос и раид контроллера. Все обновилось но при входе в биос жесткие диски перестали видется а вместо них показывается надпись Backplane(252)
Раид контроллер у меня RAID 5/6 sas based on LSI MegaRaid

Ниже я выкладываю скриншоты megaraid bios config utility

http://s018.radikal.ru/i506/1706/45/ca7ae131e3af.jpg

http://s018.radikal.ru/i501/1706/a2/9029c897aa3b.jpg

http://s018.radikal.ru/i524/1706/16/1052f660e8e4.jpg

http://s019.radikal.ru/i637/1706/c7/bdfc8b492613.jpg

http://s019.radikal.ru/i628/1706/fa/ef7ec84164fe.jpg

http://s009.radikal.ru/i307/1706/ed/6b6d772d1fed.jpg


Я пробовал использовать megacli (загружался с флэшки)  - очищал конфигурацию megacli -CfgClr -aAll  но это не помогло

Что мне посоветуете делать в такой ситуации

Объединение сетевых интерфейсов 10Gb под Linux, !*! Maximus, (Увеличение производительнсти) 19-Июн-17, 13:45  [ | | | ] [линейный вид] [смотреть все]
Приветствую всех!
Планирую объединение сетевых интерфейсов 10Gb под Linux на двух серверах. ОС Red Hat Enterprise Linux AS release 4 (Nahant Update 8) и Red Hat Enterprise Linux Server release 5.8 (Tikanga). Режим планирую использовать mode = 6 (balance-alb). Подскажите кто с похожей задачей сталкивался, есть ли какие либо нюансы, возможные проблемы, куда стоит копать и т.д.
  • Смотря какие карты планируешь использовать У меня без проблем запустился BOU, !*! Владимир (??), 14:40 , 23-Июн-17 (1)
    > Приветствую всех!
    > Планирую объединение сетевых интерфейсов 10Gb под Linux на двух серверах. ОС Red
    > Hat Enterprise Linux AS release 4 (Nahant Update 8) и Red
    > Hat Enterprise Linux Server release 5.8 (Tikanga). Режим планирую использовать mode
    > = 6 (balance-alb). Подскажите кто с похожей задачей сталкивался, есть ли
    > какие либо нюансы, возможные проблемы, куда стоит копать и т.д.

    Смотря какие карты планируешь использовать ...
    У меня без проблем запустился BOUND на 6.2 во всех режимах ( по очереди) но по итогу нужен был только 4

    сообщить модератору +/ответить
hp rx6600 + FreeBSD 10.3, !*! Энди, (Серверные платформы) 21-Июн-17, 17:35  [ | | | ] [линейный вид] [смотреть все]
подарили блин... :( решил поставить фрю, все девайсы видим, все замечательно ставится, никаких проблем кроме одной - не стартуем толком. вываливаем can't load kernel. боремся просто - load part1:/boot/kernel/kernel ну и дальше опять ругаемся что нужно указать откуда - ufs:/dev/da0p2
хочется поправить это дело - но прописывание в loader.conf vfs.root.mountfrom - не помогает... что-то у меня никаких мыслей :(
  • А чего это у вас модули ядра в boot kernel kernel, обычно в boot kernel , !*! Сергей (??), 08:57 , 22-Июн-17 (1)
    > подарили блин... :( решил поставить фрю, все девайсы видим, все замечательно ставится,
    > никаких проблем кроме одной - не стартуем толком. вываливаем can't load
    > kernel. боремся просто - load part1:/boot/kernel/kernel ну и дальше опять ругаемся
    > что нужно указать откуда - ufs:/dev/da0p2
    > хочется поправить это дело - но прописывание в loader.conf vfs.root.mountfrom - не
    > помогает... что-то у меня никаких мыслей :(

    А чего это у вас модули ядра в /boot/kernel/kernel, обычно в /boot/kernel ...


    сообщить модератору +/ответить
Системы учета рабочего времени, !*! TimaKlim, (Разное) 13-Мрт-17, 14:07  [ | | | ] [линейный вид] [смотреть все]
Добрый день. Интересует система учета рабочего времени.
Желательно чтобы вела запись процесса как и сколько сотрудник работает.
Дело в том, что мы сотрудничаем с удаленными фрилансерами - хотелось бы знать что они нам полностью уделяют проплаченое время.
Благодарю.
  • мм и как вы себе это представляете Желательно чтобы вела запись процесса как , !*! ford1813 (ok), 17:52 , 13-Мрт-17 (1) –1
    > Добрый день. Интересует система учета рабочего времени.
    > Желательно чтобы вела запись процесса как и сколько сотрудник работает.
    > Дело в том, что мы сотрудничаем с удаленными фрилансерами - хотелось бы
    > знать что они нам полностью уделяют проплаченое время.
    > Благодарю.

    мм и как вы себе это представляете ? "Желательно чтобы вела запись процесса как и сколько сотрудник работает." (c)

    сообщить модератору –1 +/ответить
  • Нужно не время учитывать, а бизнес-процесс налаживать Вы сами себя загнали в спи, !*! ACCA (ok), 18:48 , 13-Мрт-17 (2) +1
    > Дело в том, что мы сотрудничаем с удаленными фрилансерами - хотелось бы
    > знать что они нам полностью уделяют проплаченое время.

    Нужно не время учитывать, а бизнес-процесс налаживать.

    Вы сами себя загнали в спираль неудачи.
       1. Взяли заказ слишком дёшево
       2. Набрали самых дешёвых исполнителей
       3. Лыжи не едут
       4. Сроки просираются

    Не за**вайте исполнителей, можете словить обратку - фрилансеры поставят себе Selenium, а работать вообще перестанут.

    сообщить модератору +1 +/ответить
  • Ну, если они работают на ваших серверах - то просто анализируйте логи, или актив, !*! Square1 (?), 22:40 , 13-Мрт-17 (4) –1
    > Добрый день. Интересует система учета рабочего времени.
    > Желательно чтобы вела запись процесса как и сколько сотрудник работает.
    > Дело в том, что мы сотрудничаем с удаленными фрилансерами - хотелось бы
    > знать что они нам полностью уделяют проплаченое время.
    > Благодарю.

    Ну, если они работают на ваших серверах - то просто анализируйте логи, или активность через гугл аналитик или нечто подобное.

    сообщить модератору –1 +/ответить
  • Читаю я вашу ветку, читаю, решил зарегаться, чтоб свои 5 копеек вставить Вообще,, !*! ZloBro (ok), 12:46 , 14-Мрт-17 (12)
    > Добрый день. Интересует система учета рабочего времени.
    > Желательно чтобы вела запись процесса как и сколько сотрудник работает.
    > Дело в том, что мы сотрудничаем с удаленными фрилансерами - хотелось бы
    > знать что они нам полностью уделяют проплаченое время.
    > Благодарю.

    Читаю я вашу ветку, читаю, решил зарегаться, чтоб свои 5 копеек вставить.
    Вообще, судя по всему, все, что вам нужно, указано здесь в программе Kickidler. (http://employee-monitoring-software.ru/) Ни в коем случае не реклама, боже упаси!

    Ну а там - смотрите сами. Их великое множество так то. На вкус и цвет сами выбирайте

    сообщить модератору +/ответить
  • Могу посоветовать специальную программу Yaware Использую ее уже год для контрол, !*! Александр (??), 09:41 , 13-Июн-17 (19)
    > Добрый день. Интересует система учета рабочего времени.
    > Желательно чтобы вела запись процесса как и сколько сотрудник работает.
    > Дело в том, что мы сотрудничаем с удаленными фрилансерами - хотелось бы
    > знать что они нам полностью уделяют проплаченое время.
    > Благодарю.

    Могу посоветовать специальную программу Yaware. Использую ее уже год для контроля своих сотрудников. Она отлично подойдет для мониторинга работы удаленных фрилансеров.

    сообщить модератору +/ответить


не грузится FreeBSD любой версии, !*! Alessandro1991, (Разное) 19-Янв-17, 15:19  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!

имеется сервер - FreeBSD 9.3 i386
CPU: Intel(R) Core(TM) i5-4460  CPU @ 3.20GHz (3192.67-MHz 686-class CPU)
материнка - ASUS H81M-K
там все хорошо запускается.

теперь другой
CPU: Intel(R) Core(TM) i5-4440  CPU @ 3.10GHz (3092.86-MHz 686-class CPU)
материнка - ASUS H81M-K
тут я пробовал разные ОС. 8.4 amd64. 9.3 i386. 10.1 amd 64
отключал dvd, сетевые карты. при запуске, черный экран что-то думает пару сек. и биос заходит и все.
windows пробовал запускать, запускает.

до меня парень был, у одного клиента было подобное, решилось тупо заменой всего железа.

у кого-нить было такое? это вообще нормально?

lsi raid sas 8404e + esxi, !*! Endar, (Др. Unix) 05-Ноя-16, 18:48  [ | | | ] [линейный вид] [смотреть все]
Столкнулся с проблемой esxi (4, 5.5, 6) работают с дисковыми полками в 2 раза медленнее от простой линухи (убунты)
Железка давно не новая, но работать должна нормально
NEC Express5800/120Ri-2 Rack Servers
N8100-1247E
Бортовой рейд (не интересует, но для справки) LSI Megaraid 1068
Интересует навешенный LSI SAS MegaRaid 8408e
Корзинка на 6 дисков - 2 полки на RAID 5

ESXi видит контроллер вот так:
vmhba1 megaraid_sas link-n/a unknown.vmhba1 (0:4:14.0) LSI / Symbios Logic LSI MegaRAID SAS1064R

а убунту с коробки:
RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS 1068
        Subsystem: LSI Logic / Symbios Logic MegaRAID SAS 8408E
        Flags: bus master, stepping, 66MHz, medium devsel, latency 32, IRQ 18
        Memory at de000000 (32-bit, prefetchable) [size=64K]
        Memory at de200000 (32-bit, non-prefetchable) [size=128K]
        [virtual] Expansion ROM at de220000 [disabled] [size=32K]
        Capabilities: [c0] Power Management version 2
        Capabilities: [d0] MSI: Enable- Count=1/2 Maskable- 64bit+
        Capabilities: [e0] PCI-X non-bridge device
        Kernel driver in use: megaraid_sas
        Kernel modules: megaraid_sas

Бортовой контроллер в убунте:
SCSI storage controller: LSI Logic / Symbios Logic SAS1068 PCI-X Fusion-MPT SAS (rev 01)
        Subsystem: NEC Corporation SAS1068 PCI-X Fusion-MPT SAS
        Flags: bus master, 66MHz, medium devsel, latency 72, IRQ 25
        I/O ports at 3000 [disabled] [size=256]
        Memory at de610000 (64-bit, non-prefetchable) [size=16K]
        Memory at de600000 (64-bit, non-prefetchable) [size=64K]
        [virtual] Expansion ROM at de400000 [disabled] [size=2M]
        Capabilities: [50] Power Management version 2
        Capabilities: [98] MSI: Enable- Count=1/1 Maskable- 64bit+
        Capabilities: [68] PCI-X non-bridge device
        Capabilities: [b0] MSI-X: Enable- Count=1 Masked-
        Kernel driver in use: mptsas
        Kernel modules: mptsas

Проблема:
Провожу простое копирование файла (линейная запись) - с полки на полку вытаскиваю с сети на полку, хоть ДД-шкой!

Попробовал:
- перестраивать полки в различных вариантах,
- пробовал разные типы носителей SAS/SATA - HDD/SSD,
- менял драйвера на megaraid_sas с vmware и adapteca - от самых старых до последних.
- включал/выключал прибамбасы кеширование контроллера и дисков.
- поменял BBU.
- обновил прошивку контроллера.
- попробовал даже отключить всё не нужное в биосе.
- в бубен стучал.
- и даже это всё в разных комбинациях.

Всегда одно и тоже в ESXi скорость записи на полки в 2 раза ниже.

Кто-нибудь сталкивался с подобной ситуацией, может, даже, удалось решить подобную проблему?

Объеденение сервров в одну сеть, !*! CHIM, (Увеличение производительнсти) 19-Окт-16, 21:28  [ | | | ] [линейный вид] [смотреть все]
Доброго времени суток!
Существует сервер с 4 сетевыми портами и 1 задействован для соединения с инетом и 3 для существующих 3х подсетей, назовём его - SRV1
Сейчас ставлю ещё одни сервер для бухгалтерии и их нужд, там есть 4 сетевых интерфейса SSD и всё такое, назовём его SRV2.
Если говорить простыми словами, то 2 сервера в одной подсети.
Но вот появилась делема, как соединить данные сервера?
Немного предыстории о том почему я собираюсь использовать оптику для соединения с коммутатором для бухгалтерии и сервером SRV1 или же другим коммутатором. У меня на пути к серверу проходит множество кабелей с 220V (точнее целая щитова от которой идёт разводка на все стороны)+ сигнализация+пожарка+телевидение+радио и эти линии никак не обойти. Решил что в моём случае использование оптики(в коммутаторе есть SFP порт) в качестве соединения без помех коммутатора с сервером SRV2 это лучший из способов, тем более я хотел бы добиться максимальной скорости от передачи информации с SSD дисков сервера в гигабитную сеть бухгалтерии.  Если подскажите какой либо другой вариант, то буду признателен.
Вариант первый:
1. Вся бухгалтерия соединяется коммутатором и от туда идёт оптикой в порт первый(eth0) сервера SRV2
2. Во второй порт(eth1) сервера SRV2 втыкается провод с сервера который раздаёт интернет SRV1
3. На сетевой сервера SRV1 меняем IP адрес, так как он был из той под сети что и в бухгалтерии, например ставим 192.168.12.1, а для бухгалтерии сервер SRV2 будет смотреть адресом 192.168.20.1(прежний ip сервера SRV1).
4. Настраиваю на сервере SRV2 маскарадинг на сервер SRV1, дабы пропустить интернет в сеть бухгалтерии с теми настройками фильтрации которые предоставляет сервер SRV1, чтоб не настраивать всё по нескольку раз на разных машинах.
5. Подправляю настройки iptables на SRV1 для интерфейса смотрящего на SRV2, чтоб он раздавал интернет для IP SRV2.

Минусы этого варианта в том что как это будет работать на практике ещё не ясно, так как буду такое соединение делать впервые.

Вариант второй:
1. Вся бухгалтерия соединяется коммутатором и от туда идёт оптикой в гигабитный порт коммутатора на котором настроен VLAN для подсети бухгалтерии, из этого коммутатора выходит два патчкорда, один из которых идёт к серверу SRV1, второй к SRV2/

Минус данного варианта в том, что я боюсь потерять скорость соединения  используя ещё одно промежуточное звено в виде коммутатора. Во втором коммутаторе тоже есть SFP  порт, но его использовать не вариант, так как он не управляется сервером, то есть его нельзя привязать к определённому VLAN что к нему не было доступа из других подсетей. Получается что если я соединю 2 коммутатора по SFP то полностью расшарю сеть бухгалтерии для всех VLAN(оба коммутатора MultiCo EW-70244).

Вариант третий:
1. Использовать Bridge и объединить 2 сетевых порта на сервере SRV2 для доступа к серверу SRV1. Но тогда возникает вопрос о скорости соединения и фильтрации входящих адресов и доступов для сервера SRV2. Много где читал, что Bridge снижает производительность, правда или лож?

Вот и не знаю как поступить. Хотел погуглить на тему как соединяются сервера, но так толкового ничего и не нашёл. Может подскажете как вы соединяете сервера в одной подсети? Только через коммутаторы?


  • Очень много букв Оставлю несколько тезисов Коммутаторы имеют хороший функционал , !*! universite (ok), 05:20 , 21-Окт-16 (1)
    Очень много букв.

    Оставлю несколько тезисов:
    Коммутаторы имеют хороший функционал.
    Для прохода щитовой лучше использовать оптику.
    Если не хватает SFP портов, то можно использовать гигабитные медиаконверторы.
    Посмотрите схему "маршрутизатор на привязи" в гугле.

    грубо говоря:
    в первый порт SRV1 приходит инет.
    три другие порты воткнуты в коммутатор1 и объединены в LACP.
    линки от трех подсетей втыкаем в коммутатор1, потом или шлюзы на коммутаторе1 сооружаем или засовываем в вланы и пробрасываем на SRV1
    коммутатор2 устанавливаем по-ближе к бухам
    коммутатор1 и коммутатор2 соединяем оптикой 4 порта и объединяем в LACP
    Бухов подключаем в коммутатор2 и теггируем в влан10 (например)
    SRV2 подключаем в коммутатор1 всемя интерфейсами, опять объединяем в LACP и на этот lacp добавляем вланы влан10 и влан100
    влан100 - для связи SRV1 и SRV2
    Дальше уже простая маршрутизация и фильтрация.

    сообщить модератору +/ответить
переезд NW4.11 под ESXi 5.1, !*! ASphinx, (Виртуализация) 12-Сен-16, 15:55  [ | | | ] [линейный вид] [смотреть все]
Добрый день сообществу!

Стоит у нас неплохая, в общем-то железка с раритетной нетварью 4.11 для нужд выдачи архивных справок бывшим работникам. Винт у нетвари небольшой - 40 гиг, но вникать в особенности работы бухгалтерии многолетней давности нет желания. Для малонагруженных сервисов недалеко стоит ESXi 5.1. Возникла здравая мысль перетащить нетварь под общую крышу в виртуалку. Когда-то у нетвари был сказёвый контроллер, но за давностью лет и крахом винтов, давно переехал на обычный IDE. Сейчас же ESXi, наоборот, не умеет эмулировать IDE-винты - только SCSI двух-четырёх типов.
В гугле вычитал, что есть успешный опыт переноса старых систем в виртуалку, но у меня пока не получается. :( Есть ли у кого практический опыт в этом вопросе? Прошу советов.

При запуске load install после переноса и попытки подгрузки драйверов, инсталлер находит новое устройство, на которое требует драйвер. Однажды это устройство было обозначено как PCI.8086.7111.15AD.1976.01, потом вдруг стало PCI.1000.0030.15AD.1976.01.
Попытка загрузить скачанный с сайта support.novell.com драйвера LSIMPTNW, выдаёт ошибку:
Server-4.11-1586: Loader cannot find public symbol: NPA_Get_Loaded_Module_Info
Server-4.11-1586: Load file referenced undefined public variable.
Module LSIMPTHW.HAM NOT loaded.

Ну, и, соответственно, дальше весь процесс стопорится - пока нет диска, работать система не могеть. :(

  • Ну начните с того, что 1 вы правильный драйвер нашли с новелла, именно для 4 1, !*! Сергей (??), 17:30 , 12-Сен-16 (1)
    > Добрый день сообществу!
    > При запуске load install после переноса и попытки подгрузки драйверов, инсталлер находит
    > новое устройство, на которое требует драйвер. Однажды это устройство было обозначено
    > как PCI.8086.7111.15AD.1976.01, потом вдруг стало PCI.1000.0030.15AD.1976.01.
    > Попытка загрузить скачанный с сайта support.novell.com драйвера LSIMPTNW, выдаёт ошибку:
    >  Server-4.11-1586: Loader cannot find public symbol: NPA_Get_Loaded_Module_Info
    >  Server-4.11-1586: Load file referenced undefined public variable.
    >  Module LSIMPTHW.HAM NOT loaded.
    > Ну, и, соответственно, дальше весь процесс стопорится - пока нет диска, работать
    > система не могеть. :(

    Ну начните с того, что
    1. вы правильный драйвер нашли с новелла, именно для 4.11, а не для 5-ки и старше
    Load file referenced undefined public variable, говорит именно об этом...


    сообщить модератору +/ответить
VMware data protection, !*! Renat, (Виртуализация) 31-Авг-16, 14:46  [ | | | ] [линейный вид] [смотреть все]
Добрый день.
Для бэкапа виртуальных машин долгое время использовал VMware data recovery.
Сейчас у VMware появился новый продукт, для бэкапа виртуальной инфраструктуры - VMware data protection. Все действия выполнил по официальной инструкции, развернул OVA c машинкой, прошёл все шаги через в web интерфейсе https://<ip>:8543/vdp-configure/.

Но вот вопрос, процесс "VDP: configure appliance" останавливается на 70-ти процентах выполнения, то-есть он и не завершается с ошибкой и дальше не продолжает. Задание просто висит.
Побывал на версиях 5.8 и 6.1.2, результат такой-же.
Кто нибудь сталкивался с такой проблемой? Куда копать?

Raid контроллер + кэш память, !*! tunsa, (Аппаратное обеспечение) 11-Июл-16, 10:12  [ | | | ] [линейный вид] [смотреть все]
Всем добрый день!

Прошу сильно не пинать, хочу приобрести рейд контроллер hp p420 для того чтобы подключить корзину дополнительную на сервер для бэкапов, поставщик пишет этот рейд контроллер без памяти - ZM, zero memory. В этом и заключается вопрос, необходимо ли мне для работы контроллера, приобретать отдельно память для рейд контроллера?

Autocad. Посоветуйте железо., !*! zdenik, (Разное) 06-Июл-16, 15:35  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте.
Сам с автокад'ом никогда не работал и уж тем более не внедрял какие-то сетевые его решения, поэтому нуждаюсь в советах.

Суть - несколько человек (порядка 15) должны работать совместно в autocad'е. Для этого должен быть куплен и собран какой-нибудь рэковый сервачок, что собственно говоря меня и интересует, т.к. никаких ТЗ у меня по нему нет, а нужно подобрать железо так, чтобы все нормально работало, и вот дальше у меня начинаются вопросы.

Кто-нибудь вообще может объяснить, что вообще из себя представляет этот autocad под совместной работой? Там, наверное, ставится какой-то автокадовский софт и на сервер и на клиентскую машину, так? А где в таком случае происходит вся обработка то? Основные мощности нужны на клиентских ПК или всей этой сумасшедшей обработкой занимается этот несчастный сервер, или сервер выступает лишь местом хранения общих файлов и неким авторизующим узлом для доступа клиентов к этим самым общим файлам?
Другими словами, какие мощности то нужны по железу? Процессор (или их нужно несколько?), сколько памяти требуется под это дело, ну и другие нюансы?

Промышленная автоматизация пишем свой framework?, !*! tsolodov, (Высоконадежные кластеры) 03-Апр-13, 12:02  [ | | | ] [линейный вид] [смотреть все]
Всем привет. Пожалуйста, поделитесь опытом:
Есть некое приложение, сервисы которого распределены между разными физическими серверами(~50 серверов в каждом датацентре) на CentOS 5. По мере роста сервиса стало все сложнее обслуживать весь этот зоопарк. Есть зависимости  что если нужно рестартануть сервис А то он зависит от сервиса Б и тогда нужно их рестартить оба, причем в правильной последовательности. Это просто ужас :). Встал вопрос автоматизации этих рестартов. Посоветуйте ПО с помощью которго можно это сделать, понятно что придется напильником шлифовать долго и упорно, скорее всего даже дописывать что нить. Делимся опытом, дорогие профи :)
  • Novell ZENworks, !*! pavlinux (ok), 14:38 , 03-Апр-13 (1)
    > Всем привет. Пожалуйста, поделитесь опытом:
    > Есть некое приложение, сервисы которого распределены между разными физическими серверами(~50
    > серверов в каждом датацентре) на CentOS 5. По мере роста сервиса
    > стало все сложнее обслуживать весь этот зоопарк. Есть зависимости  что
    > если нужно рестартануть сервис А то он зависит от сервиса Б
    > и тогда нужно их рестартить оба, причем в правильной последовательности. Это
    > просто ужас :). Встал вопрос автоматизации этих рестартов. Посоветуйте ПО с
    > помощью которго можно это сделать, понятно что придется напильником шлифовать долго
    > и упорно, скорее всего даже дописывать что нить. Делимся опытом, дорогие
    > профи :)

    Novell ZENworks

    сообщить модератору +/ответить
  • pacemaker, !*! Forth (ok), 17:55 , 17-Окт-14 (3)
    > Всем привет. Пожалуйста, поделитесь опытом:
    > Есть некое приложение, сервисы которого распределены между разными физическими серверами(~50
    > серверов в каждом датацентре) на CentOS 5. По мере роста сервиса
    > стало все сложнее обслуживать весь этот зоопарк. Есть зависимости  что
    > если нужно рестартануть сервис А то он зависит от сервиса Б
    > и тогда нужно их рестартить оба, причем в правильной последовательности. Это
    > просто ужас :). Встал вопрос автоматизации этих рестартов. Посоветуйте ПО с
    > помощью которго можно это сделать, понятно что придется напильником шлифовать долго
    > и упорно, скорее всего даже дописывать что нить. Делимся опытом, дорогие
    > профи :)

    pacemaker

    сообщить модератору +/ответить
  • Ansible вам подойдет более чем , !*! ziplex (?), 15:39 , 30-Ноя-15 (4)
    Ansible вам подойдет более чем.
    сообщить модератору +/ответить
Freebsd+Dump, !*! Alecsandr1991, (Разное) 20-Июн-16, 20:21  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!

система FreeBSD 9.3
при команде - /sbin/dump -a -L -P "bzip2 -z > /mnt/smb/$datestamp/dump-ad4s1a-root.bz2" /
выходит ошибка - mksnap_ffs: Cannot create snapshot //.snap/dump_snapshot: /: Snapshots are not yet supported when running with journaled soft updates: Operation not supported
dump: Cannot create //.snap/dump_snapshot: No such file or directory

читал, что можно запускать без ключа -L
но корректно ли будет идти копирование.
при том, при всем очень странное поведение.
я устанавливал несколько систем на freebsd 9.3, у одного шлюза только корень не хочет дампиться у другого все разделы.

  • Вы все правильно поняли, в зависимости от серверов у вас включено журналирован, !*! Сергей (??), 22:36 , 20-Июн-16 (1)
    > система FreeBSD 9.3
    > при команде - /sbin/dump -a -L -P "bzip2 -z > /mnt/smb/$datestamp/dump-ad4s1a-root.bz2"
    > /
    > выходит ошибка - mksnap_ffs: Cannot create snapshot //.snap/dump_snapshot: /: Snapshots
    > are not yet supported when running with journaled soft updates: Operation
    > not supported

      Вы все правильно поняли, в зависимости от серверов у вас включено журналирование на разные слайсы, поэтому и нельзя создать дамп живой системы, параметр L, грузитесь в синг моду и выключайте журналирование, потом включите...

    сообщить модератору +/ответить
 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру