The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
AS/400 и windows, !*! alexr, (Серверные платформы) 22-Июн-11, 12:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Интерсно, вы об этом спрашиваете на форуме по открытым системам AS 400 - предо, !*! TheBA (?), 14:20 , 22-Июн-11 (1) +1
    > Здравствуйте.
    > Хотел бы спросить.
    > Есть сервера AS/400 (с ibm не работал), не могу понять, это старое
    > название iSystem или это какие-то новые модификации. Вопрос в том,

    Интерсно, вы об этом спрашиваете на форуме по открытым системам.. AS/400 - предок Iseries и system I (а не Isystem, как написано у вас)
    >можно
    > ли на данные сервера как-то поставить windows server и mssql?

    Да, можно, причем параллельно с OS/400, линукс, AIX. Но это если есть сборка масдая типа под power и лицензирован powervm.

    сообщить модератору +1 +/ответить
  • скорее нет спросите на aixportal ru, впрочем , !*! anonymous (??), 21:07 , 22-Июн-11 (2)
    > Есть сервера AS/400 (с ibm не работал), не могу понять, это старое
    > название iSystem или это какие-то новые модификации. Вопрос в том, можно
    > ли на данные сервера как-то поставить windows server и mssql?

    скорее нет.

    спросите на aixportal.ru, впрочем.

    сообщить модератору +/ответить
  • Нельзя Windows я видел только под Itanium и x86 x64 как и SQL Server Юзайте AI, !*! ImPressed (ok), 17:06 , 16-Дек-11 (3)
    > Здравствуйте.
    > Хотел бы спросить.
    > Есть сервера AS/400 (с ibm не работал), не могу понять, это старое
    > название iSystem или это какие-то новые модификации. Вопрос в том, можно
    > ли на данные сервера как-то поставить windows server и mssql?

    Нельзя. Windows я видел только под Itanium  и x86/x64 как и SQL Server.

    Юзайте AIX =) и IBM DB2.

    P.S Конечно можно сгородить огород из костылей вроде QEMU =) и запускать окна и двери в Qemu, но вы только представьте какая будет при этом производительность.

    сообщить модератору +/ответить
посоветуйте fs для масштабируемого хранилища fcoe, !*! obl, (Хранилища данных) 08-Дек-11, 18:44  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Несколько вопросов по датацентрам, !*! simple_user, (Разное) 15-Мрт-11, 12:41  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Как минимум десяток гномов на каждый сервер , Аноним (-), 15:27 , 15-Мрт-11 (1) !*!
  • дурной вопрос если конечно под сервером подразумевается железка Не интересует, , !*! slepnoga (??), 18:57 , 15-Мрт-11 (3)
    > Доброго времени суток.
    > Есть несколько вопросов, касающихся услуг и обслуживающего персонала  датацентра, буду
    > признателен, если кто-нибудь поделится опытом или рекомендациями.
    > 1. Нормативы нагрузки на технический персонал (сколько серверов должно приходиться на одного
    > дежурного инженера, системного администратора; сколько клиентов — на одного сотрудника
    > технической поддержки)?

    дурной вопрос (если конечно под сервером подразумевается железка)
    > 2. На базе чего вы бы хотели получать услугу VPS/VDS?

    Не интересует, только дедики.

    > 3. На базе какой платформы вы бы хотели арендовать cloud-сервер?

    спасибо, просаженный в 10 раз I/O  мне лично не нужен.

    > 4. Какой комплекс по защите от DDOS-атак вы предпочли бы видеть в
    > датацентре?

    Сложный вопрос. Что хотел бы - не тяну я ( равно как и "датацентр" - кавычки не случайно),
    что тяну - то не защитит от реально __серьезного__ доса.

    > 5. Какие сервисы вы хотели бы видеть в перечне услуг датацентра и
    > сколько вы бы желали платить за данные сервисы?

    КВМ, с удаленным CD/DVD,
    Мальчика-фтыкателя железок,
    внешний вмеяняемый мониторинг,
    Не хотел бы слышать "Это не возможно" ( блин, не хотите делать - ставьте запретительные цены)

    сообщить модератору +/ответить
    • Именно железка, а не могли бы вы пояснить почему вопрос дурной Я прошу прощения,, !*! simple_user (??), 10:09 , 16-Мрт-11 (4)
      > дурной вопрос (если конечно под сервером подразумевается железка)

      Именно железка, а не могли бы вы пояснить почему вопрос дурной?

      > спасибо, просаженный в 10 раз I/O  мне лично не нужен.

      Я прошу прощения, но при нормальной платформе и нормальной организации облачности, узких мест у облачного сервера не будет.

      > Сложный вопрос. Что хотел бы - не тяну я ( равно как
      > и "датацентр" - кавычки не случайно),
      > что тяну - то не защитит от реально __серьезного__ доса.

      Не могли бы озвучить пожелания, хотя бы вендора?

      > внешний вмеяняемый мониторинг,
      > Не хотел бы слышать "Это не возможно" ( блин, не хотите делать
      > - ставьте запретительные цены)

      Если не сложно, тоже хотелось бы узнать, какой мониторинг является вменяемым?

      сообщить модератору +/ответить
  • что, вы правда проводите маркетинговое исследование на форуме , !*! anonymous (??), 16:26 , 18-Мрт-11 (5)
    > Доброго времени суток.
    > Есть несколько вопросов, касающихся услуг и обслуживающего персонала  датацентра, буду
    > признателен, если кто-нибудь поделится опытом или рекомендациями.

    что, вы правда проводите маркетинговое исследование на форуме?

    сообщить модератору +/ответить
  • ну минимум - это сторудик техническай подддержки - ему поллитра а админа - ем, !*! LSTemp (ok), 04:21 , 27-Апр-11 (10)
    > Доброго времени суток.
    > Есть несколько вопросов, касающихся услуг и обслуживающего персонала  датацентра, буду
    > признателен, если кто-нибудь поделится опытом или рекомендациями.
    > 1. Нормативы нагрузки на технический персонал (сколько серверов должно приходиться на одного
    > дежурного инженера, системного администратора; сколько клиентов — на одного сотрудника
    > технической поддержки)?

    ну минимум - это сторудик техническай подддержки - ему поллитра... а админа - ему ваще... ему наадного никогда в одного не получается - там жопа всегда... нада многа..

    > 2. На базе чего вы бы хотели получать услугу VPS/VDS?

    бул бы пьяным сейчас,  сказал бы тебе прямо - ты за свой "базе" ответишь!

    > 3. На базе какой платформы вы бы хотели арендовать cloud-сервер?

    это первый серьезный вопрос для обдуренного.. нет - обкуренного (не - не курил вроде), пьяного (опять не пил - все техподдержке ушло) и адекватнооого (вооо как завернул!!! есть у кого прикурить?) админа.

    давайтие общаться на платформе дАооверия!

    > 4. Какой комплекс по защите от DDOS-атак вы предпочли бы видеть в
    > датацентре?

    что за глупый вопорос? конечно  - убить всех DDOS-аттакеров. и атакеров тоже - не фиг подмазываться. ну и DOS заодно...

    > 5. Какие сервисы вы хотели бы видеть в перечне услуг датацентра и
    > сколько вы бы желали платить за данные сервисы?

    только порно и только бесплатно. 24/7

    PS
    Вы клевые чуваки. вакцинация есть?  или хотя бы вакханалия..., вакансия может быть... или вакрутасы...?  не  - ни фига не вспомню... спросите у дежурного инженера...


    PSS
    десяток постов прочитал. и это наша промышленность? жуть. я прост в шоке.

    сообщить модератору +/ответить


AIX 5.3 смена пароля из скрипта в /etc/security/passwd, !*! Студент, (AIX) 28-Ноя-11, 13:02  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • а между отдельными username есть пустая строка если есть, то например можно п, !*! anonymous (??), 23:40 , 29-Ноя-11 (1)
    > В файле /etc/security/passwd AIX хранит пароли пользователей в таком виде:
    > username:
    >         password = Q2wUeweGHtbgP
    >         lastupdate = 0123456789

    а между отдельными username: есть пустая строка?

    > У меня есть значения "password" и "lastupdate", от другого пользователя, которые надо
    > подставить для пользователя "username". Как это сделать из скрипта? Что бы
    > скрипт сканировал файл паролей и менял эти значения на те, которые
    > нужно, только для пользователя "username"?

    если есть, то (например) можно перлом читать файл в paragraph mode.

    сообщить модератору +/ответить
    • Пустая строка есть, перл 5 8 8 инсталлирован, но проблема в том, что я его совсе, !*! Студент (??), 06:22 , 30-Ноя-11 (2)
      >> В файле /etc/security/passwd AIX хранит пароли пользователей в таком виде:
      >> username:
      >>         password = Q2wUeweGHtbgP
      >>         lastupdate = 0123456789
      > а между отдельными username: есть пустая строка?
      >> У меня есть значения "password" и "lastupdate", от другого пользователя, которые надо
      >> подставить для пользователя "username". Как это сделать из скрипта? Что бы
      >> скрипт сканировал файл паролей и менял эти значения на те, которые
      >> нужно, только для пользователя "username"?
      > если есть, то (например) можно перлом читать файл в paragraph mode.

      Пустая строка есть, перл 5.8.8 инсталлирован, но проблема в том, что я его совсем не знаю:( На bash-скрипт такое реализовать можно?


      сообщить модератору +/ответить
Оптимизация сервера, !*! doctor, (Увеличение производительнсти) 13-Ноя-11, 15:37  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • gt оверквотинг удален strace пробовали , !*! anonymous (??), 10:33 , 19-Ноя-11 (1)
    >[оверквотинг удален]
    > Есть приложение с закрытым исходным кодом написанное на C в далёких 90-ых,
    > программа прослушивает и обрабатывает сокеты с заданным количеством тактов в секунду.
    > Проблема в том что нужно добиться стабильное и высокое количество тактов, пускай
    > это 1000 тактов в секунду. На деле программа выдаёт очень нестабильное
    > значение которое колеблется от 200 до 1000 тактов. При дебаге проложения
    > задержек не выявлено, приложение считывает сокеты(recvfrom) и спит 1мс(nanosleep). Если
    > собрать rt ядро - приложение выдаст эти 1000 тактов, но высокой
    > ценой.
    > Явно какой-нибудь компонент ядра мешает. Возник вопрос - как получить более подробный
    > отчёт, где возможно будет определить причину задержки.

    strace пробовали?

    сообщить модератору +/ответить
параллельные вычисления, !*! yoga655, (Увеличение производительнсти) 18-Ноя-11, 12:38  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Ну, если ваши приложения понимают что такое MPI или PVM -то можно достаточно про, !*! Square (ok), 18:14 , 18-Ноя-11 (1)
    > Доброго времени суток! Зарание прошу прощения, если моя тема ввела кого то
    > в заблуждение или я выбрал не тот топ.
    > Собственно вопрос : есть компьютер A (ноутбук OS Windows) и есть компьютер
    > B (стационарный OS unix) Вопрос: есть ли возможность использовать ресурсы B
    > на A, а именно процессор, оперативная память. То есть выполнение ресурсоемких
    > приложений на B?

    Ну, если ваши приложения понимают что такое MPI или PVM -то можно достаточно прозрачно, надо только обеспечить выполняемость бинарных файлов в гетерогенннй среде. Обе системы могут это сделать. Есть возможность как выполения юникс программ на виндовс, так и выполнение виндовст программ на юникс, правда с ограничениями.

    Если ваши приложения это что-то вроде приложений erlang -то да, можно.

    Если ваши приложения- это какая-то пакетная обработка - то да, можно.

    Во всех остальных случаях - задачу потребуется решать "вручную" - тоесть либо писать код, либо строить систему для экспорта ресурсов.

    Да, совсем забыл.. терминал-сервер есть такая штука. И прочие варианты проброса консоли или экрана с коипа на комп. Тоже в принципе решение задачи "выполнить ресурсоемкую задачу на другом компе".

    сообщить модератору +/ответить
    • gt оверквотинг удален Благодарю за направление для поисков и изысканий , !*! yoga655 (ok), 20:24 , 18-Ноя-11 (2)
      >[оверквотинг удален]
      > среде. Обе системы могут это сделать. Есть возможность как выполения юникс
      > программ на виндовс, так и выполнение виндовст программ на юникс, правда
      > с ограничениями.
      > Если ваши приложения это что-то вроде приложений erlang -то да, можно.
      > Если ваши приложения- это какая-то пакетная обработка - то да, можно.
      > Во всех остальных случаях - задачу потребуется решать "вручную" - тоесть либо
      > писать код, либо строить систему для экспорта ресурсов.
      > Да, совсем забыл.. терминал-сервер есть такая штука. И прочие варианты проброса консоли
      > или экрана с коипа на комп. Тоже в принципе решение задачи
      > "выполнить ресурсоемкую задачу на другом компе".

      Благодарю за направление для поисков и изысканий.

      сообщить модератору +/ответить
OpenAIS+peacemaker не работает миграция, !*! Madnokia, (Высоконадежные кластеры) 18-Авг-11, 09:25  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Xen Cloud Debian, !*! lioncub, (Виртуализация) 06-Окт-11, 20:22  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
nmon в aix 5.3, !*! Студент, (AIX) 12-Сен-11, 12:56  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • aix пропатчен oslevel -s, sdog (ok), 15:37 , 12-Сен-11 (1) !*!
  • Не Oracle часом на AIX гоняете , ImPressed (ok), 13:29 , 13-Сен-11 (3) !*!
    • Именно его А как это влияет , !*! Студент (??), 13:03 , 14-Сен-11 (5)
      >> Столкнулся на работе с низкой производительностью дисковой подсистемы. Стал анализировать
      >> отчеты nmon, так вот наткнулся на интересную особенность, периодически в отчете,
      >> в disk busy проскакивает значение -1, сразу после значения в 100%.
      >> Что это значит?
      > Не Oracle часом на AIX гоняете?

      Именно его. А как это влияет?

      сообщить модератору +/ответить
      • Прямым образом Тюнинг AIX под Oracle не делали В каком режиме смонтированы пар, !*! ImPressed (ok), 14:05 , 14-Сен-11 (7)
        >>> Столкнулся на работе с низкой производительностью дисковой подсистемы. Стал анализировать
        >>> отчеты nmon, так вот наткнулся на интересную особенность, периодически в отчете,
        >>> в disk busy проскакивает значение -1, сразу после значения в 100%.
        >>> Что это значит?
        >> Не Oracle часом на AIX гоняете?
        > Именно его. А как это влияет?

        Прямым образом. Тюнинг AIX под Oracle не делали? В каком режиме смонтированы партиции с датафайлами, контрольниками и логами вашей БД? Разносили ли на разные диски Redo/Undo/Archivelog/Controlfile/Datafile? Сколько контрольников у вашей БД?

        Запустите statspack на вашей БД, все будет яснее.

        сообщить модератору +/ответить
        • gt оверквотинг удален Из тюнинга делали экспериментировали с aioservers и с м, !*! Студент (??), 07:45 , 15-Сен-11 (8)
          >[оверквотинг удален]
          >>>> отчеты nmon, так вот наткнулся на интересную особенность, периодически в отчете,
          >>>> в disk busy проскакивает значение -1, сразу после значения в 100%.
          >>>> Что это значит?
          >>> Не Oracle часом на AIX гоняете?
          >> Именно его. А как это влияет?
          > Прямым образом. Тюнинг AIX под Oracle не делали? В каком режиме смонтированы
          > партиции с датафайлами, контрольниками и логами вашей БД? Разносили ли на
          > разные диски Redo/Undo/Archivelog/Controlfile/Datafile? Сколько контрольников у вашей
          > БД?
          > Запустите statspack на вашей БД, все будет яснее.

          Из тюнинга делали: экспериментировали с aioservers и с монтированием ФС в режиме dio. Это делали все до меня, я, если честно, еще не совсем разобрался во всем, т.к. работаю несколько дней всего:) Вообще там сделали так: несколько дисков объединили в рейд с целью получения одного большого диска, на нем создали vg, на которой есть раздел под логи и для всего остального - второй раздел.

          сообщить модератору +/ответить
          • gt оверквотинг удален Кстати, aioserver запущен в количестве 500 штук, при том, !*! Студент (??), 07:47 , 15-Сен-11 (9)
            >[оверквотинг удален]
            >> партиции с датафайлами, контрольниками и логами вашей БД? Разносили ли на
            >> разные диски Redo/Undo/Archivelog/Controlfile/Datafile? Сколько контрольников у вашей
            >> БД?
            >> Запустите statspack на вашей БД, все будет яснее.
            > Из тюнинга делали: экспериментировали с aioservers и с монтированием ФС в режиме
            > dio. Это делали все до меня, я, если честно, еще не
            > совсем разобрался во всем, т.к. работаю несколько дней всего:) Вообще там
            > сделали так: несколько дисков объединили в рейд с целью получения одного
            > большого диска, на нем создали vg, на которой есть раздел под
            > логи и для всего остального - второй раздел.

            Кстати, aioserver запущен в количестве 500 штук, при том что процессоров на сервере 16 (8 реальных, 8 виртуальных), на сайте IBM находил статейку, что количество aioserver должно быть равным двукратному количеству процессоров. Может в эту сторону покопать?

            сообщить модератору +/ответить
            • gt оверквотинг удален Когда я в последний раз говорил с саппортом IBM из Слове, !*! ImPressed (ok), 08:23 , 15-Сен-11 (10)
              >[оверквотинг удален]
              >> Из тюнинга делали: экспериментировали с aioservers и с монтированием ФС в режиме
              >> dio. Это делали все до меня, я, если честно, еще не
              >> совсем разобрался во всем, т.к. работаю несколько дней всего:) Вообще там
              >> сделали так: несколько дисков объединили в рейд с целью получения одного
              >> большого диска, на нем создали vg, на которой есть раздел под
              >> логи и для всего остального - второй раздел.
              > Кстати, aioserver запущен в количестве 500 штук, при том что процессоров на
              > сервере 16 (8 реальных, 8 виртуальных), на сайте IBM находил статейку,
              > что количество aioserver должно быть равным двукратному количеству процессоров. Может
              > в эту сторону покопать?

              Когда я в последний раз говорил с саппортом IBM из Словении, они рекомендовали установить число AIO серверов по формуле NCPU*4 И увеличить число запросов на асинхронный ввод/вывод обрабатываемое одним сервером(сказали подобрать эмпирически это число). Файловые системы я так понимаю у вас JFS2? Для JFS2 режим DIO объявлен устаревшим и использоваться не должен, он только для JFSv1. Для вас нужен режим CIO. Из скольки LUN собран RAID и откуда взяты эти LUN? Если LUN взяты с самого сервера ( встроенные диски сервера), то я бы порекомендовал отказаться от их использования ввиду крайней тормознутости встроенных в сервер контроллеров. Также для распараллеливания записи на диски можно увеличить число DBW-процессов в оракле.

              сообщить модератору +/ответить
              • Да, ФС JFS2 С AIO серверами и CIO будем экспериментировать, а что касается диск, !*! Студент (??), 05:59 , 19-Сен-11 (11)
                > Когда я в последний раз говорил с саппортом IBM из Словении, они
                > рекомендовали установить число AIO серверов по формуле NCPU*4 И увеличить число
                > запросов на асинхронный ввод/вывод обрабатываемое одним сервером(сказали подобрать эмпирически
                > это число). Файловые системы я так понимаю у вас JFS2? Для
                > JFS2 режим DIO объявлен устаревшим и использоваться не должен, он только
                > для JFSv1. Для вас нужен режим CIO. Из скольки LUN собран
                > RAID и откуда взяты эти LUN? Если LUN взяты с самого
                > сервера ( встроенные диски сервера), то я бы порекомендовал отказаться от
                > их использования ввиду крайней тормознутости встроенных в сервер контроллеров. Также для
                > распараллеливания записи на диски можно увеличить число DBW-процессов в оракле.

                Да, ФС JFS2. С AIO серверами и CIO будем экспериментировать, а что касается дисков то они, вроде бы, работают через Fibre Channel. Более подоробно я даже сказать сейчас не могу, ибо попросту не знаю...

                сообщить модератору +/ответить
                • gt оверквотинг удален Дисковый массив не производства IBM случаем У нас были , !*! ImPressed (ok), 11:19 , 19-Сен-11 (12)
                  >[оверквотинг удален]
                  >> это число). Файловые системы я так понимаю у вас JFS2? Для
                  >> JFS2 режим DIO объявлен устаревшим и использоваться не должен, он только
                  >> для JFSv1. Для вас нужен режим CIO. Из скольки LUN собран
                  >> RAID и откуда взяты эти LUN? Если LUN взяты с самого
                  >> сервера ( встроенные диски сервера), то я бы порекомендовал отказаться от
                  >> их использования ввиду крайней тормознутости встроенных в сервер контроллеров. Также для
                  >> распараллеливания записи на диски можно увеличить число DBW-процессов в оракле.
                  > Да, ФС JFS2. С AIO серверами и CIO будем экспериментировать, а что
                  > касается дисков то они, вроде бы, работают через Fibre Channel. Более
                  > подоробно я даже сказать сейчас не могу, ибо попросту не знаю...

                  Дисковый массив не производства IBM случаем? У нас были проблемы с их стораджем DS6800. Оно тоже подключалось через SAN по оптике. После продолжительного копания и выяснения причин, получилось что оно больше 30 мб/с псп дать не может, ибо умеет только RAID5, о котором Oracle во всех гайдах говорит - ни когда не используйте, отсутствием кеша  под чтение/запись ( точнее он там есть,но на наши 48 дисков его там было всего-лишь около 500 мб). Как мы не бились - оттюнинговать нам даже саппорт из IBM (со Словении приезжали дядьки) не смогли.

                  Поговорите с вашим DBA, пусть запустит STATSPACK на вашей БД и проанализирует результаты. Так оно будет проще выяснить причину, чем тыкать пальцем в небо.

                  сообщить модератору +/ответить
                  • gt оверквотинг удален Спасибо за советы Будем работать, а если еще вопросы в, !*! Студент (??), 06:35 , 23-Сен-11 (13)
                    >[оверквотинг удален]
                    > копания и выяснения причин, получилось что оно больше 30 мб/с псп
                    > дать не может, ибо умеет только RAID5, о котором Oracle во
                    > всех гайдах говорит - ни когда не используйте, отсутствием кеша  
                    > под чтение/запись ( точнее он там есть,но на наши 48 дисков
                    > его там было всего-лишь около 500 мб). Как мы не бились
                    > - оттюнинговать нам даже саппорт из IBM (со Словении приезжали дядьки)
                    > не смогли.
                    > Поговорите с вашим DBA, пусть запустит STATSPACK на вашей БД и проанализирует
                    > результаты. Так оно будет проще выяснить причину, чем тыкать пальцем в
                    > небо.

                    Спасибо за советы:) Будем работать, а если еще вопросы возникнут, то я сразу в гугл, а потом сюда)))

                    сообщить модератору +/ответить


Solaris 10 родной ldap-клиент., !*! Alexandro, (Solaris) 22-Авг-08, 15:53  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • 1 Собственно я делал - но с использованием ldap profiles Клиенты - solaris 10, !*! tungus (??), 02:45 , 23-Авг-08 (1)
    1. Собственно я делал - но с использованием ldap profiles. Клиенты  - solaris 10 sparc & x86

    Добавить в openldap ldap scheme:
    Updated to match RFC 4876 2007-2007
    # http://www.rfc-editor.org/rfc/rfc4876.txt
    objectIdentifier      DUAConfSchemaOID        1.3.6.1.4.1.11.1.3.1

    attributetype ( DUAConfSchemaOID:1.0 NAME 'defaultServerList'
                DESC 'Default LDAP server host address used by a DUA'
                EQUALITY caseIgnoreMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.15
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.1 NAME 'defaultSearchBase'
                DESC 'Default LDAP base DN used by a DUA'
                EQUALITY distinguishedNameMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.12
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.2 NAME 'preferredServerList'
                DESC 'Preferred LDAP server host addresses to be used by a
                DUA'
                EQUALITY caseIgnoreMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.15
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.3 NAME 'searchTimeLimit'
                DESC 'Maximum time in seconds a DUA should allow for a
                search to complete'
                EQUALITY integerMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.27
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.4 NAME 'bindTimeLimit'
                DESC 'Maximum time in seconds a DUA should allow for the
                bind operation to complete'
                EQUALITY integerMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.27
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.5 NAME 'followReferrals'
                DESC 'Tells DUA if it should follow referrals
                returned by a DSA search result'
                EQUALITY caseIgnoreIA5Match
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.26
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.6 NAME 'authenticationMethod'
                DESC 'A keystring which identifies the type of
                authentication method used to contact the DSA'
                EQUALITY caseIgnoreMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.15
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.7 NAME 'profileTTL'
                DESC 'Time to live, in seconds, before a client DUA
                should re-read this configuration profile'
                EQUALITY integerMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.27
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.9 NAME 'attributeMap'
                DESC 'Attribute mappings used by a DUA'
                EQUALITY caseIgnoreIA5Match
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.26 )

    attributetype ( DUAConfSchemaOID:1.10 NAME 'credentialLevel'
                DESC 'Identifies type of credentials a DUA should
                use when binding to the LDAP server'
                EQUALITY caseIgnoreIA5Match
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.26
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.11 NAME 'objectclassMap'
                DESC 'Objectclass mappings used by a DUA'
                EQUALITY caseIgnoreIA5Match
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.26 )

    attributetype ( DUAConfSchemaOID:1.12 NAME 'defaultSearchScope'
                DESC 'Default search scope used by a DUA'
                EQUALITY caseIgnoreIA5Match
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.26
                SINGLE-VALUE )

    attributetype ( DUAConfSchemaOID:1.13 NAME 'serviceCredentialLevel'
                DESC 'Identifies type of credentials a DUA
                should use when binding to the LDAP server for a
                specific service'
                EQUALITY caseIgnoreIA5Match
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.26 )

    attributetype ( DUAConfSchemaOID:1.14 NAME 'serviceSearchDescriptor'
                DESC 'LDAP search descriptor list used by a DUA'
                EQUALITY caseExactMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.15 )

    attributetype ( DUAConfSchemaOID:1.15 NAME 'serviceAuthenticationMethod'
                DESC 'Authentication method used by a service of the DUA'
                EQUALITY caseIgnoreMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.15 )

    attributeTypes: ( DUAConfSchemaOID:1.16 NAME 'dereferenceAliases'
                DESC 'Specifies if a service or agent either requires, supports, or uses dereferencing of aliases.'
                EQUALITY booleanMatch
                SYNTAX 1.3.6.1.4.1.1466.115.121.1.7 )

    objectclass ( DUAConfSchemaOID:2.5 NAME 'DUAConfigProfile'
              SUP top STRUCTURAL
              DESC 'Abstraction of a base configuration for a DUA'
              MUST ( cn )
              MAY ( defaultServerList $ preferredServerList $
                    defaultSearchBase $ defaultSearchScope $
                    searchTimeLimit $ bindTimeLimit $
                    credentialLevel $ authenticationMethod $
                    followReferrals $ serviceSearchDescriptor $
                    serviceCredentialLevel $ serviceAuthenticationMethod $
                    objectclassMap $ attributeMap $
                    profileTTL $ dereferenceAliases ) )

    objectclass ( DUAConfSchemaOID:2.1 NAME 'posixNamingProfile'
          SUP top AUXILIARY
          DESC 'POSIX naming profile'
          MAY ( attributeMap $ serviceSearchDescriptor ) )

    objectclass ( DUAConfSchemaOID:2.2 NAME 'configurationProfile'
          SUP top AUXILIARY
          DESC 'Configuration profile'
          MUST ( cn )
          MAY ( attributeMap $ serviceSearchDescriptor ) )

    # depends on nis.schema
    # See http://docs.sun.com/app/docs/doc/816-4556/appendixa-2,
    # http://docs.hp.com/en/J4269-90074/ch04s02.html

    attributetype ( 1.3.6.1.1.1.1.1.30 NAME 'nisDomain'
           DESC 'NIS domain'
           EQUALITY caseIgnoreIA5Match
           SYNTAX 1.3.6.1.4.1.1466.115.121.1.26 )

    objectclass ( 1.3.6.1.1.1.2.15 NAME 'nisDomainObject'
          SUP top AUXILIARY
          DESC 'Associates a NIS domain with a naming context'
          MUST ( nisDomain ) )

    attributetype ( 1.3.6.1.1.1.1.31 NAME 'automountMapName'
          DESC 'automount Map Name'
          EQUALITY caseExactMatch
          SYNTAX 1.3.6.1.4.1.1466.115.121.1.15
          SINGLE-VALUE )

    attributetype ( 1.3.6.1.1.1.1.32 NAME 'automountKey'
          DESC 'Automount Key value'
          EQUALITY caseExactMatch
          SYNTAX 1.3.6.1.4.1.1466.115.121.1.15
          SINGLE-VALUE )

    attributetype ( 1.3.6.1.1.1.1.33 NAME 'automountInformation'
          DESC 'Automount information'
          EQUALITY caseExactMatch
          SYNTAX 1.3.6.1.4.1.1466.115.121.1.15
          SINGLE-VALUE )

    objectclass (1.3.6.1.1.1.2.16 NAME 'automountMap'
          SUP top STRUCTURAL
          MUST ( automountMapName )
          MAY description )

    objectclass ( 1.3.6.1.1.1.2.17 NAME 'automount'
          SUP top STRUCTURAL
          DESC 'Automount'
          MUST ( automountKey $ automountInformation )
          MAY description )

    2. Начальный ldiff:

    dn: ou=Ldap,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Ldap
    description: Ldap Users

    dn: cn=Solaris,ou=Ldap,dc=someorg
    cn: Solaris
    objectClass: simpleSecurityObject
    objectClass: organizationalRole
    objectClass: top
    userPassword:: e1NTSEF9UzJSbGlpWG0wR09MTFhEall0UldDMTBFd1dJSks1RTdLempLUFE9PQ=
    =

    dn: ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    objectClass: nisDomainObject
    ou: Posix
    l: None
    nisDomain: someorg

    dn: ou=Computers,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Computers

    dn: ou=Idmap,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Idmap

    dn: sambaDomainName=SOMEORG,ou=Posix,dc=someorg
    objectClass: sambaDomain
    objectClass: sambaUnixIdPool
    objectClass: top
    sambaDomainName: SOMEORG
    sambaSID: S-1-5-21-2324298634-3382198163-123456789
    sambaRefuseMachinePwdChange: 0
    sambaLockoutThreshold: 0
    sambaMinPwdAge: 0
    sambaMinPwdLength: 5
    sambaLogonToChgPwd: 0
    sambaMaxPwdAge: -1
    sambaForceLogoff: -1
    gidNumber: 1004
    sambaPwdHistoryLength: 5
    uidNumber: 1028
    sambaNextRid: 1015

    dn: ou=Rpc,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Rpc

    dn: ou=Protocols,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Protocols

    dn: ou=Profile,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Profile

    dn: ou=Networks,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Networks

    dn: ou=Netgroup,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Netgroup

    dn: ou=Mounts,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Mounts

    dn: ou=Aliases,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Aliases

    dn: ou=Ethers,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Ethers

    dn: ou=Hosts,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Hosts

    dn: ou=Services,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Services

    dn: ou=Group,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: Group

    dn: ou=People,ou=Posix,dc=someorg
    objectClass: organizationalUnit
    objectClass: top
    ou: People

    dn: automountMapName=auto_home,ou=Posix,dc=someorg
    automountMapName: auto_home
    objectClass: automountMap
    objectClass: top

    dn: automountMapName=auto_master,ou=Posix,dc=someorg
    automountMapName: auto_master
    objectClass: automountMap
    objectClass: top

    dn: cn=Solaris,ou=Profile,ou=Posix,dc=someorg
    objectClass: DUAConfigProfile
    objectClass: top
    cn: Solaris
    defaultSearchBase: ou=Posix,dc=someorg
    defaultServerList: 10.1.2.10
    bindTimeLimit: 2
    searchTimeLimit: 30
    followReferrals: TRUE
    credentialLevel: proxy anonymous
    authenticationMethod: simple
    defaultSearchScope: sub
    profileTTL: 3600

    dn: cn=Padl,ou=Profile,ou=Posix,dc=someorg
    objectClass: DUAConfigProfile
    objectClass: posixNamingProfile
    objectClass: top
    cn: Padl
    defaultSearchScope: one
    defaultServerList: ldap.someorg
    serviceSearchDescriptor: aliases:ou=Aliases,dc=Posix,dc=someorg
    serviceSearchDescriptor: fstab:ou=Mounts,dc=Posix,dc=someorg
    serviceSearchDescriptor: group:ou=Group,dc=Posix,dc=someorg
    serviceSearchDescriptor: hosts:ou=Hosts,dc=Posix,dc=someorg
    serviceSearchDescriptor: netgroup:ou=Netgroup,dc=Posix,dc=someorg
    serviceSearchDescriptor: networks:ou=Networks,dc=Posix,dc=someorg
    serviceSearchDescriptor: passwd:ou=People,dc=Posix,dc=someorg
    serviceSearchDescriptor: protocols:ou=Protocols,dc=Posix,dc=someorg
    serviceSearchDescriptor: rpc:ou=Rpc,dc=Posix,dc=someorg
    serviceSearchDescriptor: services:ou=Services,dc=Posix,dc=someorg
    defaultSearchBase: ou=Posix,dc=someorg

    dn: cn=default,ou=Profile,ou=Posix,dc=someorg
    aliasedObjectName: cn=Solaris,ou=Profile,ou=Posix,dc=someorg
    cn: default
    objectClass: extensibleObject
    objectClass: alias
    objectClass: top
    credentialLevel: proxy
    profileTTL: 600

    dn: cn=Solaris_pam_ldap,ou=Profile,ou=Posix,dc=someorg
    cn: Solaris_pam_ldap
    objectClass: DUAConfigProfile
    objectClass: top
    authenticationMethod: none
    bindTimeLimit: 2
    credentialLevel: anonymous
    defaultSearchBase: ou=Posix,dc=someorg
    defaultSearchScope: sub
    followReferrals: TRUE
    searchTimeLimit: 30
    serviceAuthenticationMethod: pam_ldap:simple
    serviceAuthenticationMethod: passwd-cmd:simple
    preferredServerList: 10.1.2.10
    defaultServerList: 10.1.2.250
    profileTTL: 3600

    dn: cn=Solaris_pam_ldap_tls,ou=Profile,ou=Posix,dc=someorg
    bindTimeLimit: 2
    cn: Solaris_pam_ldap_tls
    defaultSearchBase: ou=Posix,dc=someorg
    defaultSearchScope: sub
    followReferrals: TRUE
    objectClass: DUAConfigProfile
    objectClass: top
    searchTimeLimit: 30
    serviceAuthenticationMethod: passwd-cmd:tls:simple
    serviceAuthenticationMethod: pam_ldap:tls:simple
    profileTTL: 3600
    preferredServerList: ldap.someorg
    credentialLevel: proxy
    authenticationMethod: tls:simple
    defaultServerList: 10.1.2.10

    dn: automountKey=*,automountMapName=auto_home,ou=Posix,dc=someorg
    automountKey: *
    objectClass: automount
    objectClass: top
    automountInformation: -fstype=nfs,vers=3 somehost:/home/&

    3. Нужно поправить /etc/nsswitch.ldap, например минималистичный вариант:
    passwd:     files ldap
    group:      files ldap
    hosts:      files dns
    ipnodes:    files dns
    networks:   files
    protocols:  files
    rpc:        files
    ethers:     files
    netmasks:   files
    bootparams: files
    publickey:  files
    netgroup:   ldap
    automount:  files
    aliases:    files
    services:   files
    printers:   user files
    auth_attr:  files
    prof_attr:  files
    project:    files
    tnrhtp:     files
    tnrhdb:     files

    4. Поправить /etc/pam.conf согласно System Administration Guide: Naming and Directory Services (DNS, NIS, and LDAP) http://docs.sun.com/app/docs/doc/816-4556/schemas-111

    5. Импортировать корневой сертификат:
    /usr/sfw/bin/certutil -N -d /var/ldap
    /usr/sfw/bin/certutil -A -n "ca-cert" -i /tmp/root.pem -a -t CT -d /var/ldap
    chmod 444 /var/ldap/*.db

    6. Включить использование ldap
    ldapclient -v init -a profileName=Solaris_pam_ldap_tls -a domainName=someorg -a proxyDN="cn=Solaris,ou=Ldap,dc=someorg" -a proxyPassword="solaris" ldap.ot.by

    Замечания:
    a) При использовании профиля Solaris_pam_ldap_tls аутентификация осуществляется с помощью ldap bind.
    b) Используются два (мастер/слэйв) сервера  - ldap.someorg и 10.1.2.10.
    c) Т.к. используется ldap bind, то cn=Solaris,ou=Ldap,dc=someorg не нужны какие-то дополнительные права (на чтение userpasswd и т.д.) - достаточно анонимных прав.

    сообщить модератору +/ответить
    • Вот эта фигня из за того что при запуске команды ldapclient файл etc nsswitch l, !*! Имя (?), 18:16 , 19-Сен-11 (2)
      > start: network/ldap/client:default... timed out
      > start: network/ldap/client:default... offline to disable

      Вот эта фигня из за того что при запуске команды ldapclient файл /etc/nsswitch.ldap копируется в /etc/nsswitch.conf. В итоге хосты начинают резолвиться через LDAP, где конечно же записей нет. Как результат клиент не может достучаться до сервера и не стартует.
      Что делать - описано в пункте 3 предыдущего поста.

      А вообще заставить нативный клиент (аффтар предыдущего поста использует не его, а PADL) ходить только по TLS мне так и не удалось. Т.е. похоже, что соединение он поддерживает по 389 порту, но все обращения: поиск, авторизация идут по 636, а там TLS и все как положено.

      А по 389 сыплется вот такая шняга в лог:
      conn=1022 fd=17 ACCEPT from IP=192.168.100.63:33168 (IP=0.0.0.0:389)
      conn=1022 op=0 SRCH base="" scope=0 deref=0 filter="(objectClass=*)"
      conn=1022 op=0 SRCH attr=supportedControl supportedsaslmechanisms
      conn=1022 op=0 SEARCH RESULT tag=101 err=0 nentries=1 text=
      conn=1022 op=1 UNBIND
      conn=1022 fd=17 closed

      Остальное через ТЛС. Но в общем неплохо! =)

      сообщить модератору +/ответить
proxmox-ve & trunk+vlan, !*! an on ym, (Виртуализация) 16-Сен-11, 15:06  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
виснет сервер, !*! Aliso, (Увеличение наджности) 23-Май-08, 10:48  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Твоему серверу некогда размениваться на всякие ssh подключения с таким уровнем з, !*! BlackHat (?), 11:07 , 23-Май-08 (1)
    >load average: 97.05, 33.10, 18.26

    Твоему серверу некогда размениваться на всякие ssh подключения с таким уровнем загрузки, кривой вывод top`a не видно кто сколько процессорного времени потребляет, но кажется все в пределах нормы. Top странный како-то на BSD`шный не похож, >99.3%wa< может в этом проблема, uname -a, dmesg, sockstat, и прочее показал бы.

    сообщить модератору +/ответить
    • он linux овый open suseно как в итоге выясняется проблема с жесткими дисками , !*! Aliso (?), 11:20 , 23-Май-08 (2)
      >>load average: 97.05, 33.10, 18.26
      >
      >Твоему серверу некогда размениваться на всякие ssh подключения с таким уровнем загрузки, кривой вывод top`a не видно кто сколько процессорного времени потребляет, но кажется все в пределах нормы. Top странный како-то на BSD`шный не похож, >99.3%wa< может в этом проблема, uname -a, dmesg, sockstat, и прочее показал бы.

      он linux'овый open suse
      но как в итоге выясняется проблема с жесткими дисками.

      сообщить модератору +/ответить
      • То же самое, debian squeeze, очередь из запросов на запись - сервер виснет Рас, !*! Сергей (??), 13:50 , 16-Мрт-11 (3)
        >>>load average: 97.05, 33.10, 18.26
        >>
        >>Твоему серверу некогда размениваться на всякие ssh подключения с таким уровнем загрузки, кривой вывод top`a не видно кто сколько процессорного времени потребляет, но кажется все в пределах нормы. Top странный како-то на BSD`шный не похож, >99.3%wa< может в этом проблема, uname -a, dmesg, sockstat, и прочее показал бы.
        > он linux'овый open suse
        > но как в итоге выясняется проблема с жесткими дисками.

        То же самое, debian squeeze, очередь из запросов на запись -> сервер виснет. Расскажи, как вычислил проблему и в чем решение!!!

        сообщить модератору +/ответить
        • Может что-то с железом , !*! 111 (??), 08:22 , 08-Сен-11 (4)
          Может что-то с железом ????
          сообщить модератору +/ответить
          • проблема не решена, на самом деле, но как-то само собой спАла С железом все нор, !*! Сергей (??), 09:39 , 08-Сен-11 (5)
            > Может что-то с железом ????

            проблема не решена, на самом деле, но как-то само собой спАла. С железом все нормально. стоят три виртуалки на vserver.

            если начать, например, копирование какого-нибудь большого файла, или другим образом дать большую нагрузку - диски падают в busy (atop), load average: ~30 (top), и веб-морда перестает отдавать страницы.

            в один прекрасный день мне пришло письмо от mdadm (как еще догадался поставить свой е-маил при настройке mdadm!), что рейд у вас упал (типа повреждение массива, точную формулировку не вспомню). думали, сгорел винт. при выяснении с саппортом оказалось, что сдохла шина. поменяли платформу. после этого стало лучше, но все равно не решилась проблема.

            сообщить модератору +/ответить
Установка ОС на IBM Power 710, !*! booro, (Серверные платформы) 24-Авг-11, 20:10  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • спрашивайте на aixportal ru, !*! anonymous (??), 23:07 , 25-Авг-11 (1)
    > Сервер без графической карты. Поставил HMC 7.3.0 на виртуалку, но что-то не
    > могу понять, как оттуда попасть в SMS через эмулятор терминала. Такое
    > вообще возможно? Или d-shell-rj45 обязателен? От циски не подходит, а оригинальный
    > придется подождать.

    спрашивайте на aixportal.ru

    сообщить модератору +/ответить
Древний Sun 220r - как определить его MAC-адрес?, !*! qvartz, (Серверные платформы) 16-Авг-11, 14:01  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
настройка DNS, !*! glukaviy, (Увеличение наджности) 05-Июл-11, 13:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • gt оверквотинг удален если проводок от того же провайдера - берите самый дешев, !*! rusadmin (ok), 15:15 , 05-Июл-11 (1) +1
    >[оверквотинг удален]
    > Есть Сервер на нем стоит 2003 Server, крутиться IIS. На серваке прописан
    > праймари ДНС и соотвественно сайт лежит, секондари прописан у провайдера. Но
    > так как частенько бывает перебои с инетом, а сайт должен работать
    > всегда, то как следствиее решили подвести еще один проводок и поставить
    > 2й интерфейс. Естественно ip будут разные.
    > Сообственно вопрос как сделать так чтобы сайт работал при подключении разных провайдеров.
    > решения написанного от и до не прошу, хотелось бы хотябы идеи какие.
    > И прошу не пишите пожалуйста, выкинь 2003 server поставь юниксо подобную систему...
    > не получиться ибо начальство хочет так да и сайт сам написан
    > на ASP

    если проводок от того же провайдера - берите самый дешевый каталист, либой другой коммутатор, поддерживающий spanning-tree и заводите линки в него. Т.е. при падении одного линка STP поднимет другой. А для вашего сервера перерыв  связи будет максимум 10 сек.
    В этой схеме IP у вас будет один. И интерфейс у сервера один

    сообщить модератору +1 +/ответить
    • gt оверквотинг удален ИМХО совсем-совсем неверное решение , !*! VolanD (ok), 13:30 , 15-Июл-11 (4)
      >[оверквотинг удален]
      >> решения написанного от и до не прошу, хотелось бы хотябы идеи какие.
      >> И прошу не пишите пожалуйста, выкинь 2003 server поставь юниксо подобную систему...
      >> не получиться ибо начальство хочет так да и сайт сам написан
      >> на ASP
      > если проводок от того же провайдера - берите самый дешевый каталист, либой
      > другой коммутатор, поддерживающий spanning-tree и заводите линки в него. Т.е. при
      > падении одного линка STP поднимет другой. А для вашего сервера перерыв
      >  связи будет максимум 10 сек.
      > В этой схеме IP у вас будет один. И интерфейс у сервера
      > один

      ИМХО совсем-совсем неверное решение!

      сообщить модератору +/ответить
  • gt оверквотинг удален Одно из решений, купить пул провайдеронезависимых адресо, !*! Puk (?), 17:12 , 05-Июл-11 (2)
    >[оверквотинг удален]
    > Есть Сервер на нем стоит 2003 Server, крутиться IIS. На серваке прописан
    > праймари ДНС и соотвественно сайт лежит, секондари прописан у провайдера. Но
    > так как частенько бывает перебои с инетом, а сайт должен работать
    > всегда, то как следствиее решили подвести еще один проводок и поставить
    > 2й интерфейс. Естественно ip будут разные.
    > Сообственно вопрос как сделать так чтобы сайт работал при подключении разных провайдеров.
    > решения написанного от и до не прошу, хотелось бы хотябы идеи какие.
    > И прошу не пишите пожалуйста, выкинь 2003 server поставь юниксо подобную систему...
    > не получиться ибо начальство хочет так да и сайт сам написан
    > на ASP

    Одно из решений, купить пул провайдеронезависимых адресов.

    Второе решение, настройка round robin в ДНС, но при падении одного прова кого то будет направлять на один адрес, а кого-то на другой, который будет не работать.

    сообщить модератору +/ответить
  • На каждом интерфейсе ДНС должен выдавать IP этого же интерфейса на запрос ip-ад, !*! Etch (?), 07:41 , 06-Июл-11 (3)
    > решения написанного от и до не прошу, хотелось бы хотябы идеи какие.

    На каждом интерфейсе ДНС должен выдавать IP этого же интерфейса (на запрос ip-адреса вашего сайта). Тогда при падении одного из линков клиенты гарантировано будут получать ответ от ДНС-сервера на нужном интерфейсе, который гарантировано выдаст правильный IP. Только TTL нужно поставить маленький, иначе кэширование будет портить всю схему.

    Естественно, никаких слейвов быть не должно, все ДНС-серверы должны стоять только на компе с веб-сайтом.

    сообщить модератору +/ответить
  • gt оверквотинг удален Заключите с провайдером SLA или разместите свой сервер у, !*! anonymous (??), 19:31 , 14-Авг-11 (5)
    >[оверквотинг удален]
    > Есть Сервер на нем стоит 2003 Server, крутиться IIS. На серваке прописан
    > праймари ДНС и соотвественно сайт лежит, секондари прописан у провайдера. Но
    > так как частенько бывает перебои с инетом, а сайт должен работать
    > всегда, то как следствиее решили подвести еще один проводок и поставить
    > 2й интерфейс. Естественно ip будут разные.
    > Сообственно вопрос как сделать так чтобы сайт работал при подключении разных провайдеров.
    > решения написанного от и до не прошу, хотелось бы хотябы идеи какие.
    > И прошу не пишите пожалуйста, выкинь 2003 server поставь юниксо подобную систему...
    > не получиться ибо начальство хочет так да и сайт сам написан
    > на ASP

    Заключите с провайдером SLA или разместите свой сервер у хостера/провайдера на co-location. Остальные варианты либо достаточно геморройные, либо не обеспечивают достаточной отказоустойчивости, имхо.

    сообщить модератору +/ответить
Оптимизация сетевой карты и DMA режим, !*! oasjdfioasjdf, (Сетевое оборудование) 24-Июн-11, 12:56  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • возможности оптимизации описаны в документации на драйвер e1000http www intel , !*! anonymous (??), 22:09 , 24-Июн-11 (1)
    > в последнее время сетевая карта на веб сервере перестала справляться с нагрузкой
    > Подскажите какие есть возможности оптимизации и как проверить включен ли DMA режим?
    > CentOS, kernel 2.6.18, сетевая карта интегрированная, материнка TYAN i5100X S771

    возможности оптимизации описаны в документации на драйвер e1000

    http://www.intel.com/support/network/sb/CS-009209.htm

    сообщить модератору +/ответить
  • Некоторые параметры можно регулировать при помощи утилиты ethtool Например, на , !*! Дядя_Федор (?), 22:43 , 24-Июн-11 (2)
    Некоторые параметры можно регулировать при помощи утилиты ethtool. Например, на гиговых линках вместо дефолтных RX/TX выставить их (при помощи ключа -G) в максимальные 4096. Можно еще выставить очередь побольше txqueuelen - по дефолту она ставится в 1000. ifconfig-ом можно увеличить до 5000, например. тем же ethtool можно посмотреть статистику сетевой карты. Вот, например, у меня на гиговом линке (стоит поток в 250 Мбит - файлопомойка, в пике бывает под 800):
    ethtool -S eth0
    NIC statistics:
         rx_packets: 5340661595
         tx_packets: 10477922476
         rx_bytes: 936904612202
         tx_bytes: 15475615496524
         rx_broadcast: 67824
         tx_broadcast: 1
         rx_multicast: 199
         tx_multicast: 0
         rx_errors: 2
         tx_errors: 0
         tx_dropped: 0
         multicast: 199
         collisions: 0
         rx_length_errors: 0
         rx_over_errors: 0
         rx_crc_errors: 1
         rx_frame_errors: 0
         rx_no_buffer_count: 0
         rx_missed_errors: 0
         tx_aborted_errors: 0
         tx_carrier_errors: 0
         tx_fifo_errors: 0
         tx_heartbeat_errors: 0
         tx_window_errors: 0
         tx_abort_late_coll: 0
         tx_deferred_ok: 0
         tx_single_coll_ok: 0
         tx_multi_coll_ok: 0
         tx_timeout_count: 0
         tx_restart_queue: 0
         rx_long_length_errors: 0
         rx_short_length_errors: 0
         rx_align_errors: 0
         tx_tcp_seg_good: 1144725332
         tx_tcp_seg_failed: 0
         rx_flow_control_xon: 0
         rx_flow_control_xoff: 0
         tx_flow_control_xon: 0
         tx_flow_control_xoff: 0
         rx_long_byte_count: 936904612202
         rx_csum_offload_good: 5340575116
         rx_csum_offload_errors: 573
         rx_header_split: 0
         alloc_rx_buff_failed: 0
         tx_smbus: 0
         rx_smbus: 67878
         dropped_smbus: 0
         rx_dma_failed: 0
         tx_dma_failed: 0
    Можно еще с настройками сетевого стека пограться. У меня во чего в sysctl.conf:
    net.core.rmem_max=1000000
    net.core.wmem_max=1000000
    net.ipv4.tcp_rmem=4096 87380 1000000
    net.ipv4.tcp_wmem=4096 65536 1000000
    net.ipv4.tcp_no_metrics_save = 1
    net.core.netdev_max_backlog = 2500
    Можно использовать другие Congession Control Algorithms - http://linuxgazette.net/135/pfeiffer.html Ну и до кучи - http://fasterdata.es.net/fasterdata/host-tuning/linux/ А вообще сетевуха обычно вешается не от величины трафика а по PPS - посмотреть можно при помощи iptraf (например). Ну и прерывание каждой сетевухи надо вешать на отдельное ядро (в случае многоядерности) - используя аффинити - http://www.linuxjournal.com/article/6799 В общем - задача комплексная. И творческая. :) Тут главное не перемудрить.
    сообщить модератору +/ответить
No HDD + iSCSI Storage, !*! ciwl, (Аппаратное обеспечение) 12-Апр-11, 03:19  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Если у тебя биос может загружать операционку с iSCSI-диска то почему бы и нет , !*! a2l (?), 07:05 , 12-Апр-11 (1)
    > Можно ли подключить iSCSI-хранилище к серверу у которого нет собственных дисков и
    > лишь потом ставить ОС? Если да, то какие грабли есть?

    Если у тебя биос может загружать операционку с iSCSI-диска то почему бы и нет?


    сообщить модератору +/ответить
  • Ну а почему же нельзя Если смогли загрузить ядро - примонтировать можно что уго, !*! Square (ok), 05:05 , 22-Апр-11 (4)
    > Можно ли подключить iSCSI-хранилище к серверу у которого нет собственных дисков и
    > лишь потом ставить ОС?

    Ну а почему же нельзя? Если смогли загрузить ядро - примонтировать можно что угодно...

    >Если да, то какие грабли есть?

    Грабля будет одна но зато какая... :) Быстродействие вашего дискового массива...
    Особенно прикольно своп по сети гонять...

    AoE говорят намного быстрее...

    сообщить модератору +/ответить
    • Да почитал уже в разных источниках, никто так не делает, значит и мне незачем В, !*! ciwl (ok), 10:32 , 22-Апр-11 (5)
      > Ну а почему же нельзя? Если смогли загрузить ядро - примонтировать можно
      > что угодно...
      > Грабля будет одна но зато какая... :) Быстродействие вашего дискового массива...
      > Особенно прикольно своп по сети гонять...
      > AoE говорят намного быстрее...

      Да почитал уже в разных источниках, никто так не делает, значит и мне незачем. Всё-таки у хост-системы должен быть собственный локальный диск.

      Встал другой вопрос, вернее 2:
      iSCSI target: hardware vs software
      iSCSI initiator: hardware vs software

      Понятно, что если не смотреть не цену, то "железные" решения впереди. Однако, на цену тоже приходится смотреть. Особенно в случае, если нагрузка не очень большая, однако требуется солидный запас прочности (какой именно не могу сказать, т.к. не во все вопросы посвящен). Схема: физ. 2-3 сервера, порядка 10 виртуальные на Xen Advanced. Фича HA требует расшаренного хранилища. Вот и смотрю в сторону iSCSI. Сервера - несколько (4-5) веб, почтовый (до 100 пользователей), общая служебная БД (думаю по внутреннему виртуальному интерфейсу соединить), ещё несколько служебных без особой нагрузки (NS, SS, мониторинг).

      Так вот, ~30к за iscsi hba адаптер - довольно дорого. вот с хранилищем - тут хз. с одной стороны можно взять брендовый сервак попроще и прикупить к нему RAID и SAS диски и сделать свой target, с другой стороны ~150к можно прикупить начального уровня аппаратное решение, что будет не сильно дороже программного.

      сообщить модератору +/ответить
      • На самом деле - не должен можно грузить ядро по сети PXE gt оверквотинг уда, !*! a2l (?), 12:40 , 22-Апр-11 (6)
        >> Ну а почему же нельзя? Если смогли загрузить ядро - примонтировать можно
        >> что угодно...
        >> Грабля будет одна но зато какая... :) Быстродействие вашего дискового массива...
        >> Особенно прикольно своп по сети гонять...
        >> AoE говорят намного быстрее...
        > Да почитал уже в разных источниках, никто так не делает, значит и
        > мне незачем. Всё-таки у хост-системы должен быть собственный локальный диск.

        На самом деле - не должен: можно грузить ядро по сети (PXE).

        >[оверквотинг удален]
        > сказать, т.к. не во все вопросы посвящен). Схема: физ. 2-3 сервера,
        > порядка 10 виртуальные на Xen Advanced. Фича HA требует расшаренного хранилища.
        > Вот и смотрю в сторону iSCSI. Сервера - несколько (4-5) веб,
        > почтовый (до 100 пользователей), общая служебная БД (думаю по внутреннему виртуальному
        > интерфейсу соединить), ещё несколько служебных без особой нагрузки (NS, SS, мониторинг).
        > Так вот, ~30к за iscsi hba адаптер - довольно дорого. вот с
        > хранилищем - тут хз. с одной стороны можно взять брендовый сервак
        > попроще и прикупить к нему RAID и SAS диски и сделать
        > свой target, с другой стороны ~150к можно прикупить начального уровня аппаратное
        > решение, что будет не сильно дороже программного.

        Фича HA требует в первую очередь повышенных затрат на текущую обычную эксплуатацию
        и администрирование иподдержку. Судя по твоим сомнениям, заказчик к ним не готов,
        но готов понести разовые затраты на оборудование и инфраструктуру.
        На мой взгляд грамотный бэкап в стопицот раз лучше любого кластера.
        По крайней мере до тех пор, пока в голове бродят мысли о создании самодельного SAN
        (Storage Area Network) (для продакшена, а не тестирования\обучения) , не нужно
        заморачиваться HA. Свои усилия лучше направь на бэкап, мониторинг и процедуры
        восстановления при нештатных ситуациях.

        сообщить модератору +/ответить
      • очень не осмотрительно делать такое на iscsi почему низкая скорость в идеале ко, !*! Andrey (??), 13:09 , 27-Июн-11 (9)
        > Схема: физ. 2-3 сервера,
        > порядка 10 виртуальные на Xen Advanced. Фича HA требует расшаренного хранилища.
        > Вот и смотрю в сторону iSCSI. Сервера - несколько (4-5) веб,
        > почтовый (до 100 пользователей), общая служебная БД (думаю по внутреннему виртуальному
        > интерфейсу соединить), ещё несколько служебных без особой нагрузки (NS, SS, мониторинг).

        очень не осмотрительно делать такое на iscsi.
        почему? низкая скорость в идеале конечно 128Мб/с на гигабите, а вот вам _реальный_ bonnie++ тест для железного iscsi:

        # node16 (QLogic 4010), ext4 (noatime, nobarrier), raid5, vtrak m200i, 8 sata disks, seagate st31000528as
        Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
        Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
        Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
        node16          16G   258  99 42981  15 22265   6   915  97 18724   3 624.2   8
        Latency             33767us    3045ms    1516ms   48143us     226ms     282ms
        Version  1.96       ------Sequential Create------ --------Random Create--------
        node16              -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
                      files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                         16 18557  71 +++++ +++ 25085  85 22562  85 +++++ +++ 19722  67
        Latency               255us    1381us    1491us     193us      11us      82us
        1.96,1.96,node16,1,1309165905,16G,,258,99,42981,15,22265,6,915,97,18724,3,624.2,8,16,,,,,18557,71,+++++,+++,25085,85,22562,85,+++++,+++,19722,67,33767us,3045ms,1516ms,48143us,226mы,282ms,255us,1381us,1491us,193us,11us,82us

        как видно, это полка promise vtrak m200i + железный QLogic ISP4010 на сервере.

        мои рекомендации, для бюджетного решения, возьмите любую полку SAS2SAS с 2-мя двухканальными контроллерами на борту, вот вам 4 сервера _уже_ (сам использую infortrend s12s, скорость на много выше).

        # node15 (LSI SAS1068E), ext4 (noatime, nobarrier), raid6, infortrend s12s, 12 sas disks, seagate st31000640ss
        Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
        Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
        Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
        node15          63G   700  98 398214  88 69470   8  3304  96 288832  20 593.8  42
        Latency             11656us     296ms     905ms   27698us     237ms   81046us
        Version  1.96       ------Sequential Create------ --------Random Create--------
        node15              -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
                      files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                         16 30311  50 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
        Latency              1673us     671us     701us     180us      25us      57us
        1.96,1.96,node15,1,1301719718,63G,,700,98,398214,88,69470,8,3304,96,288832,20,593.8,42,16,,,,,30311,50,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,11656us,296ms,905ms,27698uы,237ms,81046us,1673us,671us,701us,180us,25us,57us

        да диски разные, да уровни raid тоже, но все равно почувствуйте разницу ;)

        сообщить модератору +/ответить
  • Понятно, что в системе должны быть iscsi драйвера или поддержка на уровне ядра , !*! Rush_alex (?), 14:05 , 22-Июн-11 (7)
    > Можно ли подключить iSCSI-хранилище к серверу у которого нет собственных дисков и
    > лишь потом ставить ОС? Если да, то какие грабли есть?

    Понятно, что в системе должны быть iscsi драйвера или поддержка на уровне ядра..

    Найди есть видео лекция (от DELL вроде) по установке windows server под iscsi. Но там ставят систему на винт, устанавливают iscsi drivers, перешивают Intel сетевушный флеш на PXE+ISCSI,
    и гостом льют копию hdd на ISCSi сторе.

    но винт хоть на установку требуют....

    сообщить модератору +/ответить
отформатировать диск sun solaris (sparc), !*! Кочегар, (Solaris) 01-Дек-10, 09:43  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Дополнение Вот что показывает format Current partition table unnamed Total di, !*! Кочегар (ok), 09:47 , 01-Дек-10 (1)
    Дополнение. Вот что показывает format:
    Current partition table (unnamed):
    Total disk sectors available: 286733070 + 16384 (reserved sectors)

    Part      Tag    Flag     First Sector         Size         Last Sector
      0       root    wm                34      128.00MB          262177
      1       swap    wu            262178      128.00MB          524321
      2 unassigned    wm                 0           0               0
      3 unassigned    wm                 0           0               0
      4 unassigned    wm                 0           0               0
      5 unassigned    wm                 0           0               0
      6        usr    wm            524322      136.47GB          286733069
      8   reserved    wm         286733070        8.00MB          286749453

    сообщить модератору +/ответить
  • gt оверквотинг удален Данные не нужны Судя по разметке - у вас на диске EFI-ме, !*! ReSeT (?), 17:20 , 02-Дек-10 (3)
    >[оверквотинг удален]
    > Имеется SUN SPARC V210, на нём диск SCSI. На Спарке стояла FreeBSD
    > 8.1, теперь аппарат потребовался для других целей, нужно поставить на нём
    > Солярку. Но солярка не ставится, говорит, инвалидный формат дисков. Команда Format
    > показывает 8 слайсов, общий объём которых больше, чем объём физического диска,
    > и исправлять ничего не хочет. dd if=/dev/zero of=/dev/dsk/c1t0d0 bs=1024 count=1 и
    > вариации на эту тему дают результат I/O error, хотя диск исправен
    > (во всяком случае, FreeBSD работала на них нормально).
    > Подскажите, пожалуйста, каким образом мне поправить инвалидную информацию о слайсах, чтобы
    > поставить-таки SunOS.
    > Заранее благодарен.

    Данные не нужны?

    Судя по разметке - у вас на диске EFI-метка.
    Переразметить можем так:
    1. грузимся с cd-rom solaris в сингл-юзер
    2. набираем format -e
    3. выбираем нужный диск
    4. набираем label, система спросит какую метку хотите положить (выбираем SMI)
    5. смотрим что получилось - команда partition, затем print

    всего должно быть 0-7 слайсы, второй быть размером с полный диск.

    пример:

    Current partition table (default):
    Total disk cylinders available: 24620 + 2 (reserved cylinders)

    Part      Tag    Flag     Cylinders         Size            Blocks
      0       root    wm       0                0         (0/0/0)            0
      1       swap    wu       0                0         (0/0/0)            0
      2     backup    wu       0 - 24619       33.92GB    (24620/0/0) 71127180
      3 unassigned    wm       0                0         (0/0/0)            0
      4 unassigned    wm       0                0         (0/0/0)            0
      5 unassigned    wm       0                0         (0/0/0)            0
      6        usr    wm       0 - 24619       33.92GB    (24620/0/0) 71127180
      7 unassigned    wm       0                0         (0/0/0)            0

    сообщить модератору +/ответить
    • Всё, что могло понадобиться, забэкапили Пробовал, format говорит i o error Выкру, !*! Кочегар (ok), 03:13 , 07-Дек-10 (4)
      > Данные не нужны?

      Всё, что могло понадобиться, забэкапили.

      > Судя по разметке - у вас на диске EFI-метка.
      > Переразметить можем так:
      > 1. грузимся с cd-rom solaris в сингл-юзер
      > 2. набираем format -e
      > 3. выбираем нужный диск
      > 4. набираем label, система спросит какую метку хотите положить (выбираем SMI)
      > 5. смотрим что получилось - команда partition, затем print

      Пробовал, format говорит i/o error.

      Выкрутился следующим способом.
      Вынул диски из Сана, поставил на Intel/IBM-совместимый сервер, скачал утилиту http://www.cgsecurity.org/wiki/TestDisk, с её помощью создал фиктивную резервную копию таблицы разбиения, поставил диски назад на Сан, загрузил Солярку и восстановил таблицы разбиения из резервной копии.

      сообщить модератору +/ответить
минимально достаточный надежный узел из серверов, !*! Rush_alex, (Кластеры) 21-Июн-11, 23:47  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • валяйте, чо , !*! anonymous (??), 21:08 , 22-Июн-11 (1)
    > Предлагается сформировать минимально достаточный надежный узел из серверов....
    > задачи надежность и масштабируемость.
    > Итого 4 точки.
    > iscsi массив из 2 NAS с зеркалом
    > кластер из 2-х серверов для задач и виртуализации.

    валяйте, чо.

    сообщить модератору +/ответить
ошибка  в BACULA, !*! buboni, (Хранилища данных) 29-Июл-10, 13:07  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • нечто подобное было, как раз с msl2024 и lto3 если такое происходит с каждой лен, !*! anonymous (??), 23:22 , 30-Июл-10 (1)
    >27-Р˜СЋРЅ 03:01 localhost.localdomain-sd JobId 58: Error: Backspace record at EOT failed. ERR=Ошибка ввода/вывода.
    >несмогла записать на ленту и переключила другую ленту и записала, при следующем
    >бекапе такаяже проюлемма не может записать на туже ленту переключает другую
    >записывает и так далее.

    нечто подобное было, как раз с msl2024 и lto3.

    если такое происходит с каждой лентой -- звоните в hp support.  если только с конкретными -- попробуйте сначала переформатировать их из L&TT, а потом все равно звоните :-)  но могут сказать, что это проблема ленты и ее надо заменить.

    сообщить модератору +/ответить
    • gt оверквотинг удален Я дико извеняюсь а что значит из L TT Я пробывал очищать, !*! Buboni (?), 17:16 , 31-Июл-10 (2)
      >[оверквотинг удален]
      >>несмогла записать на ленту и переключила другую ленту и записала, при следующем
      >>бекапе такаяже проюлемма не может записать на туже ленту переключает другую
      >>записывает и так далее.
      >
      >нечто подобное было, как раз с msl2024 и lto3.
      >
      >если такое происходит с каждой лентой -- звоните в hp support.  
      >если только с конкретными -- попробуйте сначала переформатировать их из L&TT,
      >а потом все равно звоните :-)  но могут сказать, что
      >это проблема ленты и ее надо заменить.

      Я дико извеняюсь а что значит из L&TT?
      Я пробывал очищать с помощью MSL2024, но выскакивыла ошибка и на этом всё останавливалось.
      Смог стереть только чрез терминал при помощи команды mt с ключом erase
      Если вы имеете ввиду что-то другое, то напишите плиз.

      сообщить модератору +/ответить
стоит ли мне строить кластер/RedHat, портал, !*! cbh, (Кластеры) 23-Апр-09, 14:51  (рейтинг 4,0) [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • LOL думаем , !*! Аноним (-), 15:21 , 23-Апр-09 (1)
  • Думаю вам нужно нанять толкового системного администратора , !*! angra (ok), 15:46 , 23-Апр-09 (2)
    Думаю вам нужно нанять толкового системного администратора.
    сообщить модератору +/ответить
    • он есть, я ведь не спрашиваю как,я спрашиваю стоит ли общую схему я вам нарисова, !*! cbh (ok), 15:58 , 23-Апр-09 (3)
      >Думаю вам нужно нанять толкового системного администратора.

      он есть, я ведь не спрашиваю как,я спрашиваю стоит ли?общую схему я вам нарисовал,если есть дополнительные вопросы буду рад ответить

      сообщить модератору +/ответить
      • Почему тогда не спросите у него Или это он предложил такую замечательную схем, !*! angra (ok), 17:02 , 23-Апр-09 (4)
        Почему тогда не спросите у него? Или это он предложил такую "замечательную" схему?
        Статья на которую вы ссылаетесь давно устарела, хотя некоторые идеи конечно можно почерпнуть. А вообще хорошо спроектировать HA можно, только учтя особенности задачи. Например, если программа использует сессии в файлах, как стандартный пых, то придется выносить это в общее rw хранилище, желательно с нормальными локами. А если использует БД, то нужда в подобном отпадает и ряд проблем исчезает.
        В общем случае предложил бы так
        1. Независимые БД разнести по разным мускульным серверам, причем каждый из них в отдельный openvz/vserver контейнер ибо мускул не умеет себя толком ограничивать. Физически все это может жить как на одном сервере, так и на нескольких. Для каждого независимого мускула желательно несколько слейвов с репликацией. Приложения должны уметь распределять запросы чтения/записи дабы не записать с дуру в слейв вместо мастера.
        2. Основную обработку почты вынести в отдельный контейнер, на остальных MTA только перенаправляют на него. Также отдельный сервер под DNS.
        3. Веб приложения делать на основе fast-cgi, в крайнем случае apache+mod_чего_вы_там_юзаете. Исключение наверное для пыха, как самого тупорылого с точки зрения fcgi языка, для него eaccelerator+все_в_один_файл+mod_php.
        4. В качестве балансировщика веб нагрузки использовать nginx(или lighttpd), заодно им же осуществлять кеширование и отдачу статики. Это будет основная точка входа. При большом количестве машин можно поставить несколько nginx серверов, а перед ними железный LB или DNS round robin.
        5. Как можно больше общих файловых ресурсов монтировать в ro. Разделяемый rw рано или поздно приведет к проблемам. Если правильно спланировать приложения, то нужды в нем не будет.

        Подобная схема позволит свободно наращивать физические мощности и гибко менять нагрузку на каждый из компонентов, а не только на сайты целиком. Какая-то веб-задача(сайт может делится на отдельные задачи, хотя для конечного пользователя выглядит как одно целое) стала требовать больше ресурсов - увеличиваем количество соответствующих ей fcgi процессов и/или мускульных серверов. Нагрузка упала - сокращаем, дабы передать ресурсы более нагруженным задачам.

        сообщить модератору +/ответить
        • именно он,я конечно в прошлом тоже занимался админкой,сейчас я проджект менеджер, !*! cbh (ok), 09:54 , 24-Апр-09 (5)

          именно он,я конечно в прошлом тоже занимался админкой,сейчас я проджект менеджер,он предолжил,я поверил,но проверил
          Чтобы дисскусия стала поинтересней сделаю уточнения
          1)PHP использует БД
          2)сайт будет очень динамичным,будут новости,игры,маркет итд
          3)одно из обязательных условий проекта хендовер пользователя,то есть пользовател должен бродить по сайту не замечая этого,один сервис должен передавать его другому.Ну как на мейл ру,залогиновшись единожды,он может проверить почту,пообщать в своем мире,поиграть игры итд
          4)сайт будет как минимум трехязычным
          5) DNS на отдельном сервере
          6) балансировщик будет ngnix а за ним уже апач
          7) будет DNS round robin.Осталось дело за IP адресами

          Теперь вопросы которые возникли у меня после вашего ответа,буду очень признателен если ответите
          1)что вы подразумеваете под независимыми БД? про виртуализацию и слейв-мастер мне ясно
          2)как можно научить приложения распределять запросы чтения/записи,подбросьте идею))
          3)что есть отдельный контейнер?это отдельный виртуальный сервер?если есть время прошу вас поподробнее про <<Основную обработку почты вынести в отдельный контейнер>>
          4)а в чем преимущество отдельного fastcgi по сравнению с апач+mod_fastcgi или mod_fcgid?
          5)PHP eaccelerator+все_в_один_файл+mod_php. вы подразумеваете мои программисты под боком говорят что это для теоретиков и крайне неудобно))
          6)Что значит <<Как можно больше общих файловых ресурсов монтировать в ro.>>

          пока вроде все.Буду вам очень признателен за помощь и дальнейшие комментарии

          сообщить модератору +/ответить
          • посоветовались подумали и почитали и решили отказаться от ДНС Раунд робин,так ка, !*! cbh (ok), 14:55 , 24-Апр-09 (6)
            посоветовались подумали и почитали и решили отказаться от ДНС Раунд робин,так как эта технология неэффективна и может использоваться только в смешанном варианте с другими, так как каждый провайдер имеет в своем распоряжении кэширующие DNS сервера, которые сводят на нет все плюсы.
            сообщить модератору +/ответить
            • новый вопрос я в сильно затуплении,скажем так, не понимаю в чем разница в пос, !*! cbh (ok), 16:55 , 24-Апр-09 (7)
              новый вопрос
              я в сильно затуплении,скажем так,....не понимаю в чем разница в построении кластера с использованием LVS+heartbeat либо же DRBD+heartbeat (возможно это тупой вопрос,поэтому извиняйте)
              drbd не масштабируется(а маштабируемость понадобиться) а LVS хорош для распределения запросов на обслуживание.
              Однако я не представляю алгоритма учитывающего верность данных на каждом сервере. Ведь именно на правильные и актуальные данные нужно отправлять клиентов. Проблема еще усугубляется и тем что сайт будет очень диномично обновляемым причем информация будет самой разной,видео,фото,музыка,новости,текст,итд.Выход внешнее хранилище???что делать?
              сообщить модератору +/ответить
              • возьмите нгинкс, сразу уменьшите затраты на железо, но надо будет нарастить памя, !*! otaku (ok), 09:20 , 26-Май-09 (8)
                >новый вопрос
                >я в сильно затуплении,скажем так,....не понимаю в чем разница в построении кластера
                >с использованием LVS+heartbeat либо же DRBD+heartbeat (возможно это тупой вопрос,поэтому извиняйте)
                >
                >drbd не масштабируется(а маштабируемость понадобиться) а LVS хорош для распределения запросов на
                >обслуживание.
                >Однако я не представляю алгоритма учитывающего верность данных на каждом сервере. Ведь
                >именно на правильные и актуальные данные нужно отправлять клиентов. Проблема еще
                >усугубляется и тем что сайт будет очень диномично обновляемым причем информация
                >будет самой разной,видео,фото,музыка,новости,текст,итд.Выход внешнее хранилище???что делать?

                возьмите нгинкс, сразу уменьшите затраты на железо, но надо будет нарастить памяти, обять таки почему редхат 32 битный? надо 64 чтобы держал много памяти.
                Сказать честно у меня крутиться на одном сервере тр и проекта в общей сложности на 60 тысяч человек в месяц, средняя посещаемость в день 10 тыщ уников.
                Схема примерно такая.
                Сервер 2 юнита, двухпроцессорная мать от интеля или супермикро, 2 проца по 4 ядра, 16 гигов памяти, y акаждый сайт свой винт сас, на базу данных отдельный винт сас, логи на отдельном винте тоже.
                Программная начинка примерно такая, фронтенд нгинкс, через него отдается вся статика, в виде картинок, джсок, цсс и прочее, так же он проксит на фронтенд, фроентент в виде апаач с мод_пхп, отдает только динамику, к пхп прикручен еакселератор(зенд оптимайзер не смог вместе с еакселератором одновременно сделать), к апачу прикручен мод_рпаф, так как есть кое что зависящее от айпишника клиента.
                С запуском нгинкса нагрузка на сервер снизилась в 20 раз.
                У вас 20 тысяч онлайн или вообще всего?

                сообщить модератору +/ответить
              • gt оверквотинг удален В доках на сайте редхата это все подробно расписано, зов, !*! HFSC (??), 00:57 , 26-Май-11 (9)
                >[оверквотинг удален]
                > я в сильно затуплении,скажем так,....не понимаю в чем разница в построении кластера
                > с использованием LVS+heartbeat либо же DRBD+heartbeat (возможно это тупой вопрос,поэтому
                > извиняйте)
                > drbd не масштабируется(а маштабируемость понадобиться) а LVS хорош для распределения запросов
                > на обслуживание.
                > Однако я не представляю алгоритма учитывающего верность данных на каждом сервере. Ведь
                > именно на правильные и актуальные данные нужно отправлять клиентов. Проблема еще
                > усугубляется и тем что сайт будет очень диномично обновляемым причем информация
                > будет самой разной,видео,фото,музыка,новости,текст,итд.Выход внешнее хранилище???что
                > делать?

                В доках на сайте редхата это все подробно расписано, зовется трехуровневая модель - лоад-балансер LVS рутеры (активный, бэкапный, мониторинг веб-серверов рутером через сервис nanny) -> веб-сервера c gfs2 -> HA кластер, общий сторадж (активный и бэкапный через дрбд, раздает или как NAS через nfs или как SAN через iscsi).
                Если гфс2 то обязательно кластер менеджер, fenced device, иначе гфс станет колом на всех нодах.  
                дрбд может масштабироваться через stacked интерфейсы на три и больше нод (и даже делать балансировку в режиме active/active), но будут большие проблемы с мониторингом и сплитбрэйнами.
                  

                сообщить модератору +/ответить
Сервер лезет в SWAP, !*! Alexey, (Серверные платформы) 18-Авг-09, 18:29  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Смотрите вывод ps или top Если жрет апач, то ставьте nginx для отдачи статики , angra (ok), 19:10 , 18-Авг-09 (1) !*!
  • gt оверквотинг удален Не всегда, когда машина свапится, она свапится интенсивн, !*! sHaggY_caT (ok), 09:10 , 09-Сен-09 (2)
    >[оверквотинг удален]
    >Mem:   4147756k total,  4115400k used,    32356k
    >free,    10652k buffers
    >Swap:  3068404k total,   597864k used,  2470540k free,  
    >1307316k cached
    >
    >
    >
    >Хотелось бы узнать что можно оптимизировать, если учесть что саму машину нельзя
    >проапгрейдить. Где что надо посмотреть что бы понять что застравляет систему
    >так использовать Swap. Прошу поделиться опытом.

    Не всегда, когда машина свапится, она свапится интенсивно. Я бы перепроверила. Смотрите vmstat с -n 10, насколько активный paging для swap идет на диск и с диска.

    Что касается nginx/lighthtpd, для нагруженных web-серверов они действительно must have

    сообщить модератору +/ответить
    • Меня интересует похожая ситуация под другим углом Если cached - это память, выд, !*! pwlad (?), 06:18 , 05-Ноя-09 (3)
      Меня интересует похожая ситуация под другим углом. Если cached - это память, выделенная для оптимизации дисковых операций, которая в любой момент может быть отдана любому процессу, то почему вместо этого растет Swap.
      сообщить модератору +/ответить
      • Cached swap - это страницы, которые дёрнули из swap в память, но в самом swap , !*! ACCA (ok), 10:06 , 06-Ноя-09 (4)
        >Меня интересует похожая ситуация под другим углом. Если cached - это память,
        >выделенная для оптимизации дисковых операций, которая в любой момент может быть
        >отдана любому процессу, то почему вместо этого растет Swap.

        "Cached swap" - это страницы, которые дёрнули из swap в память, но в самом swap ещё не затёрли и содержимое страницы не изменилось. Эту память можно сразу отдать кому-нибудь, при этом не нужно откачивать на диск - оно там уже есть.

        В зависимости от статистики может оказаться выгоднее скинуть новую малоактивную страницу (swap растёт), чем перетирать активно читаемую, которая уже побывала в swap (cached swap).

        сообщить модератору +/ответить
        • top, free показывают Cached swap Cached - это ведь не из свопа выдернутая, а , !*! pwlad (?), 11:03 , 06-Ноя-09 (5)
          >"Cached swap" - это страницы, которые дёрнули из swap в память, но
          >в самом swap ещё не затёрли и содержимое страницы не изменилось.
          >Эту память можно сразу отдать кому-нибудь, при этом не нужно откачивать
          >на диск - оно там уже есть.
          >
          >В зависимости от статистики может оказаться выгоднее скинуть новую малоактивную страницу (swap
          >растёт), чем перетирать активно читаемую, которая уже побывала в swap (cached
          >swap).

          top, free показывают "Cached swap" ?
          Cached - это ведь не из свопа выдернутая, а считанная с диска, но не затертая пока никем на тот случай, если понадобится, чтоб к диску опять не обращаться.
          http://www.opennet.dev/base/sys/procps_info.txt.html
          Да и на практике изначально после загрузки swap=0, cached>0 (я про свой случай), т.е. cached появляется до того, как swap начинает расти.
          Но затем OS предпочитает скинуть редко используемые страницы в swap, но не трогать активно используемые из кэша. Как-то так?


          сообщить модератору +/ответить
        • верно, только top показывает не эту цифру SwapCached из proc meminfo , а Cache, !*! anonymous (??), 20:50 , 08-Ноя-09 (8)
          >>Меня интересует похожая ситуация под другим углом. Если cached - это память,
          >>выделенная для оптимизации дисковых операций, которая в любой момент может быть
          >>отдана любому процессу, то почему вместо этого растет Swap.
          >
          >"Cached swap" - это страницы, которые дёрнули из swap в память, но
          >в самом swap ещё не затёрли и содержимое страницы не изменилось.
          >Эту память можно сразу отдать кому-нибудь, при этом не нужно откачивать
          >на диск - оно там уже есть.

          верно, только top показывает не эту цифру (SwapCached из /proc/meminfo), а Cached, и значение у нее другое -- см. http://www.kernel.org/doc/Documentation/filesystems/proc.txt

          сообщить модератору +/ответить
  • gt оверквотинг удален Почему Вы решиди, что система лезет в swap Что vmstat г, !*! kolayshkin (??), 11:41 , 07-Ноя-09 (6)
    >[оверквотинг удален]
    >Mem:   4147756k total,  4115400k used,    32356k
    >free,    10652k buffers
    >Swap:  3068404k total,   597864k used,  2470540k free,  
    >1307316k cached
    >
    >
    >
    >Хотелось бы узнать что можно оптимизировать, если учесть что саму машину нельзя
    >проапгрейдить. Где что надо посмотреть что бы понять что застравляет систему
    >так использовать Swap. Прошу поделиться опытом.

    Почему Вы решиди, что система лезет в swap? Что vmstat говорит (как у Вас уже спрашивали)? Swap системе всегда необходим.

    сообщить модератору +/ответить
    • gt оверквотинг удален Если ы система у Вас активно полезла в Swap, то Вы бы за, !*! kolayshkin (??), 11:58 , 07-Ноя-09 (7)
      >[оверквотинг удален]
      >>1307316k cached
      >>
      >>
      >>
      >>Хотелось бы узнать что можно оптимизировать, если учесть что саму машину нельзя
      >>проапгрейдить. Где что надо посмотреть что бы понять что застравляет систему
      >>так использовать Swap. Прошу поделиться опытом.
      >
      >Почему Вы решиди, что система лезет в swap? Что vmstat говорит (как
      >у Вас уже спрашивали)? Swap системе всегда необходим.

      Если ы система у Вас активно полезла в Swap, то Вы бы заметили это по работе приложений, и очень быстро

      сообщить модератору +/ответить
      • Подскажите правильно ли я понимаю что сервер свап не использует Или использует , !*! Settler (?), 17:05 , 19-Май-11 (9)
        Подскажите правильно ли я понимаю что сервер свап не использует? Или использует? Вот эта цифра постоянно меняется - 291512k cached

        top - 17:00:52 up 1 day,  2:02,  1 user,  load average: 19.15, 18.15, 15.59
        Tasks: 133 total,   1 running, 132 sleeping,   0 stopped,   0 zombie
        Cpu(s): 72.5%us, 17.9%sy,  0.0%ni,  3.1%id,  1.2%wa,  0.8%hi,  4.5%si,  0.0%st
        Mem:   1018944k total,   790080k used,   228864k free,    53460k buffers
        Swap:  2104496k total,      116k used,  2104380k free,   291512k cached


        -bash-3.2# cat /proc/meminfo
        MemTotal:      1018944 kB
        MemFree:         32912 kB
        Buffers:         53852 kB
        Cached:         311060 kB
        SwapCached:          0 kB
        Active:         774024 kB
        Inactive:       166648 kB
        HighTotal:      114624 kB
        HighFree:          488 kB
        LowTotal:       904320 kB
        LowFree:         32424 kB
        SwapTotal:     2104496 kB
        SwapFree:      2104380 kB
        Dirty:            3304 kB
        Writeback:           0 kB
        AnonPages:      574344 kB
        Mapped:          28236 kB
        Slab:            32960 kB
        PageTables:       4720 kB
        NFS_Unstable:        0 kB
        Bounce:              0 kB
        CommitLimit:   2613968 kB
        Committed_AS:   907584 kB
        VmallocTotal:   114680 kB
        VmallocUsed:      4484 kB
        VmallocChunk:   110060 kB
        HugePages_Total:     0
        HugePages_Free:      0
        HugePages_Rsvd:      0
        Hugepagesize:     4096 kB

        сообщить модератору +/ответить
    • Да что вы такой-говорите-то правдО чтолЕ , !*! PavelR (??), 21:53 , 23-Май-11 (11)
      > Swap системе всегда необходим.

      Да что вы такой-говорите-то... ? =))))

      правдО чтолЕ ?


      сообщить модератору +/ответить


Производительность ANY в MySQL 6.0 и меньших, !*! oklas, (Другие СУБД) 12-Фев-11, 17:02  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Оказывается что на 5 5 подзапрос воспринимается как зависимый, а на 6 0 все в по, !*! oklas (ok), 15:00 , 15-Фев-11 (1)
    Оказывается что на 5.5 подзапрос воспринимается как зависимый, а на 6.0 все в порядке. но проблема в том что непонятно что происходит с 6.0, ее нельзя поставить на FreeBSD по крайней мере из портов ее убрали, сказано что deprecated http://lists.freebsd.org/pipermail/cvs-all/2010-January/3039..., http://www.freshports.org/databases/mysql60-server как пишется: 'use 5.5 instead', невсегда возможно.
    Как я понимаю патчи на подзапросы в отдельном виде для 5.5 не существуют. остается или перелопачивать проект, ждать версию или переходить на другую субд.

    Хотелось бы знать известно ли что либо о дальнейшей судьбе mysql как будет развиваться и когда может появиться очередная версия или патчи?
    Заранее спасибо

    сообщить модератору +/ответить
    • mysql select from source where dest_id,id any select dest_id,max id f, !*! LSTemp (ok), 05:07 , 15-Май-11 (2)
      > Оказывается что на 5.5 подзапрос воспринимается как зависимый, а на 6.0 все
      > в порядке.

      mysql>  select * from source where (dest_id,id) = any ( select dest_id,max(id) from source group by dest_id ) limit 100; (400, 1000)

      Вы про это?
      Флаг Вам в руки. Хоть раз план выполнения запроса на используемом движке посмотрите. Это Вам не Perl и не grep выражения. Хотите простой синтаксис запросов  - в путь (MySQL идет в этом напралении, но стандарты забывать не следует.). Надо отличать языки программирования 4-го уровня от других таки...

      PS
      и структуру БД надо формировать так, чтоб дебильных запросов к ней не было.

      но проблема в том что непонятно что происходит с
      >[оверквотинг удален]
      > 6.0, ее нельзя поставить на FreeBSD по крайней мере из портов
      > ее убрали, сказано что deprecated http://lists.freebsd.org/pipermail/cvs-all/2010-January/3039...,
      > http://www.freshports.org/databases/mysql60-server как пишется: 'use 5.5 instead',
      > невсегда возможно.
      > Как я понимаю патчи на подзапросы в отдельном виде для 5.5 не
      > существуют. остается или перелопачивать проект, ждать версию или переходить на другую
      > субд.
      > Хотелось бы знать известно ли что либо о дальнейшей судьбе mysql как
      > будет развиваться и когда может появиться очередная версия или патчи?
      > Заранее спасибо

      сообщить модератору +/ответить
cluster of shapers FreeBSD, !*! tsolodov, (Высоконадежные кластеры) 23-Авг-10, 12:20  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Ступил, не написал, что главное - распределение нагрузки между нодами , !*! tsolodov (?), 12:24 , 23-Авг-10 (1)
    >Добрый день, в данный момент есть много shaper'ов(около 10), независимо работающих друг
    >от друга с дамминетом, хотелось бы сделать кластер из них, в
    >единым IP. Смотрел в стороны CARP, но подумал и задался вопросом,
    >балансировка то будет, а  что делать в шириной канала то,
    >ведь пользователь по-идее получит канал в размере (свой канал*количество нод). это
    >трабла. Что делать, как быть? Хочется единой точки управления + отказоустойчивость.
    >Помогите пожалуйста, с кластерами я на вы во фре. С фри
    >слезть нет возможности, т.к. слишком большой геморой будет.

    Ступил, не написал, что главное - распределение нагрузки между нодами.

    сообщить модератору +/ответить
  • Очередь шейпера у каждого хоста своя Балансировать одну и ту же очередь на разн, !*! анон (?), 09:16 , 29-Апр-11 (2)
    Очередь шейпера у каждого хоста своя. Балансировать одну и ту же очередь на разных хостах - невозможно.
    сообщить модератору +/ответить
    • Так чего хочется - единой точки управления отказоустойчивости или распределени, !*! PavelR (??), 23:54 , 09-Май-11 (3)
      > Очередь шейпера у каждого хоста своя. Балансировать одну и ту же очередь
      > на разных хостах - невозможно.

      Так чего хочется - единой точки управления / отказоустойчивости или распределения нагрузки между нодами ?

      В общем случае, понимаю, хочется всего :-)

      Единая точка управления - это всего лишь грамотно написанные скрипты / правильная интеграция в систему "биллинга"

      Распределение нагрузки - можно сделать вручную, что вы уже имеете, я так полагаю.

      Отказоустойчивость - хочется, понимаю :-) Вот только совсем не понятно, для чего нужен "единый IP".


      ---

      Как вариант предлагаю идею использования динамической маршрутизации, разбивка на подсети, привязка подсетей к определенным хостам-шейперам с различными приоритетами.

      Отказоустойчивость достигнется за счет динамической маршрутизации - трафик переключится на другой шейпер, распределение нагрузки - поделите, а единое управление - напишете скрипты :-)

      сообщить модератору +/ответить
RAID чтение, !*! Andrey, (Хранилища данных) 25-Мрт-11, 15:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Посоветуйте софт, или как эту задачу лучше решить.....? , !*! sergeyfromkomi, (Разное) 02-Мрт-11, 11:47  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • решал точно такую же задачу Вообщем мой ход решения был таков снятие статистики , !*! sm00th1980 (ok), 14:20 , 02-Мрт-11 (1)
    решал точно такую же задачу.

    Вообщем мой ход решения был таков(снятие статистики по железке не умеющей netflow)
    wan порт железки включается в cisco catalyst. Этот порт миррорится в другой свободный порт. Т.е. фактически весь трафик с wan-порт просто копируется в какой-то порт.

    К этому порту с откопированным трафиком присоединяется unix-сервер с утилитой которая может захватывать трафик с порта и экспортить в netflow-поток. Например softflowd(т.е. это фактически сенсор netflow)

    Далее softflowd уже отправляет netflow-поток на коллектор netflow.

    Решение рабочее в данный момент мониторю таким способом 10-мегабит в секунду где-то.

    Далее биллинг опять же написанный мною уже парсит это всё хозяйство и считает уже как хочется.

    сообщить модератору +/ответить
    • gt оверквотинг удален спасибо, !*! sergeyfromkomi (ok), 14:46 , 02-Мрт-11 (2)
      >[оверквотинг удален]
      > wan порт железки включается в cisco catalyst. Этот порт миррорится в другой
      > свободный порт. Т.е. фактически весь трафик с wan-порт просто копируется в
      > какой-то порт.
      > К этому порту с откопированным трафиком присоединяется unix-сервер с утилитой которая может
      > захватывать трафик с порта и экспортить в netflow-поток. Например softflowd(т.е. это
      > фактически сенсор netflow)
      > Далее softflowd уже отправляет netflow-поток на коллектор netflow.
      > Решение рабочее в данный момент мониторю таким способом 10-мегабит в секунду где-то.
      > Далее биллинг опять же написанный мною уже парсит это всё хозяйство и
      > считает уже как хочется.

      спасибо

      сообщить модератору +/ответить
    • а че бы сразу на железку unixbox не прицепить циска только чтоб трафик миррорит, !*! LSTemp (ok), 03:32 , 27-Апр-11 (3)
      > решал точно такую же задачу.
      > Вообщем мой ход решения был таков(снятие статистики по железке не умеющей netflow)
      > wan порт железки включается в cisco catalyst. Этот порт миррорится в другой
      > свободный порт. Т.е. фактически весь трафик с wan-порт просто копируется в
      > какой-то порт.
      > К этому порту с откопированным трафиком присоединяется unix-сервер с утилитой которая может

      а че бы сразу на железку unixbox не прицепить? циска только чтоб трафик миррорить?

      > захватывать трафик с порта и экспортить в netflow-поток. Например softflowd(т.е. это
      > фактически сенсор netflow)
      > Далее softflowd уже отправляет netflow-поток на коллектор netflow.
      > Решение рабочее в данный момент мониторю таким способом 10-мегабит в секунду где-то.
      > Далее биллинг опять же написанный мною уже парсит это всё хозяйство и
      > считает уже как хочется.

      сообщить модератору +/ответить
система мониторинга IBM Director, !*! dimawar, (Разное) 18-Апр-11, 06:57  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Может использовать более вменяемую систему мониторинга Что то вроде ManageEngi, !*! NikBSDopen (?), 09:00 , 18-Апр-11 (1)
    > Приветствую всех! Кто-нибудь сталкивался с IBM Director?
    > я сейчас настраиваю эту систему и есть некоторые вопросы:
    > - можно ли создать Monitor для произвольных данных по SNMP протоколу (которые
    > можно посмотреть в SNMP Browser IBM Director) ? а затем, создать
    > Threshold, чтобы настроить оповещение о критических ситуациях.
    > - как можно в автоматических планах выполнить скрипт на сервере?
    > - возможно ли посмотреть температуру на сервере IBM ченез IBM Director?
    > Планирую по итогу написать мануал по этому делу, ведь IBM сервера удобно
    > мониторить через агенты, и узнавать состояние жестких дисков, блоков питания, памяти
    > и пр.

    Может использовать "более вменяемую" систему мониторинга?
    Что то вроде ManageEngine OpManager. Все из коробки, да и подешевле будет.

    сообщить модератору +/ответить
LVM shared?, !*! MYUSER, (Хранилища данных) 25-Мрт-11, 12:58  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
SATA vs SAS и HP DL180 vs DL380, !*! Vpupkin, (Серверные платформы) 14-Мрт-11, 10:53  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Оптимизация Iptables с помощью Ipset, !*! fgg, (Увеличение производительнсти) 23-Окт-08, 01:47  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру