The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Не могу залогинится на disk array: file system is full, !*! sluge, (Хранилища данных) 15-Ноя-13, 17:30  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Подключение серверов при следующей топологии., !*! AlexNiko2013, (Увеличение наджности) 06-Ноя-13, 20:02  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
странное поведение ssh сессии, !*! tsolodov, (Разное) 06-Ноя-13, 12:42  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • во первых -- никакого отношения к -- т е offtopво вторых -C для тара вместо cdн, !*! pavel_simple (ok), 12:51 , 06-Ноя-13 (1)
    во первых -- никакого отношения к -- т.е. offtop
    > Всем привет.
    > Столкнулся я вот с чем:
    > открываю ssh сессию на сервак 10.10.10.42(для примера) и запускаю shell скрипт:
    > <вырезал всякий мусор>
    > ...
    > tar cfp  - --files-from $TARLIST --no-recursion | ssh -oUserKnownHostsFile=/dev/null
    > -oStrictHostKeyChecking=no 10.10.10.43 "cd /storage/ && tar xfv - "
    > ...

    во вторых -C для тара вместо cd
    > <вырезал всякий мусор>
    > Когда делаю ctrl+c то убивается ssh к  10.10.10.42, но процесс tar
    > .... продолжает работать на 10.10.10.42, где parent proc:
    > sshd: root@notty

    ну, т.е. ssh считает сессию открытой -- смотрим настойки sshd, tcp -- то что tar продолжает при этjм жить севершенно ноhмально

    > В чем может быть причина? Мне бы хотелось чтоб tar так же
    > килялся при закрытии ssh на  10.10.10.42.
    > п.с. думал что убьется по тайм ауту, но этого не происходит.
    >  cat /etc/redhat-release
    > CentOS release 5.9 (Final)
    > Linux 2.6.18-348.1.1.el5 #1 SMP Tue Jan 22 16:19:19 EST 2013 x86_64 x86_64
    > x86_64 GNU/Linux

    сообщить модератору +/ответить
IRIX + VFE, !*! Y, (Др. Unix) 15-Окт-13, 10:02  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Выбор IP видеорегистратора NVR, !*! bayramgulov, (Разное) 08-Окт-13, 13:20  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Скорость работы Adaptec 7805 + ZFS + SSD + FreeBSD 9.2, !*! Hromo, (Увеличение производительнсти) 08-Окт-13, 17:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
lsi megaraid 9261-8i+solaris not boot , !*! avator, (Серверные платформы) 11-Ноя-10, 11:37  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Странное поведение DRBD, !*! stre10k, (Высоконадежные кластеры) 18-Июл-13, 18:18  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
nfs solution for LARGE load, !*! tsolodov, (Хранилища данных) 15-Фев-13, 12:30  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Распределенная FS Что-то типаhttp www xtreemfs org , !*! fantom (ok), 17:27 , 15-Фев-13 (1)
    > Всем привет. Существует задача создать NFS кластер из "говна и веток" с
    > минимальными затратами. В данный момент существуют независимые стореджи с различной нагрузкой.
    > Чего хочется:
    > 1) единое дисковое пространство для всех насов (SAN есть)
    > 2) failover в случае отказа одного из насов.
    > 3) Возможно какой нить балансировщик NFS запрсов?
    > Приходит на ум сделать партишн с кластерной ФС и настроить failover между
    > насами(но блин, у нас их штук 100).
    > Или я не туда копаю? Есть ли идеи, коллеги.

    Распределенная FS?
    Что-то типа
    http://www.xtreemfs.org/

    сообщить модератору +/ответить
  • У Veritas была подобная штука, стоила совершенно диких денег из-за поддержк, !*! ACCA (ok), 05:00 , 16-Фев-13 (2)
    > Всем привет. Существует задача создать NFS кластер из "говна и веток" с
    > минимальными затратами. В данный момент существуют независимые стореджи с различной
    > нагрузкой.
    > Чего хочется:
    > 1) единое дисковое пространство для всех насов (SAN есть)
    > 2) failover в случае отказа одного из насов.
    > 3) Возможно какой нить балансировщик NFS запрсов?

    [...]

    У Veritas была подобная штука, стоила совершенно диких денег из-за поддержки cache coherence. Кроме того, при сотне NFS gateway должна дико тормозить - это-ж каждый должен каждому сказать, что он подхачил ещё один блок в SAN.

    Серьёзный вопрос - нахера там сотня NAS? Если в каждом 1Гбит, то при полной нагрузке никакой SAN за ними не угонится.

    Вместо говна и веток серьёзно посмотри на EMC Celerra, скажем, NS480. Я его загружал до 12Гбит sustained на протяжении часов. И это клиенты не могли отдать/принять больше, так что мы не выяснили, сколько он реально потянет.

    сообщить модератору +/ответить
  • pvfs lustre pacemaker , !*! stre10k (ok), 23:23 , 11-Июл-13 (3)
Помогите с расшифровкой vmstat, !*! worsvch, (Увеличение производительнсти) 12-Май-13, 13:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • 1 man vmstat пробовали читать 2 какой проблемы , !*! hizel (ok), 15:52 , 12-Май-13 (1)
    1. man vmstat пробовали читать?
    2. какой проблемы?
    сообщить модератору +/ответить
    • 1 Читал id Time spent idle Prior to Linux 2 5 41, this includes IO-wait time, !*! worsvch (ok), 16:47 , 12-Май-13 (2)
      > 1. man vmstat пробовали читать?
      > 2. какой проблемы?

      1. Читал:
      id: Time spent idle. Prior to Linux 2.5.41, this includes IO-wait time.
      Непонятно, 0 это хорошо или нет.
      2. Простой процессора - это проблема, так как он ожидает, к примеру, пока закончатся операции ввода-вывода, а это замедления... Вот. А как найти что именно является источником простоя процессора?

      сообщить модератору +/ответить
      • Срочно заменяй все диски РАМ-дисками Простои сократятся Диск размером в несколь, !*! Andrey Mitrofanov (?), 17:43 , 12-Май-13 (3)
        > 2. Простой процессора - это проблема,

        Срочно заменяй все диски РАМ-дисками. Простои сократятся.

        Диск размером в несколько мегабайт можно сделать в кеше процессора. Простоев ещ1 меньше.

        сообщить модератору +/ответить
      • 1 uname -ar due to Prior to Linux 2 5 41 2 и потом уже дeлать кaкиe-либ, !*! nikto (?), 19:49 , 12-Май-13 (4)
        >> 1. man vmstat пробовали читать?
        >> 2. какой проблемы?
        > 1. Читал:
        > id: Time spent idle. Prior to Linux 2.5.41, this includes IO-wait time.
        > Непонятно, 0 это хорошо или нет.
        > 2. Простой процессора - это проблема, так как он ожидает, к примеру,
        > пока закончатся операции ввода-вывода, а это замедления... Вот. А как найти
        > что именно является источником простоя процессора?

        1. uname -ar ( due to: Prior to Linux 2.5.41)
        2. ... и потом уже дeлать кaкиe-либo вывoды/движeния

        P.S.:
        на дeceрт iostat

        сообщить модератору +/ответить
      • а может он не загружен судя по стату он как раз нифига не загружен, id , !*! 1 (??), 20:06 , 12-Май-13 (5)
        > 2. Простой процессора - это проблема, так как он ожидает, к примеру,
        > пока закончатся операции ввода-вывода, а это замедления... Вот. А как найти
        > что именно является источником простоя процессора?

        ))))) а может он не загружен? судя по стату он как раз нифига не загружен, id = idle = ХОЛОСТОЙ ход

        сообщить модератору +/ответить
      • Отсутствие задач для обработки , !*! Аноним (-), 02:08 , 13-Май-13 (6)
        > что именно является источником простоя процессора?

        Отсутствие задач для обработки.

        сообщить модератору +/ответить
      • Ну wa у вас 0, поэтому это не ожидание disk io Если у вас тормозит какой то соф, !*! stre10kkkk (?), 21:41 , 15-Май-13 (7)
        >> 1. man vmstat пробовали читать?
        >> 2. какой проблемы?
        > 1. Читал:
        > id: Time spent idle. Prior to Linux 2.5.41, this includes IO-wait time.
        > Непонятно, 0 это хорошо или нет.
        > 2. Простой процессора - это проблема, так как он ожидает, к примеру,
        > пока закончатся операции ввода-вывода, а это замедления... Вот. А как найти
        > что именно является источником простоя процессора?

        Ну wa у вас 0, поэтому это не ожидание disk io. Если у вас тормозит какой то софт, то его надо профилировать.

        сообщить модератору +/ответить
        • iostat 10 3 3 01 0 00 0 29 1 81 0 00 94 89Device , !*! worsvch (??), 16:28 , 16-Май-13 (8)
          iostat 10 3

                     3.01    0.00    0.29    1.81    0.00   94.89

          Device:         rrqm/s   wrqm/s   r/s   w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await  svctm  %util
          sda               1.91     6.61  2.38  1.34    62.15    63.63    33.78     0.05   12.23   2.73   1.02
          sda1              0.19     4.38  1.15  1.27    38.64    45.14    34.64     0.04   15.03   3.21   0.78
          sda2              1.72     2.23  1.23  0.08    23.51    18.49    32.19     0.01    7.04   1.90   0.25
          sdb              38.55   472.89 173.22 29.31 17836.15  4017.73   107.91     1.27    6.27   1.16  23.57

          avg-cpu:  %user   %nice %system %iowait  %steal   %idle
                     0.72    0.00    0.10    0.15    0.00   99.03

          Device:         rrqm/s   wrqm/s   r/s   w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await  svctm  %util
          sda               0.00     3.40  0.00  4.10     0.00    60.00    14.63     0.13   32.37   2.54   1.04
          sda1              0.00     3.40  0.00  4.10     0.00    60.00    14.63     0.13   32.37   2.54   1.04
          sda2              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
          sdb               0.20    97.90  6.80 29.00   118.40  1015.20    31.66     0.05    1.32   0.97   3.49

          avg-cpu:  %user   %nice %system %iowait  %steal   %idle
                     1.45    0.00    0.12    0.66    0.00   97.78

          Device:         rrqm/s   wrqm/s   r/s   w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await  svctm  %util
          sda               0.00     3.00  0.00  0.50     0.00    28.00    56.00     0.00    5.20   5.20   0.26
          sda1              0.00     3.00  0.00  0.50     0.00    28.00    56.00     0.00    5.20   5.20   0.26
          sda2              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
          sdb               0.20   118.10 24.20 78.30   344.00  1571.20    18.68     0.17    1.69   1.55  15.87

          сообщить модератору +/ответить
2 RAID контроллера, !*! Александр, (Серверные платформы) 07-Янв-12, 02:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • С чего бы им одновременно не работать Хоть 10 контроллеров - лишь бы было куда, !*! Дядя_Федор (?), 13:52 , 07-Янв-12 (1)
    > Подскажите, пожалуйста, можно ли в материнку на сервере (intel, xeon) поставить еще
    > один RAID контроллер Adaptec, т.е будут ли работать одновременно 2 ?

    С чего бы им одновременно не работать? Хоть 10 контроллеров - лишь бы было куда вставить.

    > И второй вопрос какая максимальная длинна (практическая) кабеля sata/sas

    Искать самостоятельно не наш метод? Обязательно надо, чтобы добрый дядя ввел запрос в Гугл вместо Вас, нашел, разжевал и Вам в ротик положил?


    сообщить модератору +/ответить
    • С того, что он загружается перед биосом и для входа в админку контроллера надо н, !*! Александр (??), 14:38 , 07-Янв-12 (2)
      >> Подскажите, пожалуйста, можно ли в материнку на сервере (intel, xeon) поставить еще
      >> один RAID контроллер Adaptec, т.е будут ли работать одновременно 2 ?
      >  С чего бы им одновременно не работать? Хоть 10 контроллеров -
      > лишь бы было куда вставить.

      С того, что он загружается перед биосом и для входа в админку контроллера надо нажать CTRL+A
      А если их 2, то в какую он будет заходить ? Рандом ?


      >> И второй вопрос какая максимальная длинна (практическая) кабеля sata/sas
      >  Искать самостоятельно не наш метод? Обязательно надо, чтобы добрый дядя ввел
      > запрос в Гугл вместо Вас, нашел, разжевал и Вам в ротик
      > положил?

      Если вы не знаете, так и скажите, то что написано в википедии я читал, sata - 1m
      Вопрос по другому задам, - что будет если я использую кабель 1,5 метра ?
      не будет работать ? почему ?

      сообщить модератору +/ответить
      • Совсем с головой плохо Поставьте - увидите У меня, например 2x3Ware позволя, !*! Дядя_Федор (?), 15:16 , 07-Янв-12 (3)
        > С того, что он загружается перед биосом и для входа в админку
        > контроллера надо нажать CTRL+A
        > А если их 2, то в какую он будет заходить ? Рандом
        > ?

        Совсем с головой плохо. Поставьте - увидите. У меня, например (2x3Ware) позволяет выбрать. Но у Вас, конечно же, будет рандомно - нисколько не смоневаюсь.


        > Если вы не знаете, так и скажите, то что написано в википедии
        > я читал, sata - 1m
        > Вопрос по другому задам, - что будет если я использую кабель 1,5
        > метра ?
        > не будет работать ? почему ?

        Не будет работать (или будут наблюдаться глюки). Потому что длина больше положенного по стандарту. Все? Или еще надо на какие-нибудь очевидные вопросы ответить?

        сообщить модератору +/ответить
      • Потому что для гигагерцовой полосы полтора метра - уже т н длинная линия , в к, !*! DeadLoco (ok), 23:06 , 09-Янв-12 (4)
        > не будет работать ? почему ?

        Потому что для гигагерцовой полосы полтора метра - уже т.н. "длинная линия", в которой начинаются удивительные явления интерференции, резонанса и автоколебаний, которые конфликтуют со спеками САТА/САС протоколов.


        сообщить модератору +/ответить
Сбор данных, !*! ramzes3000, (Разное) 15-Апр-13, 11:19  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Стресс тестирование серверов, !*! ibat, (Разное) 14-Фев-13, 20:32  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
LDAP + Oracle, !*! mdenisov, (Коммерческие системы) 22-Мрт-13, 17:56  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • OID Oracle Internet Directory is Oracle s LDAP directory server that uses an O, !*! dima (??), 23:18 , 22-Мрт-13 (1)
    > Добрый день.
    > Подскажите пожалуйста, как можно организовать связку LDAP и Oracle DB, причем нужно
    > чтобы LDAP лез SQL'ем к базе а не наоборот. LDAP сервер
    > допустим любой, но должен иметь схему АДа, Sun ONE или OpenLDAP
    > (требование Cisco UCM, там названия полей немного разные).

    OID (Oracle Internet Directory) is Oracle's LDAP directory server that uses an Oracle database as backend data store

    сообщить модератору +/ответить
zfs data recovery, !*! pg, (Solaris) 10-Ноя-09, 10:53  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
upgrade cpu на мамке supermicro X7DBR-3, !*! avator, (Серверные платформы) 26-Фев-13, 13:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Микрокод загружается после ядра, и живет в lib firmware intel-ucode , !*! pavlinux (ok), 19:13 , 26-Фев-13 (1)
    > но ругнулся на microcode update,

    Микрокод загружается после ядра, и живет в /lib/firmware/intel-ucode/

    сообщить модератору +/ответить
    • не верно сформулировал где именно ошибка, POST ERRORS после инициализации биоса,, !*! avator (ok), 20:21 , 26-Фев-13 (2)
      >> но ругнулся на microcode update,
      > Микрокод загружается после ядра, и живет в /lib/firmware/intel-ucode/

      не верно сформулировал где именно ошибка, POST ERRORS после инициализации биоса, по F1 прскакиваем и вперед, но это есть не гуд
      PS мне ответил вендор по этому поводу:
      Проблема в ревизиях платы. Старые 1,0 итп не поддерживали 54xx Xeon, именно так тпроявлялось
      Новые ревизии - без проблем

      вот такие пироги, тему можно закрывать
      PSS будем методом последовательных приближений подбирать+научный тык в помощь

      сообщить модератору +/ответить
      • F1 вроде можно отрубить в БИОСе Кстати, глянь на сайте OpenBIOS OpenFirmware Cor, !*! pavlinux (ok), 20:31 , 26-Фев-13 (3)
        >>> но ругнулся на microcode update,
        >> Микрокод загружается после ядра, и живет в /lib/firmware/intel-ucode/
        > не верно сформулировал где именно ошибка, POST ERRORS после инициализации биоса, по
        > F1 прскакиваем и вперед, но это есть не гуд

        F1 вроде можно отрубить в БИОСе

        Кстати, глянь на сайте OpenBIOS/OpenFirmware/CoreBoot, иль как он там щас,
        для микростаров, супирмикро и пр. х..ни полно открытых биосов. =)

        сообщить модератору +/ответить
        • да можно,но если резетнутся настройки биоса было пару раз, видно как-то связано , !*! avator (ok), 20:35 , 26-Фев-13 (4)
          >>>> но ругнулся на microcode update,
          >>> Микрокод загружается после ядра, и живет в /lib/firmware/intel-ucode/
          >> не верно сформулировал где именно ошибка, POST ERRORS после инициализации биоса, по
          >> F1 прскакиваем и вперед, но это есть не гуд
          > F1 вроде можно отрубить в БИОСе
          > Кстати, глянь на сайте OpenBIOS, иль как он там щас, для микростаров
          > полно открытых биосов.

          да можно,но если резетнутся настройки биоса(было пару раз, видно как-то связано с RTC reset, хз как вендор реализовал через ps/2 толи pci тлоли LPC), а такое иногда бывает,то удаленно сервант превратится в кирпич

          сообщить модератору +/ответить
          • Дык, без KVM, удалённо жить тяжело , !*! pavlinux (ok), 20:37 , 26-Фев-13 (5)
            >>>>> но ругнулся на microcode update,
            >>>> Микрокод загружается после ядра, и живет в /lib/firmware/intel-ucode/
            >>> не верно сформулировал где именно ошибка, POST ERRORS после инициализации биоса, по
            >>> F1 прскакиваем и вперед, но это есть не гуд
            >> F1 вроде можно отрубить в БИОСе
            >> Кстати, глянь на сайте OpenBIOS, иль как он там щас, для микростаров
            >> полно открытых биосов.
            > да можно,но если резетнутся настройки биоса(было пару раз, видно как-то связано с
            > RTC reset, хз как вендор реализовал через ps/2 толи pci тлоли
            > LPC), а такое иногда бывает,то удаленно сервант превратится в кирпич

            Дык, без KVM, удалённо жить тяжело.

            сообщить модератору +/ответить
DRBD vs Glusterfs or...?, !*! stre10k, (Хранилища данных) 04-Дек-12, 12:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Можно ли доверят микротику такую нагрузку?, !*! sergeyfromkomi, (Аппаратное обеспечение) 29-Янв-13, 10:04  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
БД под СУБД Oracle & OS Android, !*! StopHam, (Oracle) 23-Янв-13, 05:19  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
СХД и отключение дополнительной полки, !*! ciscoved, (Хранилища данных) 27-Дек-12, 00:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Посоветуйте IBM сервер, !*! BachiStil, (Серверные платформы) 03-Окт-08, 13:46  (рейтинг 3,0) [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Подскажите, что нужно для ускорения потокового видео с сайта?, !*! Doozer, (Разное) 06-Янв-13, 21:18  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
горячее резервирование, !*! farcengoldd, (Увеличение наджности) 15-Дек-12, 21:07  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Производительность raid массива., !*! stre10k, (Хранилища данных) 06-Ноя-12, 17:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Убери sw и suСоздайparted -a optimal dev sdb mkpart primary xfs 2048s 100 mkfs , !*! Bosh (?), 19:15 , 06-Ноя-12 (1)
    Убери sw и su
    Создай
    parted -a optimal /dev/sdb mkpart primary xfs 2048s 100%
    mkfs.xfs -f -l lazy-count=1,size=128m,version=2 -n size=64k -b size=4096 -d agsize=512m -i size=1024 /dev/sdb1
    agsize в зависимости от типа данных
    mount -t xfs -o defaults,attr2,inode64,noatime,nodiratime,nobarrier,logbufs=8,logbsize=128k,noquota,allocsize=512m /dev/sdb1 /mnt/xfsdisk
    allocsize в зависимости от типа данных

    Затюнь disk system под xfs

    #!/bin/sh

    for i in `cat /proc/diskstats | grep sd[a-zA-Z][^0-9] | awk '{print $3}'`
    do
       blockdev --setra 4096 /dev/$i
       echo deadline > /sys/block/$i/queue/scheduler

       echo 4096 > /sys/block/$i/queue/read_ahead_kb
       echo 4096 > /sys/block/$i/queue/nr_requests
       echo 64 > /sys/block/$i/queue/iosched/fifo_batch
       echo 0 > /sys/block/$i/queue/iosched/front_merges
       echo 150 > /sys/block/$i/queue/iosched/read_expire
       echo 1500 > /sys/block/$i/queue/iosched/write_expire
       echo "Set $i - done"
    done

    echo 10 > /proc/sys/vm/swappiness

    echo 10 > /proc/sys/vm/dirty_ratio
    echo 5 > /proc/sys/vm/dirty_background_ratio
    echo 1000 > /proc/sys/vm/dirty_expire_centisecs
    echo 1000 > /proc/sys/vm/dirty_writeback_centisecs
    echo 50 > /proc/sys/vm/vfs_cache_pressure

    Посмотри в /proc/interrupts
    грепни по aacraid  и сделай так что бы это прерывание работало
    на ВСЕХ процах (если сервак малтикоре)


    >[оверквотинг удален]
    > "  Initial write "   42760.28
    > "        Rewrite "   31235.14
    > "           Read "  135243.35
    > "        Re-read "  133918.22
    > "    Random read "    4361.25
    > "   Random write "    3402.84
    > Что может повлиять на производительность случайного чтения в первом случае?
    > Пробовал увеличить queue_depth и поменять scheduler на noop.
    > Тестировал разные уровни raid (10, 5, 50) со всеми так.
    > Так и должно быть или что-то не то с настройками?

    сообщить модератору +/ответить
    • gt оверквотинг удален Спасибо Это настройки для теста или рекомендуется их исп, !*! stre10k (ok), 14:40 , 07-Ноя-12 (5)
      >[оверквотинг удален]
      > done
      > echo 10 > /proc/sys/vm/swappiness
      > echo 10 > /proc/sys/vm/dirty_ratio
      > echo 5 > /proc/sys/vm/dirty_background_ratio
      > echo 1000 > /proc/sys/vm/dirty_expire_centisecs
      > echo 1000 > /proc/sys/vm/dirty_writeback_centisecs
      > echo 50 > /proc/sys/vm/vfs_cache_pressure
      > Посмотри в /proc/interrupts
      > грепни по aacraid  и сделай так что бы это прерывание работало
      > на ВСЕХ процах (если сервак малтикоре)

      Спасибо.
      Это настройки для теста или рекомендуется их использовать в работе?

      Попробовал, ситуация не изменилась.
      Я думал что при rnd r/w тесте iozone наполняет очередь устройства, но это оказалось не так: при i0 тесте avgqu-sz ~140, при i2 - avgqu-sz 1. При такой работе скорость соответствует теоретической.

      сообщить модератору +/ответить
  • И ,ДА , 6 RAID он чисто просто тормоз бай дизайн , если есть время собери 1, !*! Bosh (?), 19:21 , 06-Ноя-12 (2)
    И ,ДА !!!,  6 RAID он чисто просто тормоз бай дизайн ,  если есть время собери 10

    >[оверквотинг удален]
    > "  Initial write "   42760.28
    > "        Rewrite "   31235.14
    > "           Read "  135243.35
    > "        Re-read "  133918.22
    > "    Random read "    4361.25
    > "   Random write "    3402.84
    > Что может повлиять на производительность случайного чтения в первом случае?
    > Пробовал увеличить queue_depth и поменять scheduler на noop.
    > Тестировал разные уровни raid (10, 5, 50) со всеми так.
    > Так и должно быть или что-то не то с настройками?

    сообщить модератору +/ответить
  • привет read cache выключи, под raid6 контроллер должен быть заточен т е алгорит, !*! нуда (?), 17:05 , 10-Ноя-12 (6)
    > Добрый день.
    > Есть рейд 6 массив из 12 SATA дисков на контроллере Adaptec 6й
    > серии 512MB Cache.
    > Read и Write cache включены. Файловая система xfs с заданными sw и
    > su.

    привет!
    read cache выключи, под raid6 контроллер должен быть заточен т.е. алгоритм этот специфический, для raid6 оптимальное количество дисков при 12 шпинделях это 11 + 1 spare.
    затестите bonnie++, у меня есть для от него некоторая статистика для сравнения, несколько raid6,raid10 и т.п. на 12 дисковых массивах.

    сообщить модератору +/ответить
    • например, конкретно для raid6 вот node15 hp dl165g6 , ext4 noatime, nobarrie, !*! нуда (?), 17:09 , 10-Ноя-12 (7) +1
      например, конкретно для raid6 вот:

      # node15 (hp dl165g6), ext4 (noatime, nobarrier), raid6, infortrend s12s, 12 sas disks, seagate st31000640ss
      Version  1.96       ------Sequential Output------ --Sequential Input- --Random-                            
      Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--                            
      Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP                            
      node15          63G   700  98 398214  88 69470   8  3304  96 288832  20 593.8  42                          
      Latency             11656us     296ms     905ms   27698us     237ms   81046us                              
      Version  1.96       ------Sequential Create------ --------Random Create--------                            
      node15              -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--                            
                    files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP                            
                       16 30311  50 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++                            
      Latency              1673us     671us     701us     180us      25us      57us                              
      1.96,1.96,node15,1,1301719718,63G,,700,98,398214,88,69470,8,3304,96,288832,20,593.8,42,16,,,,,30311,50,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,11656us,296ms,905ms,27698us,237ms,81046us,1673us,671us,701us,180us,25us,57us                                

      сообщить модератору +1 +/ответить
    • Контроллер достаточно хороший, Adaptec 6серии, умеет множество уровней Я думаю , !*! stre10k (ok), 21:43 , 04-Дек-12 (8)
      > привет!
      > read cache выключи, под raid6 контроллер должен быть заточен т.е. алгоритм этот
      > специфический, для raid6 оптимальное количество дисков при 12 шпинделях это 11
      > + 1 spare.

      Контроллер достаточно хороший, Adaptec 6серии, умеет множество уровней. Я думаю он должен справляться с raid6.

      Можешь объяснить почему такое количество дисков оптимально?

      > затестите bonnie++, у меня есть для от него некоторая статистика для сравнения,
      > несколько raid6,raid10 и т.п. на 12 дисковых массивах.

      Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
      Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
      Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
      b12             64G  2225  99 792466  42 289518  25  5454  98 659823  35 506.1  17
      Latency              7584us   11953us     275ms    8801us     234ms     127ms
      Version  1.96       ------Sequential Create------ --------Random Create--------
      b12                 -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
                    files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                       16 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
      Latency               278us     141us      90us     184us      21us      57us
      1.96,1.96,b12,1,1354631068,64G,,2225,99,792466,42,289518,25,5454,98,659823,35,506.1,17,16,,,,,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,7584us,11953us,275ms,8801us,234ms,127ms,278us,141us,90us,184us,21us,57us

      сообщить модератору +/ответить
LTO ultrim4 , !*! Kapanir, (Хранилища данных) 06-Дек-11, 06:12  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Установка HP P2000 - отображение СХД как локальный диск, !*! iGLaX6, (Хранилища данных) 07-Дек-12, 17:31  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Вкратце 1 в ОС должен стоять iSCSI Initiator 2 В свойствах iSCSI инициатора в, !*! Radeon (?), 16:35 , 10-Дек-12 (1)
    Вкратце:

    1. в ОС должен стоять iSCSI Initiator
    2. В свойствах iSCSI инициатора в ОС смотрится Initiator Name \\ вида iqn.2009-05.com.test:test.1      \\

    3. в P2000 в настройках хостов, нужно добавить данный хост используя имя инициатора "iqn.2009-05.com.test:test.1"

    4. При настройках презентации по умолчанию, нарезанный LUN должен быть доступен данному хосту.

    5. В настройках iSCSI инициатора в ОС , необходимо добавить портал таргетов введя IP адрес портов  одного из контроллеров MSA2000  (но  IP интерфейса управления! )

    6. Затем сделать connect Target

    Приблизительно так

    сообщить модератору +/ответить
    • gt оверквотинг удален Спасибо, получилось , !*! iGLaX6 (ok), 17:27 , 10-Дек-12 (2)
      >[оверквотинг удален]
      > iqn.2009-05.com.test:test.1      \\
      > 3. в P2000 в настройках хостов, нужно добавить данный хост используя имя
      > инициатора "iqn.2009-05.com.test:test.1"
      > 4. При настройках презентации по умолчанию, нарезанный LUN должен быть доступен данному
      > хосту.
      > 5. В настройках iSCSI инициатора в ОС , необходимо добавить портал таргетов
      > введя IP адрес портов  одного из контроллеров MSA2000  (но
      >  IP интерфейса управления! )
      > 6. Затем сделать connect Target
      > Приблизительно так

      Спасибо, получилось! :)

      сообщить модератору +/ответить
Бекап MySQL и недоступность сайтов, !*! Adm4311, (Хранилища данных) 30-Окт-12, 13:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Как определить MAC-адрес 'кабеля', !*! kp580, (Сетевое оборудование) 02-Ноя-12, 19:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Автоматическое переключение серверов для клиентов., !*! Kolinz, (Увеличение наджности) 27-Сен-12, 16:58  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • VRRP keepalived Linux Virtual Server, !*! Moomintroll (ok), 17:10 , 27-Сен-12 (1)
    > Задача:  как сделать так, чтобы клиенты использовали все время один и
    > тот же ip-адрес для доступа к IP*, а при падении одного
    > из серверов IP*, клиенты автоматически маршутизируются на второй доступный сервер IP2
    > и так далее.

    VRRP (keepalived)

    > Предположение: нужен какой-то промежуточный маршрутизатор, к которому будут подсоединяться
    > клиенты, но какой это маршрутизатор, что он должен поддерживать - вопрос.

    Linux Virtual Server

    сообщить модератору +/ответить
    • Дополню, что ещё есть ucarp всё-таки CARP привлекательнее VRRP , но реализация , !*! Xaionaro (ok), 10:05 , 08-Окт-12 (2)
      >> Задача:  как сделать так, чтобы клиенты использовали все время один и
      >> тот же ip-адрес для доступа к IP*, а при падении одного
      >> из серверов IP*, клиенты автоматически маршутизируются на второй доступный сервер IP2
      >> и так далее.
      > VRRP (keepalived)
      >> Предположение: нужен какой-то промежуточный маршрутизатор, к которому будут подсоединяться
      >> клиенты, но какой это маршрутизатор, что он должен поддерживать - вопрос.
      > Linux Virtual Server

      Дополню, что ещё есть ucarp (всё-таки CARP привлекательнее VRRP), но реализация ужасна, поэтому лучше использовать keepalived. :)

      сообщить модератору +/ответить
FC HBA max 100 mb/s, !*! renat, (Хранилища данных) 05-Окт-12, 14:49  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру