The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Не могу залогинится на disk array: file system is full, !*! sluge, (Хранилища данных) 15-Ноя-13, 17:30  [ | | | ] [линейный вид] [смотреть все]
привет,
когда я пытаюсь залогинется на Sun Storage 6120 я получаю сообщение:

#telnet disk-01
telnet 111.111.222.111
Trying 111.111.222.111...
Connected to 111.111.222.111.
Escape character is '^]'.
  
Login:
Password:
  
6120 Release 3.1.4 Thu Apr 15 18:21:30 PDT 2004 (111.111.222.111)
Copyright (C) 1997-2003 Sun Microsystems, Inc.
All Rights Reserved.
  
WARNING: Filesystem is full and log messages are not being saved

и все, приглашение командной строки не выдается. Не могу ввести ни одной команды. Кто знает как это можно пофиксить?

Подключение серверов при следующей топологии., !*! AlexNiko2013, (Увеличение наджности) 06-Ноя-13, 20:02  [ | | | ] [линейный вид] [смотреть все]
Имеется следующая топология:

https://www.dropbox.com/s/ipwdq53v9hz3w3j/RONC.jpg

Вопрос: Как в таком случае настраиваются серверы? В каждом по два интеловских 2х портовых адаптера. Сервера подключаются к CICSO 6509 с установленным модулем на 48 портов. Понятно что работает HSRP на третьем и Rapid RVST на втором уровне. На серверах установленны  Windows 2003 enterprise.

странное поведение ssh сессии, !*! tsolodov, (Разное) 06-Ноя-13, 12:42  [ | | | ] [линейный вид] [смотреть все]
Всем привет.

Столкнулся я вот с чем:

Запускаю скрипт, который открывает ssh сессию на сервак 10.10.10.42(для примера) и запускает shell скрипт:
<вырезал всякий мусор>
...
tar cfp  - --files-from $TARLIST --no-recursion | ssh -oUserKnownHostsFile=/dev/null -oStrictHostKeyChecking=no 10.10.10.43 "cd /storage/ && tar xfv - "
...
<вырезал всякий мусор>


Когда делаю ctrl+c то скрипт перестает работать, но процесс tar .... продолжает работать на 10.10.10.42, где parent proc:
sshd: root@notty


В чем может быть причина? Мне бы хотелось чтоб tar так же килялся при закрытии ssh на  10.10.10.42.


п.с. думал что убьется по тайм ауту, но этого не происходит.

cat /etc/redhat-release
CentOS release 5.9 (Final)
Linux 2.6.18-348.1.1.el5 #1 SMP Tue Jan 22 16:19:19 EST 2013 x86_64 x86_64 x86_64 GNU/Linux

  • во первых -- никакого отношения к -- т е offtopво вторых -C для тара вместо cdн, !*! pavel_simple (ok), 12:51 , 06-Ноя-13 (1)
    во первых -- никакого отношения к -- т.е. offtop
    > Всем привет.
    > Столкнулся я вот с чем:
    > открываю ssh сессию на сервак 10.10.10.42(для примера) и запускаю shell скрипт:
    > <вырезал всякий мусор>
    > ...
    > tar cfp  - --files-from $TARLIST --no-recursion | ssh -oUserKnownHostsFile=/dev/null
    > -oStrictHostKeyChecking=no 10.10.10.43 "cd /storage/ && tar xfv - "
    > ...

    во вторых -C для тара вместо cd
    > <вырезал всякий мусор>
    > Когда делаю ctrl+c то убивается ssh к  10.10.10.42, но процесс tar
    > .... продолжает работать на 10.10.10.42, где parent proc:
    > sshd: root@notty

    ну, т.е. ssh считает сессию открытой -- смотрим настойки sshd, tcp -- то что tar продолжает при этjм жить севершенно ноhмально

    > В чем может быть причина? Мне бы хотелось чтоб tar так же
    > килялся при закрытии ssh на  10.10.10.42.
    > п.с. думал что убьется по тайм ауту, но этого не происходит.
    >  cat /etc/redhat-release
    > CentOS release 5.9 (Final)
    > Linux 2.6.18-348.1.1.el5 #1 SMP Tue Jan 22 16:19:19 EST 2013 x86_64 x86_64
    > x86_64 GNU/Linux

    сообщить модератору +/ответить
IRIX + VFE, !*! Y, (Др. Unix) 15-Окт-13, 10:02  [ | | | ] [линейный вид] [смотреть все]
День добрый, может кто ещё работает на старых добрых CHALLENGE от SGI, или может кто помнит, подскажите: есть CHALLENGE L с IRIX6.2, в него вставлена железка VFE, вот тут, вроде как, драйвера для неё ftp://ftp.sgi.com/sgi/netdrv/6.2/ но как их установить незнаю. Или может у кого есть сырцы этих самых драйверов под 6.2, поделитесь, пожалуйста.
Спасибо.
Выбор IP видеорегистратора NVR, !*! bayramgulov, (Разное) 08-Окт-13, 13:20  [ | | | ] [линейный вид] [смотреть все]
Доброго всем дня.

Подскажите, если позволяет опыт, какое бы вы выбрали аппаратное решение IP видеорегистратора для 16 + IP камер. Список слишком длинный, а толком обзора или какого либо ТОПа не найдено. Софтовое не предлагать, прошу не тратьте свое время. Понравился на nag.ru POWERTONE PWT16N, но продукт абсолютно не знакомый.
Поделитесь опытом, пожалуйста.

Скорость работы Adaptec 7805 + ZFS + SSD + FreeBSD 9.2, !*! Hromo, (Увеличение производительнсти) 08-Окт-13, 17:05  [ | | | ] [линейный вид] [смотреть все]
Имеем вот такие диски:
http://ark.intel.com/ru/products/71915/Intel-SSD-DC-S3700-Se...

В теории сабжевая связка должна давать хорошие показатели по производительности.
Последовательное чтение 500 MB/s
Случайное чтение (участок 100%) 75000 IOPS

На деле при интенсивной работе в рейд10 йопсов (iops) должно было быть около 150000 на чтение, а было не более 3500.
Пропускная способность контроллера оказалась 50Мб/сек, а не 500Мб/сек.

В чем может быть причина?

lsi megaraid 9261-8i+solaris not boot , !*! avator, (Серверные платформы) 11-Ноя-10, 11:37  [ | | | ] [линейный вид] [смотреть все]
привет всем
вчера перед вводом в эксплуатацию железки сделал плановую перезагрузку и вот что я увидел:

Reboot and select proper boot device, or insert boot media in selected boot device and press any key

исходные данные:

материнка
prtdiag -v | grep System
System Configuration: Supermicro X8DT3

реид контроллер
lsi megaraid 9261-8i
дрова +firmware последнее взято с сайта
                Image Versions in Flash:
                ================
FW Version         : 2.110.03-0967
BIOS Version       : 3.18.00_4.09.05.00_0x0416A000
Preboot CLI Version: 04.04-011:# 008
WebBIOS Version    : 6.0-24-e_19-Rel
NVDATA Version     : 2.08.03-0004
Boot Block Version : 2.02.00.00-0000
BOOT Version       : 01.250.04.219

конфигурация пулов:
каждый диск создавался как raid0(привожу только первые два так как с них и проиходит загрузка)
/opt/MegaRAID/CLI/MegaCli -CfgLdAdd r0[35:0] WB RA Cached CachedBadBBU -strpsz128 -a0    // SAS rpool mirror
/opt/MegaRAID/CLI/MegaCli -CfgLdAdd r0[35:1] WB RA Cached CachedBadBBU -strpsz128 -a0    // SAS rpool mirror

вот вывод состояния:
MegaCli -LDInfo -L0 -a0


Adapter 0 -- Virtual Drive Information:
Virtual Drive: 0 (Target Id: 0)
Name                :VD_0
RAID Level          : Primary-0, Secondary-0, RAID Level Qualifier-0
Size                : 135.972 GB
State               : Optimal
Strip Size          : 128 KB
Number Of Drives    : 1
Span Depth          : 1
Default Cache Policy: WriteBack, ReadAhead, Cached, Write Cache OK if Bad BBU
Current Cache Policy: WriteBack, ReadAhead, Cached, Write Cache OK if Bad BBU
Access Policy       : Read/Write
Disk Cache Policy   : Disabled
Encryption Type     : None

теперь к солярке
cfgadm -al | grep c0
c0                             scsi-bus     connected    configured   unknown
c0::dsk/c0t0d0                 disk         connected    configured   unknown
c0::dsk/c0t1d0                 disk         connected    configured   unknown

0. c0t0d0 <DEFAULT cyl 17747 alt 2 hd 255 sec 63>
          /pci@0,0/pci8086,340a@3/pci1000,9263@0/sd@0,0
       1. c0t1d0 <DEFAULT cyl 17747 alt 2 hd 255 sec 63>
          /pci@0,0/pci8086,340a@3/pci1000,9263@0/sd@1,0

label SMI ну и s0 все пространство

сейчас загружен с usb(16G+solaris 10u9)

пулы вижу уже импортировал данные слил

pool: recovery
    id: 12660041834954831440
state: ONLINE
action: The pool can be imported using its name or numeric identifier.
config:

        recovery      ONLINE
          mirror-0    ONLINE
            c0t0d0s0  ONLINE
            c0t1d0s0  ONLINE


grub прописан точно на обоих(это так к слову)

остальные 22+2+16 дисков думаю к делу не относятся(хотя!?)

а еще?чуть не забыл:
активным делал вот так
MegaCli -AdpBootDrive -Set -L0 -a0

А теперь к сути:
система грузится только с внешних устройств при установленном параметре в bios мамки
Slot 6 Option ROM  -> disable(раид именно там на других оптика)

во всех остальных случаях, независимо это CD DVD или флашка вываливает ошибку:

Reboot and select proper boot device, or insert boot media in selected boot device and press any key

соответственно загрузка с реида не происходит(облом)

вот что нарыл(в понимании lsi RAID0=JBOD) как я понимаю:
Bug Fixes:
........................
LSIP200086390     (DFCT)     If a system PD (JBOD) is set as boot device and then system is rebooted, JBOD is coming back as unbootable device
..................

Что посоветуете, куда копать?
P.S. о решениии отпишусь, если найдется :-)



Странное поведение DRBD, !*! stre10k, (Высоконадежные кластеры) 18-Июл-13, 18:18  [ | | | ] [линейный вид] [смотреть все]
Добрый день.

Столкнулся с такой статистикой:

Настроен DRBD расшарен по NFSv3

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await  svctm  %util
dm-6              0,00     0,00    3,10  192,60    12,40   768,30     7,98     0,05    0,28   0,10   2,00
drbd0             0,00     0,00    3,10  192,00    12,40   768,00     8,00     5,28   12,20   5,13 100,00

на dm-6 drbd0

Пытаюсь выяснить почему тормозит, смущает нагрузка по записи, быть ее не должно, что подтверждается nfsstat:

Server nfs v3:
null         getattr      setattr      lookup       access       readlink    
0         0% 17129    60% 14        0% 3417     12% 2600      9% 1         0%
read         write        create       mkdir        symlink      mknod        
4424     15% 94        0% 65        0% 0         0% 0         0% 0         0%
remove       rmdir        rename       link         readdir      readdirplus  
6         0% 0         0% 65        0% 0         0% 378       1% 3         0%
fsstat       fsinfo       pathconf     commit      
8         0% 0         0% 0         0% 70        0%


mount с noatime
/dev/drbd0 on /srv/nfs/ type ext3 (rw,noatime)

10.10.10.10:/srv/nfs/ on /mnt/ type nfs (rw,noatime,vers=3,udp,rsize=32768,wsize=32768,timeo=14,intr)

Как определить кто пишет и почему тормозит drbd?
версия drbd8-utils 2:8.3.7-2.1

nfs solution for LARGE load, !*! tsolodov, (Хранилища данных) 15-Фев-13, 12:30  [ | | | ] [линейный вид] [смотреть все]
Всем привет. Существует задача создать NFS кластер из "говна и веток" с минимальными затратами. В данный момент существуют независимые стореджи с различной нагрузкой. Чего хочется:
1) единое дисковое пространство для всех насов (SAN есть)
2) failover в случае отказа одного из насов.
3) Возможно какой нить балансировщик NFS запрсов?

Приходит на ум сделать партишн с кластерной ФС и настроить failover между насами(но блин, у нас их штук 100).

Или я не туда копаю? Есть ли идеи, коллеги.

  • Распределенная FS Что-то типаhttp www xtreemfs org , !*! fantom (ok), 17:27 , 15-Фев-13 (1)
    > Всем привет. Существует задача создать NFS кластер из "говна и веток" с
    > минимальными затратами. В данный момент существуют независимые стореджи с различной нагрузкой.
    > Чего хочется:
    > 1) единое дисковое пространство для всех насов (SAN есть)
    > 2) failover в случае отказа одного из насов.
    > 3) Возможно какой нить балансировщик NFS запрсов?
    > Приходит на ум сделать партишн с кластерной ФС и настроить failover между
    > насами(но блин, у нас их штук 100).
    > Или я не туда копаю? Есть ли идеи, коллеги.

    Распределенная FS?
    Что-то типа
    http://www.xtreemfs.org/

    сообщить модератору +/ответить
  • У Veritas была подобная штука, стоила совершенно диких денег из-за поддержк, !*! ACCA (ok), 05:00 , 16-Фев-13 (2)
    > Всем привет. Существует задача создать NFS кластер из "говна и веток" с
    > минимальными затратами. В данный момент существуют независимые стореджи с различной
    > нагрузкой.
    > Чего хочется:
    > 1) единое дисковое пространство для всех насов (SAN есть)
    > 2) failover в случае отказа одного из насов.
    > 3) Возможно какой нить балансировщик NFS запрсов?

    [...]

    У Veritas была подобная штука, стоила совершенно диких денег из-за поддержки cache coherence. Кроме того, при сотне NFS gateway должна дико тормозить - это-ж каждый должен каждому сказать, что он подхачил ещё один блок в SAN.

    Серьёзный вопрос - нахера там сотня NAS? Если в каждом 1Гбит, то при полной нагрузке никакой SAN за ними не угонится.

    Вместо говна и веток серьёзно посмотри на EMC Celerra, скажем, NS480. Я его загружал до 12Гбит sustained на протяжении часов. И это клиенты не могли отдать/принять больше, так что мы не выяснили, сколько он реально потянет.

    сообщить модератору +/ответить
  • pvfs lustre pacemaker , !*! stre10k (ok), 23:23 , 11-Июл-13 (3)
Помогите с расшифровкой vmstat, !*! worsvch, (Увеличение производительнсти) 12-Май-13, 13:26  [ | | | ] [линейный вид] [смотреть все]
Помогите, пожалуйста, понять значение id выданные утилитой vmstat

procs -------------------memory------------------ ---swap-- -----io---- --system-- -----cpu-------
r  b       swpd       free       buff      cache   si   so    bi    bo   in   cs  us sy  id wa st
0  0          0     384704      86096   21067856    0    0   348    71    2    0   3  0  95  2  0
0  0          0     384524      86116   21067908    0    0    13   106 1772 3524   0  0 100  0  0
0  0          0     384648      86124   21068016    0    0     2   219 1278 2988   0  0 100  0  0
0  0          0     385580      86192   21068104    0    0     9   307 1685 3499   0  0 100  0  0
3  0          0     286488      86208   21068640    0    0    14   632 1805 3727   6  0  94  0  0

1. id = 100 означает полный простой процессора?
2. Если id означает полный простой процессора, с помощью какой утилиты можно найти источник проблемы?

  • 1 man vmstat пробовали читать 2 какой проблемы , !*! hizel (ok), 15:52 , 12-Май-13 (1)
    1. man vmstat пробовали читать?
    2. какой проблемы?
    сообщить модератору +/ответить
2 RAID контроллера, !*! Александр, (Серверные платформы) 07-Янв-12, 02:26  [ | | | ] [линейный вид] [смотреть все]
Подскажите, пожалуйста, можно ли в материнку на сервере (intel, xeon) поставить еще один RAID контроллер Adaptec, т.е будут ли работать одновременно 2 ?
И второй вопрос какая максимальная длинна (практическая) кабеля sata/sas

Спасибо за советы.

  • С чего бы им одновременно не работать Хоть 10 контроллеров - лишь бы было куда, !*! Дядя_Федор (?), 13:52 , 07-Янв-12 (1)
    > Подскажите, пожалуйста, можно ли в материнку на сервере (intel, xeon) поставить еще
    > один RAID контроллер Adaptec, т.е будут ли работать одновременно 2 ?

    С чего бы им одновременно не работать? Хоть 10 контроллеров - лишь бы было куда вставить.

    > И второй вопрос какая максимальная длинна (практическая) кабеля sata/sas

    Искать самостоятельно не наш метод? Обязательно надо, чтобы добрый дядя ввел запрос в Гугл вместо Вас, нашел, разжевал и Вам в ротик положил?


    сообщить модератору +/ответить
Сбор данных, !*! ramzes3000, (Разное) 15-Апр-13, 11:19  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте.

Есть несколько подразделений с которых поступают данные (числовые) в центральный офис, сидит человек и все это вбивает в таблицу ексель.
Как автоматизировать процесс, что бы каждый представитель сам вносил инф. в общую таблицу.

Спасибо.

Стресс тестирование серверов, !*! ibat, (Разное) 14-Фев-13, 20:32  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте. Подскажите чем производить стресс тестирование сервера, на opensource.
Также подскажите что почитать, а то мы люди новынкие и в гугле уже потерялся с виндовсовским софтом.
Спасибо за ответы.
LDAP + Oracle, !*! mdenisov, (Коммерческие системы) 22-Мрт-13, 17:56  [ | | | ] [линейный вид] [смотреть все]
Добрый день.

Подскажите пожалуйста, как можно организовать связку LDAP и Oracle DB, причем нужно чтобы LDAP лез SQL'ем к базе а не наоборот. LDAP сервер допустим любой, но должен иметь схему АДа, Sun ONE или OpenLDAP (требование Cisco UCM, там названия полей немного разные).

  • OID Oracle Internet Directory is Oracle s LDAP directory server that uses an O, !*! dima (??), 23:18 , 22-Мрт-13 (1)
    > Добрый день.
    > Подскажите пожалуйста, как можно организовать связку LDAP и Oracle DB, причем нужно
    > чтобы LDAP лез SQL'ем к базе а не наоборот. LDAP сервер
    > допустим любой, но должен иметь схему АДа, Sun ONE или OpenLDAP
    > (требование Cisco UCM, там названия полей немного разные).

    OID (Oracle Internet Directory) is Oracle's LDAP directory server that uses an Oracle database as backend data store

    сообщить модератору +/ответить
zfs data recovery, !*! pg, (Solaris) 10-Ноя-09, 10:53  [ | | | ] [линейный вид] [смотреть все]
всем привет

кто знает как восстановит удаленные данные, файловая система zfs OS Solaris 10?

спасибо

upgrade cpu на мамке supermicro X7DBR-3, !*! avator, (Серверные платформы) 26-Фев-13, 13:39  [ | | | ] [линейный вид] [смотреть все]
привет всем, есть в наличии 4 серванта, есть желание+возможность заменить процы, но первый подход к снаряду был неудачный.
Можете подсказать с вопросом совместимоти CPU+supermicro X7DBR-3?
пробовали установить intel E5450, но ругнулся на microcode update, биос последний 2.1b:
http://www.cpu-world.com/CPUs/Xeon/Intel-Xeon%20E5450&#...).html

вот ссылка на мать http://www.supermicro.com/products/motherboard/xeon1333/5000...

признателен за любую помощь, спсб всем

  • Микрокод загружается после ядра, и живет в lib firmware intel-ucode , !*! pavlinux (ok), 19:13 , 26-Фев-13 (1)
    > но ругнулся на microcode update,

    Микрокод загружается после ядра, и живет в /lib/firmware/intel-ucode/

    сообщить модератору +/ответить
DRBD vs Glusterfs or...?, !*! stre10k, (Хранилища данных) 04-Дек-12, 12:39  [ | | | ] [линейный вид] [смотреть все]
Добрый день.

Есть задача хранить более 3ТБ картинок разных размеров, с возможностью роста по размеру и скорости хранилища. Плюс обеспечить отказоустойчивость.
Все это дело отдается nginx пока примерно до 600 хитов в сек.

Решил попробовать glusterfs mirror, но производительность не радует, возник вопрос, может есть что-то более приспособленное под данный вид нагрузки?

Можно ли доверят микротику такую нагрузку?, !*! sergeyfromkomi, (Аппаратное обеспечение) 29-Янв-13, 10:04  [ | | | ] [линейный вид] [смотреть все]
Добрый день. Хотим RouterOS. Посоветуйте, на какое железо ориентироваться для 6-ти gbps FD(1 BGP full view; без NAT; без шейпера; без ACL). Во что больше вложиться в проц. или сетевую(кукую посоветуете), в RAM? Есть ли аппаратное решение от микротика под эту нагрузку?
Можно ли доверят микротику такую нагрузку? Или лучше смотреть в сторону Linux-а?
БД под СУБД Oracle & OS Android, !*! StopHam, (Oracle) 23-Янв-13, 05:19  [ | | | ] [линейный вид] [смотреть все]
Всем привет!
Никто не знает есть ли продукты Oracle, которые работали бы в ОС Android?
Чтобы можно было БД под СУБД Oracle свою развернуть на Android'e? или клиент(менеджер) было поставить на Androide и "подцепиться" для работы с Oracle'овской БД, разврнутая в локалке на другой тачке?
СХД и отключение дополнительной полки, !*! ciscoved, (Хранилища данных) 27-Дек-12, 00:16  [ | | | ] [линейный вид] [смотреть все]
Есть SAS-СХД Dell MD3220 с дополнительной полкой (enclasure) MD1200. Обе полки имеют разный форм фактор, сама СХД расчитана на 3,5, а дополнительная полка на 2,5. На дополнительном сторадже создана группа RAID10 с виртуальными дисками. Волнует вопрос с питанием, что будет, если во время работы обесточить доп. полку? Логично предположить, что i/o-операции должны быть корректно прекращены,  а все несохранившиеся данные должны зависнуть в кеше на контроллллерах основной СХД. Но на практике получается иначе. Для теста нагрузил сторадж базой данных, после чего из полки выдернул оба SAS-кабеля. Это привело к разрушению дисковой группы и виртуальных дисков на отключенной полке. Если делать всё то же самое, но без нагрузки, то массив не разрушается. Т.е. получается какая-то очень ненадёжная схема в плане эксплуатации - если под нагрузкой дополнительная полка отключаются раньше основной, массив разрушается. Мудрение с упсами в этом случае общую надёжность системы особо как-то не повышает. Есть такое понятие, как enclosure loss protection, т.е. разнесения дисков каждой зеркальной пары RAID10 на разные полки (и аналогично для других RAIDов). Но это в моём случае не катит, т.е. у полок разный форм фактор. Всё таки есть ли способ настроить СХД так, чтобы при отключении питания, массив на дополнительной полке не разрушался? Ещё раз подчеркну, что речь идёт о локально расположенном массиве в границах одного enclasure.
Посоветуйте IBM сервер, !*! BachiStil, (Серверные платформы) 03-Окт-08, 13:46  (рейтинг 3,0) [ | | | ] [линейный вид] [смотреть все]
Здравствуйте, друзья. Помогите в выборе IBM сервера под FreeBSD. Ценой в районе 70-100 тыс., можно однопроцессорный, с оперативной памятью 2 гб, два зеркала, под /var, логи, кешь squid-а и почту. С возможностью расширения. И главное, чтобы быть полностью уверенным в совместимости железа с FreeBSD.
Подскажите, что нужно для ускорения потокового видео с сайта?, !*! Doozer, (Разное) 06-Янв-13, 21:18  [ | | | ] [линейный вид] [смотреть все]
Мне нужно постоянно смотреть онлайн потоковое видео с сайта bet365.com (Англия).
Это лайв видео должно идти максимально быстро и без задержек.
Проблема в том, что я нахожусь в Казахстане, и мой провайдер не позволяет комфортно и без задержек/ошибок смотреть это видео. Т.е. плохое качество канала именно для потокового видео, хотя скорость DSL до 8 Мбит.
Я вижу решение проблемы в аренде какого-то быстрого сервера в Европе. На него по хорошему каналу приходил бы сигнал с bet365.com, а я уже напрямую тянул бы сигнал с этого сервера.
Пусть даже это будет стоить недешево.
Или может подскажете другие варианты для решения проблемы?
горячее резервирование, !*! farcengoldd, (Увеличение наджности) 15-Дек-12, 21:07  [ | | | ] [линейный вид] [смотреть все]
Добрый день, возникла необходимость горячего резервирования одного сервера в сети, те в сети должен быть запущен паралельно первому второй сервер с одинаковыми сервисами и при выходе из строя первого менять у себя мак и ip на адрес первого и попутно стартовать сервисы (или они могут уже висеть на опр портах - напримеh http ftp mail dns) (для доступности сервисов)
репликация данных с первого не важна на первых порах
может кто-то посоветует в каком направлении можно копать ? или кто сталкивался с таким вариантом резервирования?
Производительность raid массива., !*! stre10k, (Хранилища данных) 06-Ноя-12, 17:39  [ | | | ] [линейный вид] [смотреть все]
Добрый день.

Есть рейд 6 массив из 12 SATA дисков на контроллере Adaptec 6й серии 512MB Cache.
Read и Write cache включены. Файловая система xfs с заданными sw и su.


При тестировании получились интересные результаты.

iozone -O -i0 -i1 -i2 -s4G -r4k -R

"Writer report"     137649
"Re-writer report"  193208
"Reader report"     146244
"Re-Reader report"  151575

Случайное чтение идет со скоростью 200 iops(по iostat), окончания теста не дожидался.

При этом тест в 100 потоков дает такие результаты:

iozone -O -i0 -i1 -i2 -s40M -r4k -R -t 100

"  Initial write "   42760.28
"        Rewrite "   31235.14
"           Read "  135243.35
"        Re-read "  133918.22
"    Random read "    4361.25
"   Random write "    3402.84


Что может повлиять на производительность случайного чтения в первом случае?
Пробовал увеличить queue_depth и поменять scheduler на noop.
Тестировал разные уровни raid (10, 5, 50) со всеми так.
Так и должно быть или что-то не то с настройками?

  • Убери sw и suСоздайparted -a optimal dev sdb mkpart primary xfs 2048s 100 mkfs , !*! Bosh (?), 19:15 , 06-Ноя-12 (1)
    Убери sw и su
    Создай
    parted -a optimal /dev/sdb mkpart primary xfs 2048s 100%
    mkfs.xfs -f -l lazy-count=1,size=128m,version=2 -n size=64k -b size=4096 -d agsize=512m -i size=1024 /dev/sdb1
    agsize в зависимости от типа данных
    mount -t xfs -o defaults,attr2,inode64,noatime,nodiratime,nobarrier,logbufs=8,logbsize=128k,noquota,allocsize=512m /dev/sdb1 /mnt/xfsdisk
    allocsize в зависимости от типа данных

    Затюнь disk system под xfs

    #!/bin/sh

    for i in `cat /proc/diskstats | grep sd[a-zA-Z][^0-9] | awk '{print $3}'`
    do
       blockdev --setra 4096 /dev/$i
       echo deadline > /sys/block/$i/queue/scheduler

       echo 4096 > /sys/block/$i/queue/read_ahead_kb
       echo 4096 > /sys/block/$i/queue/nr_requests
       echo 64 > /sys/block/$i/queue/iosched/fifo_batch
       echo 0 > /sys/block/$i/queue/iosched/front_merges
       echo 150 > /sys/block/$i/queue/iosched/read_expire
       echo 1500 > /sys/block/$i/queue/iosched/write_expire
       echo "Set $i - done"
    done

    echo 10 > /proc/sys/vm/swappiness

    echo 10 > /proc/sys/vm/dirty_ratio
    echo 5 > /proc/sys/vm/dirty_background_ratio
    echo 1000 > /proc/sys/vm/dirty_expire_centisecs
    echo 1000 > /proc/sys/vm/dirty_writeback_centisecs
    echo 50 > /proc/sys/vm/vfs_cache_pressure

    Посмотри в /proc/interrupts
    грепни по aacraid  и сделай так что бы это прерывание работало
    на ВСЕХ процах (если сервак малтикоре)


    >[оверквотинг удален]
    > "  Initial write "   42760.28
    > "        Rewrite "   31235.14
    > "           Read "  135243.35
    > "        Re-read "  133918.22
    > "    Random read "    4361.25
    > "   Random write "    3402.84
    > Что может повлиять на производительность случайного чтения в первом случае?
    > Пробовал увеличить queue_depth и поменять scheduler на noop.
    > Тестировал разные уровни raid (10, 5, 50) со всеми так.
    > Так и должно быть или что-то не то с настройками?

    сообщить модератору +/ответить
  • И ,ДА , 6 RAID он чисто просто тормоз бай дизайн , если есть время собери 1, !*! Bosh (?), 19:21 , 06-Ноя-12 (2)
    И ,ДА !!!,  6 RAID он чисто просто тормоз бай дизайн ,  если есть время собери 10

    >[оверквотинг удален]
    > "  Initial write "   42760.28
    > "        Rewrite "   31235.14
    > "           Read "  135243.35
    > "        Re-read "  133918.22
    > "    Random read "    4361.25
    > "   Random write "    3402.84
    > Что может повлиять на производительность случайного чтения в первом случае?
    > Пробовал увеличить queue_depth и поменять scheduler на noop.
    > Тестировал разные уровни raid (10, 5, 50) со всеми так.
    > Так и должно быть или что-то не то с настройками?

    сообщить модератору +/ответить
  • привет read cache выключи, под raid6 контроллер должен быть заточен т е алгорит, !*! нуда (?), 17:05 , 10-Ноя-12 (6)
    > Добрый день.
    > Есть рейд 6 массив из 12 SATA дисков на контроллере Adaptec 6й
    > серии 512MB Cache.
    > Read и Write cache включены. Файловая система xfs с заданными sw и
    > su.

    привет!
    read cache выключи, под raid6 контроллер должен быть заточен т.е. алгоритм этот специфический, для raid6 оптимальное количество дисков при 12 шпинделях это 11 + 1 spare.
    затестите bonnie++, у меня есть для от него некоторая статистика для сравнения, несколько raid6,raid10 и т.п. на 12 дисковых массивах.

    сообщить модератору +/ответить
LTO ultrim4 , !*! Kapanir, (Хранилища данных) 06-Дек-11, 06:12  [ | | | ] [линейный вид] [смотреть все]
Имеем ленточные библиотеки msl6000 series ... с лентами lto utrim4
по от HP DataProtector6  .. в общем периодически появляются ошибки при записи на ленты.
Собственными средствами протектора, отформатировать ленту, не совсем значит произвести к примеру запись по всей ее длине ...

Вопрос, а есть ли какой то метод/утилиты верификации лент в целом, полного форматирования,  на подобии с дискетами 1.44 ???


Установка HP P2000 - отображение СХД как локальный диск, !*! iGLaX6, (Хранилища данных) 07-Дек-12, 17:31  [ | | | ] [линейный вид] [смотреть все]
Комрады, приветствую!

Хочется видеть СХД HP P2000 как локальный диск в системе под управлением Windows 2008 R2.
Разъёмы подключены на iSCSI через переходники на Ethernet и подрублены на сервер HP DL 360 G7.
Как сделать СХД локальным диском? Очень надо!

  • Вкратце 1 в ОС должен стоять iSCSI Initiator 2 В свойствах iSCSI инициатора в, !*! Radeon (?), 16:35 , 10-Дек-12 (1)
    Вкратце:

    1. в ОС должен стоять iSCSI Initiator
    2. В свойствах iSCSI инициатора в ОС смотрится Initiator Name \\ вида iqn.2009-05.com.test:test.1      \\

    3. в P2000 в настройках хостов, нужно добавить данный хост используя имя инициатора "iqn.2009-05.com.test:test.1"

    4. При настройках презентации по умолчанию, нарезанный LUN должен быть доступен данному хосту.

    5. В настройках iSCSI инициатора в ОС , необходимо добавить портал таргетов введя IP адрес портов  одного из контроллеров MSA2000  (но  IP интерфейса управления! )

    6. Затем сделать connect Target

    Приблизительно так

    сообщить модератору +/ответить
Бекап MySQL и недоступность сайтов, !*! Adm4311, (Хранилища данных) 30-Окт-12, 13:05  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте,

при бекапе баз из MySQL частенько стали возникать проблемы с доступом к сайту. Веб-сервер начал долго грузить страницы, так как на время бекапа таблицы лочатся и есть задержка с доступом к ним. Со временем размер баз будет только увеличиваться и проблема станет особо остро.

Сайты посещаемые. Веб-сервер + MySQL живут на одном сервере.

Вообщем что можно сделать чтобы сайты были доступны в момент бекапа MySQL? Также в течение дня делаются дополнительные бекапы для актуализации данных на резервном сервере.

Как определить MAC-адрес 'кабеля', !*! kp580, (Сетевое оборудование) 02-Ноя-12, 19:26  [ | | | ] [линейный вид] [смотреть все]
Собственно, есть кабель, торчащий из стенки, это management интерфейс какого-то оборудования. Надо определить MAC, для того, чтобы зарезервировать его в DHCP. как это сделать?
Автоматическое переключение серверов для клиентов., !*! Kolinz, (Увеличение наджности) 27-Сен-12, 16:58  [ | | | ] [линейный вид] [смотреть все]
Есть 3 сервера c ip-адресами IP1, IP2, IP3.

Клиенты работают с IP1 по-умолчанию. При аварии они вынуждены использовать IP2 или IP3.

Клиенты не могут в разумные сроки (не разрешено) оперативно поменять IP1 на IP2.
Клиенты не могут (не разрешено вообще) использовать имена при подключении к IP*, только ip-адреса.

Задача:  как сделать так, чтобы клиенты использовали все время один и тот же ip-адрес для доступа к IP*, а при падении одного из серверов IP*, клиенты автоматически маршутизируются на второй доступный сервер IP2 и так далее.

Предположение: нужен какой-то промежуточный маршрутизатор, к которому будут подсоединяться клиенты, но какой это маршрутизатор, что он должен поддерживать - вопрос.

  • VRRP keepalived Linux Virtual Server, !*! Moomintroll (ok), 17:10 , 27-Сен-12 (1)
    > Задача:  как сделать так, чтобы клиенты использовали все время один и
    > тот же ip-адрес для доступа к IP*, а при падении одного
    > из серверов IP*, клиенты автоматически маршутизируются на второй доступный сервер IP2
    > и так далее.

    VRRP (keepalived)

    > Предположение: нужен какой-то промежуточный маршрутизатор, к которому будут подсоединяться
    > клиенты, но какой это маршрутизатор, что он должен поддерживать - вопрос.

    Linux Virtual Server

    сообщить модератору +/ответить
FC HBA max 100 mb/s, !*! renat, (Хранилища данных) 05-Окт-12, 14:49  [ | | | ] [линейный вид] [смотреть все]
Добрый день.
В общем есть такая схема:

          1Gb/s  _______   FC HBA 8G  __________
        -------> |Server| ----------->|СХД RAID 6|

То есть поставил в Server FC HBA 8G подключил его к СХД. Настроил LUN, Server его увидел создал на нем том расшарил по smb и rsync.
Так вот суть проблемы если R/W по-любому протоколу на сервер в этот том который на самом деле на СХД то скорость как заколдованная не превышает 110-117 MB/s, если лить трафик на локальные диски сервера, то скорость 800 MB/s. К сожалению возможности попробовать записать на этот том что то с локально сервера нет.

Так вот вопрос: реально ли организовывать такие схемы (Может просто архитектура не позволяет такое исполнять)? Если да то в чем может быть затык? почему скорость такая маленькая? Пните хотя бы в нужную сторону на что пинять на HBA или на СХД?

 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру