The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Iscsi-target-utils позволяет подключиться только одной ноде, !*! ADMIN14, (Хранилища данных) 12-Янв-14, 15:54  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Система CentOS 6.5. Установлен iscsi-target-utils. На двух других серверах - iscsi-initiator-utils. Подключаюсь обоими инициаторами, но при попытке примонтировать блочное устройство (раздел на target`е с GFS2) оно монтируется только на первом устройстве, а на втором висит бесконечный процесс монтирования. Если сделать umount /раздел на первой ноде, то тогда происходит сразу же монтирование на второй.

Необходимо сделать чтобы устройство можно было монтировать одновременно на обоих нодах на rw. Кто-нибудь сталкивался с таким?

Mysql 100% Disk io, !*! Аноним, (Разное) 30-Дек-13, 10:08  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Друзья, я редко обращаюсь за помощью, сам привык все находить и делать, но тут что -то совсем худо, есть mysql сервер обслуживающий сайт с большим количеством запросов, ну все бы ничего, да только он есть 100% disk IO, a  SHOW PROCESSLIST ничего информативного не показывает, девелопер у нас дурак, может кто подсказать трюки по этому поводу, буду крайне благодарен.
Подключение клавиатуры по RS232, !*! kandzuba, (Др. Unix) 02-Дек-13, 17:01  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Имеется система. Работает под ОС QNX 4.25. Графический интерфейс на XWindow.
До текущего момента использовалась обыкновенная клавиатура с интерфейсом PS/2.
Сейчас надо использовать монитор с кнопочным обрамлением. У этого монитора клавиши выдаются по интерфейсу RS232.
Вопрос: что надо сделать в настройках системы, что бы XWindow стал принимать клавиатурный ввод по RS232.
GlusterFS split-brain possible как избежать и как бороться, !*! obl, (Увеличение наджности) 30-Ноя-13, 12:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!
тестирую два сервера в отказоустойчивом кластере на glusterfs, отправляю в перезагрузку один, создаю файл на втором.
После входа в строй обнаруживаю split-brain. новая синхронизация длится 2 часа - почти терабайт данных.
Подскажите что делать с этой бедой,

==> /var/log/glusterfs/storage-glusterfs-.log <==
[2013-11-30 11:51:07.57416] I [afr-self-heal-common.c:705:afr_mark_sources] 0-replicate: split-brain possible, no source detected
[2013-11-30 11:51:07.57518] W [fuse-bridge.c:419:fuse_attr_cbk] 0-glusterfs-fuse: 10: LOOKUP() / => -1 (Input/output error)
[2013-11-30 11:51:07.62235] I [afr-self-heal-common.c:705:afr_mark_sources] 0-replicate: split-brain possible, no source detected
[2013-11-30 11:51:07.515278] I [afr-self-heal-common.c:705:afr_mark_sources] 0-replicate: split-brain possible, no source detected

Конфиг glusterfsd:

volume SRV01-GLASTER
    type protocol/client
    option transport-type tcp
    option remote-host 10.1.1.1
    option remote-subvolume brick
end-volume

volume SRV02-GLASTER
    type protocol/client
    option transport-type tcp
    option remote-host 10.1.1.2
    option remote-subvolume brick
end-volume

volume replicate
    type cluster/replicate
    subvolumes SRV01-GLASTER SRV02-GLASTER
end-volume

volume writebehind
    type performance/write-behind
    option cache-size 1MB
    subvolumes replicate
end-volume

volume cache
    type performance/io-cache
    option cache-size 512MB
    subvolumes writebehind
end-volume


Конфиг клиентов:
volume SRV01-GLASTER
    type protocol/client
    option transport-type tcp
    option remote-host 10.1.1.1
    option remote-subvolume brick
end-volume

volume SRV02-GLASTER
    type protocol/client
    option transport-type tcp
    option remote-host 10.1.1.2
    option remote-subvolume brick
end-volume

volume replicate
    type cluster/replicate
    subvolumes SRV01-GLASTER SRV02-GLASTER
end-volume

volume writebehind
    type performance/write-behind
    option cache-size 1MB
    subvolumes replicate
end-volume

volume cache
    type performance/io-cache
    option cache-size 512MB
    subvolumes writebehind
end-volume

вопрос про модули ядра, !*! tsolodov, (Серверные платформы) 28-Ноя-13, 11:34  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день, коллеги.
Система Centos 5.X
Прошу помощи в вопросе, не могу найти в доках как работает одна фича:
Есть девайс Fusion IO drive 2(SSD накопитель). Для подключения его в систему нужно собирать модули ядра из src.rpm.
Собираем модуль для версии 2.6.18-308.8.2.el5(система загружена с этим ядром), подгружаем, все работает, девайс виден в системе. Обновляем ядро допустим на 2.6.18-348.12.1.el5(через yum), перезагружаемся, девайс виден, хотя можуль мы не пересобирали для этого ядра. Но если допустим на ядро 2.6.18-348.12.1.el5 установить rpm собранное под ядро  2.6.18-308.8.2.el5 то девайс не появится в системе.


Такое же поведение замемечено для fake RAID контроллеров.

Как работает этот механизм?

Как отличить sdd для сервера от простых ssd?, !*! dossd, (Хранилища данных) 26-Ноя-13, 16:49  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Как отличить sdd для сервера от простых ssd? По каким ключевым словам искать? Что вообще можно купить в Питере из ssd для серверов (Если подскажите кому можно позвонить, было бы вообще идеально)
вопрос по железкам (HDD), !*! 2ihi, (Хранилища данных) 26-Ноя-13, 09:48  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Читая ПДФ по новым продуктам сегейта наткнулся на:

Standard OEM models are formatted to 512 bytes per block. The block size is selectable at format time. Supported block
sizes are 512, 520, 524, and 528. Users having the necessary
equipment may modify the data block size before issuing a
format command and obtain different formatted capacities than those listed.


Возник крайне корыстный вопрос, чем форматнуть SASный диск в 520 быйтный сектор?

Не могу залогинится на disk array: file system is full, !*! sluge, (Хранилища данных) 15-Ноя-13, 17:30  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
привет,
когда я пытаюсь залогинется на Sun Storage 6120 я получаю сообщение:

#telnet disk-01
telnet 111.111.222.111
Trying 111.111.222.111...
Connected to 111.111.222.111.
Escape character is '^]'.
  
Login:
Password:
  
6120 Release 3.1.4 Thu Apr 15 18:21:30 PDT 2004 (111.111.222.111)
Copyright (C) 1997-2003 Sun Microsystems, Inc.
All Rights Reserved.
  
WARNING: Filesystem is full and log messages are not being saved

и все, приглашение командной строки не выдается. Не могу ввести ни одной команды. Кто знает как это можно пофиксить?

Подключение серверов при следующей топологии., !*! AlexNiko2013, (Увеличение наджности) 06-Ноя-13, 20:02  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Имеется следующая топология:

https://www.dropbox.com/s/ipwdq53v9hz3w3j/RONC.jpg

Вопрос: Как в таком случае настраиваются серверы? В каждом по два интеловских 2х портовых адаптера. Сервера подключаются к CICSO 6509 с установленным модулем на 48 портов. Понятно что работает HSRP на третьем и Rapid RVST на втором уровне. На серверах установленны  Windows 2003 enterprise.

странное поведение ssh сессии, !*! tsolodov, (Разное) 06-Ноя-13, 12:42  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет.

Столкнулся я вот с чем:

Запускаю скрипт, который открывает ssh сессию на сервак 10.10.10.42(для примера) и запускает shell скрипт:
<вырезал всякий мусор>
...
tar cfp  - --files-from $TARLIST --no-recursion | ssh -oUserKnownHostsFile=/dev/null -oStrictHostKeyChecking=no 10.10.10.43 "cd /storage/ && tar xfv - "
...
<вырезал всякий мусор>


Когда делаю ctrl+c то скрипт перестает работать, но процесс tar .... продолжает работать на 10.10.10.42, где parent proc:
sshd: root@notty


В чем может быть причина? Мне бы хотелось чтоб tar так же килялся при закрытии ssh на  10.10.10.42.


п.с. думал что убьется по тайм ауту, но этого не происходит.

cat /etc/redhat-release
CentOS release 5.9 (Final)
Linux 2.6.18-348.1.1.el5 #1 SMP Tue Jan 22 16:19:19 EST 2013 x86_64 x86_64 x86_64 GNU/Linux

IRIX + VFE, !*! Y, (Др. Unix) 15-Окт-13, 10:02  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
День добрый, может кто ещё работает на старых добрых CHALLENGE от SGI, или может кто помнит, подскажите: есть CHALLENGE L с IRIX6.2, в него вставлена железка VFE, вот тут, вроде как, драйвера для неё ftp://ftp.sgi.com/sgi/netdrv/6.2/ но как их установить незнаю. Или может у кого есть сырцы этих самых драйверов под 6.2, поделитесь, пожалуйста.
Спасибо.
Скорость работы Adaptec 7805 + ZFS + SSD + FreeBSD 9.2, !*! Hromo, (Увеличение производительнсти) 08-Окт-13, 17:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Имеем вот такие диски:
http://ark.intel.com/ru/products/71915/Intel-SSD-DC-S3700-Se...

В теории сабжевая связка должна давать хорошие показатели по производительности.
Последовательное чтение 500 MB/s
Случайное чтение (участок 100%) 75000 IOPS

На деле при интенсивной работе в рейд10 йопсов (iops) должно было быть около 150000 на чтение, а было не более 3500.
Пропускная способность контроллера оказалась 50Мб/сек, а не 500Мб/сек.

В чем может быть причина?

Выбор IP видеорегистратора NVR, !*! bayramgulov, (Разное) 08-Окт-13, 13:20  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго всем дня.

Подскажите, если позволяет опыт, какое бы вы выбрали аппаратное решение IP видеорегистратора для 16 + IP камер. Список слишком длинный, а толком обзора или какого либо ТОПа не найдено. Софтовое не предлагать, прошу не тратьте свое время. Понравился на nag.ru POWERTONE PWT16N, но продукт абсолютно не знакомый.
Поделитесь опытом, пожалуйста.

Долго грузится ОС AIX 6.1 TL 6100-07, !*! Сергей, (AIX) 28-Сен-13, 15:29  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте уважаемые спецы по Power системам , уже и незнаю к кому обратится с данной проблемой.
В тех. поддержке мне ничего дельного не подсказали и мало того для них это дремучий лес.

И так. Имеется у меня BladeCenter H , и лезвие PS701 . Установил на него AIX 6.1 , долго мучался с настройкой сети : т.к в smit assist их было 4 :

en0
en1
et0
et1

как нистранно в сторону свитча смотрел en0.

Я прописал на него IP ,сеть все видит но после перезагрузки система долго грузится минут 30
-------------------------------------------------------------------------------
Welcome to AIX.
boot image timestamp: 16:43:44 09/17/2013
The current time and date: 22:43:32 09/27/2013
processor count: 8; memory size: 7552MB; kernel size: 28583826
boot device: /pci@800000020000208/pci1014,02BD@1/sas/disk@20000:2
-------------------------------------------------------------------------------

В начале на этапе вот этой заставки вверху порядком минут (15)


Потом появляется ниже вот это:

Saving Base Customize Data to boot disk
Starting the sync daemon
Mounting the platform dump file system, /var/adm/ras/platform
Starting the error daemon
System initialization completed.
TE=OFF
CHKEXEC=OFF
CHKSHLIB=OFF
CHKSCRIPT=OFF
CHKKERNEXT=OFF
STOP_UNTRUSTD=OFF
STOP_ON_CHKFAIL=OFF
LOCK_KERN_POLICIES=OFF
TSD_FILES_LOCK=OFF
TSD_LOCK=OFF
TEP=OFF
TLP=OFF
Successfully updated the Kernel Authorization Table.
Successfully updated the Kernel Role Table.
Successfully updated the Kernel Command Table.
Successfully updated the Kernel Device Table.
Successfully updated the Kernel Object Domain Table.
Successfully updated the Kernel Domains Table.
Setting tunable parameters...complete
Starting Multi-user Initialization
Performing auto-varyon of Volume Groups
Activating all paging spaces
0517-075 swapon: Paging device /dev/hd6 is already active.

The current volume is: /dev/hd1
Primary superblock is valid.

The current volume is: /dev/hd10opt
Primary superblock is valid.
Performing all automatic mounts
Replaying log for /dev/lv00.
mount: 0506-324 Cannot mount /dev/cd0 on /cdrom: The device is not ready for operation.
Multi-user initialization completed
Checking for srcmstr active...complete
Starting tcpip daemons:
success
success
success
0513-059 The syslogd Subsystem has been started. Subsystem PID is 6488266.
0513-059 The sendmail Subsystem has been started. Subsystem PID is 6160580.
0513-029 The snmpd Subsystem is already active.
Multiple instances are not supported.
0513-059 The portmap Subsystem has been started. Subsystem PID is 5112024.
0513-059 The inetd Subsystem has been started. Subsystem PID is 6750416.
0513-059 The hostmibd Subsystem has been started. Subsystem PID is 6226124.
0513-059 The snmpmibd Subsystem has been started. Subsystem PID is 4522052.
0513-059 The aixmibd Subsystem has been started. Subsystem PID is 5767350.
Finished starting tcpip daemons.
nsmb0 Available

ДАЛЕЕ ПРИ СТАРТЕ СЛУЖБЫ NFS СТОИТ ЕЩЕ МИНУТ 10-15

Starting NFS services:
0513-059 The biod Subsystem has been started. Subsystem PID is 6947032.


и потом только появляется приглашение

Welcome to Aix 6.1

Login:
Password:

Смущает очень долгая загрузка , что я делаю потом :

Жду долгой загрузки AIXа , захожу в smit assist и через него удаляю все интерфейсы перезагружаюсь , AIX загружается за 3 - 4 минуты , но только как опять добавляю IP адрес к интерфейсу и опять ребутаюсь , система грузится долго.

Пробывал переустанавливать систему снуля , прописываю адресс все ок но после нескольких перезагрузок опять такая беда. В железе проблем однозначно нету . 8 гигов памяти , винт менять тоже пробывал ставил систему заново.


Подскажите пожайлуста как можно решить эту проблему , или повыключать половина служб которые ненужны мне чтоб загружалось быстрее

Странное поведение DRBD, !*! stre10k, (Высоконадежные кластеры) 18-Июл-13, 18:18  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

Столкнулся с такой статистикой:

Настроен DRBD расшарен по NFSv3

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await  svctm  %util
dm-6              0,00     0,00    3,10  192,60    12,40   768,30     7,98     0,05    0,28   0,10   2,00
drbd0             0,00     0,00    3,10  192,00    12,40   768,00     8,00     5,28   12,20   5,13 100,00

на dm-6 drbd0

Пытаюсь выяснить почему тормозит, смущает нагрузка по записи, быть ее не должно, что подтверждается nfsstat:

Server nfs v3:
null         getattr      setattr      lookup       access       readlink    
0         0% 17129    60% 14        0% 3417     12% 2600      9% 1         0%
read         write        create       mkdir        symlink      mknod        
4424     15% 94        0% 65        0% 0         0% 0         0% 0         0%
remove       rmdir        rename       link         readdir      readdirplus  
6         0% 0         0% 65        0% 0         0% 378       1% 3         0%
fsstat       fsinfo       pathconf     commit      
8         0% 0         0% 0         0% 70        0%


mount с noatime
/dev/drbd0 on /srv/nfs/ type ext3 (rw,noatime)

10.10.10.10:/srv/nfs/ on /mnt/ type nfs (rw,noatime,vers=3,udp,rsize=32768,wsize=32768,timeo=14,intr)

Как определить кто пишет и почему тормозит drbd?
версия drbd8-utils 2:8.3.7-2.1

Оценить в стоимостном выражении затраты на увеличение % отказоу, !*! Dr_Arich, (Разное) 15-Май-13, 06:37  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброе время суток.

Прошу оказать содействие в решение проблемы или хотя бы получение направление для начало решение задачи.
Поставили задачу :
Оценить в стоимостном выражении затраты на увеличение % отказоустойчивости \ доступности инфраструктуры.
К примеру – повышение отказоустойчивости / доступности с 97 % до 97,1 % будет стоить столько то денег / трудозатрат.
С начало я подумал что необходимо просто создать наиболее лучшею схему проекта и наложить на существующею и показать сколько будет стоит стабилизация. Однако задача поставлена на поиск методики оценки серверной инфраструктуры. Во общем кто может помогите.
Заранее спасибо.

Помогите с расшифровкой vmstat, !*! worsvch, (Увеличение производительнсти) 12-Май-13, 13:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Помогите, пожалуйста, понять значение id выданные утилитой vmstat

procs -------------------memory------------------ ---swap-- -----io---- --system-- -----cpu-------
r  b       swpd       free       buff      cache   si   so    bi    bo   in   cs  us sy  id wa st
0  0          0     384704      86096   21067856    0    0   348    71    2    0   3  0  95  2  0
0  0          0     384524      86116   21067908    0    0    13   106 1772 3524   0  0 100  0  0
0  0          0     384648      86124   21068016    0    0     2   219 1278 2988   0  0 100  0  0
0  0          0     385580      86192   21068104    0    0     9   307 1685 3499   0  0 100  0  0
3  0          0     286488      86208   21068640    0    0    14   632 1805 3727   6  0  94  0  0

1. id = 100 означает полный простой процессора?
2. Если id означает полный простой процессора, с помощью какой утилиты можно найти источник проблемы?

Zabbix на PostgreSQL, !*! Andrey Mitrofanov, (Увеличение масштабируемости) 29-Апр-13, 12:18  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
[ Я вынес сюда "свою" ветку про SUBJ из новости: ]

=== 26.04.2013 10:48  Высокопроизводительный MySQL-движок TokuDB переведён в разряд открытых проектов
http://www.opennet.dev/opennews/art.shtml?num=36779

=== Аноним, 11:59 , 26-Апр-13 (1) +4
#>>> Интересно, если Заббикс на этот движок перенести - ему поможет?

=== alp, 12:22 , 26-Апр-13 (4) +2
#>> Postgres ему точно поможет


http://www.opennet.dev/cgi-bin/openforum/vsluhboard.cgi?az=sh...

>> Postgres ему точно поможет
> Не-а. Моему Zabbix-у на Pg, "сурово" загруженному до того по диску/SQL (не
> считая не-масштабируемости самого Z.), помогло разделение напополам на два сервера -
> половина~ хостов туда, половина сюда.

.
> Партишионинг я не осилил.

.
> Ну, housekeeper по-переписывал -- чтоб он не забивал своим io более приоритетные
> (для меня) основные процессы Z.

--- 8< ---

Поясню/дополню:

W-I-P, comming soon---

Сбор данных, !*! ramzes3000, (Разное) 15-Апр-13, 11:19  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте.

Есть несколько подразделений с которых поступают данные (числовые) в центральный офис, сидит человек и все это вбивает в таблицу ексель.
Как автоматизировать процесс, что бы каждый представитель сам вносил инф. в общую таблицу.

Спасибо.

Промышленная автоматизация пишем свой framework?, !*! tsolodov, (Высоконадежные кластеры) 03-Апр-13, 12:02  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет. Пожалуйста, поделитесь опытом:
Есть некое приложение, сервисы которого распределены между разными физическими серверами(~50 серверов в каждом датацентре) на CentOS 5. По мере роста сервиса стало все сложнее обслуживать весь этот зоопарк. Есть зависимости  что если нужно рестартануть сервис А то он зависит от сервиса Б и тогда нужно их рестартить оба, причем в правильной последовательности. Это просто ужас :). Встал вопрос автоматизации этих рестартов. Посоветуйте ПО с помощью которго можно это сделать, понятно что придется напильником шлифовать долго и упорно, скорее всего даже дописывать что нить. Делимся опытом, дорогие профи :)
LDAP + Oracle, !*! mdenisov, (Коммерческие системы) 22-Мрт-13, 17:56  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

Подскажите пожалуйста, как можно организовать связку LDAP и Oracle DB, причем нужно чтобы LDAP лез SQL'ем к базе а не наоборот. LDAP сервер допустим любой, но должен иметь схему АДа, Sun ONE или OpenLDAP (требование Cisco UCM, там названия полей немного разные).

upgrade cpu на мамке supermicro X7DBR-3, !*! avator, (Серверные платформы) 26-Фев-13, 13:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
привет всем, есть в наличии 4 серванта, есть желание+возможность заменить процы, но первый подход к снаряду был неудачный.
Можете подсказать с вопросом совместимоти CPU+supermicro X7DBR-3?
пробовали установить intel E5450, но ругнулся на microcode update, биос последний 2.1b:
http://www.cpu-world.com/CPUs/Xeon/Intel-Xeon%20E5450&#...).html

вот ссылка на мать http://www.supermicro.com/products/motherboard/xeon1333/5000...

признателен за любую помощь, спсб всем

nfs solution for LARGE load, !*! tsolodov, (Хранилища данных) 15-Фев-13, 12:30  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет. Существует задача создать NFS кластер из "говна и веток" с минимальными затратами. В данный момент существуют независимые стореджи с различной нагрузкой. Чего хочется:
1) единое дисковое пространство для всех насов (SAN есть)
2) failover в случае отказа одного из насов.
3) Возможно какой нить балансировщик NFS запрсов?

Приходит на ум сделать партишн с кластерной ФС и настроить failover между насами(но блин, у нас их штук 100).

Или я не туда копаю? Есть ли идеи, коллеги.

Стресс тестирование серверов, !*! ibat, (Разное) 14-Фев-13, 20:32  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте. Подскажите чем производить стресс тестирование сервера, на opensource.
Также подскажите что почитать, а то мы люди новынкие и в гугле уже потерялся с виндовсовским софтом.
Спасибо за ответы.
Файловое хранилище, !*! PashaTurok, (Хранилища данных) 05-Фев-13, 12:48  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Подскажите пожалуйста качественное и БЕЗОПАСНОЕ (как с точки зрения доступа так и целостности данных) решение. Есть 3 сервера на каждом 8 дисков.

1. Возможно ли объединить все дисковое пространство всех серверов в одно большое файловое пространство для работы с самбой? - чтобы у нас было не три диска самбы - по одному на каждый сервер (+LVM), а один диск. Смысл конечно заключается в том, чтобы вначале заполнялись полностью диски первого сервера, потом второго и т.п.

2. Какие есть решения, чтобы один мастер сервер сам выбирал нужный сервер и нужный диск исходя из размера записываемого файла и свободного места на диске и т.п. То есть, чтобы пользователь даже не знал, где размещается файл.

Хотелось бы конечно проверенные временем и бесплатные решения. Я понимаю, что в интернете много, но что используется больше всего на практике?



Можно ли доверят микротику такую нагрузку?, !*! sergeyfromkomi, (Аппаратное обеспечение) 29-Янв-13, 10:04  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день. Хотим RouterOS. Посоветуйте, на какое железо ориентироваться для 6-ти gbps FD(1 BGP full view; без NAT; без шейпера; без ACL). Во что больше вложиться в проц. или сетевую(кукую посоветуете), в RAM? Есть ли аппаратное решение от микротика под эту нагрузку?
Можно ли доверят микротику такую нагрузку? Или лучше смотреть в сторону Linux-а?
БД под СУБД Oracle & OS Android, !*! StopHam, (Oracle) 23-Янв-13, 05:19  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет!
Никто не знает есть ли продукты Oracle, которые работали бы в ОС Android?
Чтобы можно было БД под СУБД Oracle свою развернуть на Android'e? или клиент(менеджер) было поставить на Androide и "подцепиться" для работы с Oracle'овской БД, разврнутая в локалке на другой тачке?
Подскажите, что нужно для ускорения потокового видео с сайта?, !*! Doozer, (Разное) 06-Янв-13, 21:18  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Мне нужно постоянно смотреть онлайн потоковое видео с сайта bet365.com (Англия).
Это лайв видео должно идти максимально быстро и без задержек.
Проблема в том, что я нахожусь в Казахстане, и мой провайдер не позволяет комфортно и без задержек/ошибок смотреть это видео. Т.е. плохое качество канала именно для потокового видео, хотя скорость DSL до 8 Мбит.
Я вижу решение проблемы в аренде какого-то быстрого сервера в Европе. На него по хорошему каналу приходил бы сигнал с bet365.com, а я уже напрямую тянул бы сигнал с этого сервера.
Пусть даже это будет стоить недешево.
Или может подскажете другие варианты для решения проблемы?
СХД и отключение дополнительной полки, !*! ciscoved, (Хранилища данных) 27-Дек-12, 00:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть SAS-СХД Dell MD3220 с дополнительной полкой (enclasure) MD1200. Обе полки имеют разный форм фактор, сама СХД расчитана на 3,5, а дополнительная полка на 2,5. На дополнительном сторадже создана группа RAID10 с виртуальными дисками. Волнует вопрос с питанием, что будет, если во время работы обесточить доп. полку? Логично предположить, что i/o-операции должны быть корректно прекращены,  а все несохранившиеся данные должны зависнуть в кеше на контроллллерах основной СХД. Но на практике получается иначе. Для теста нагрузил сторадж базой данных, после чего из полки выдернул оба SAS-кабеля. Это привело к разрушению дисковой группы и виртуальных дисков на отключенной полке. Если делать всё то же самое, но без нагрузки, то массив не разрушается. Т.е. получается какая-то очень ненадёжная схема в плане эксплуатации - если под нагрузкой дополнительная полка отключаются раньше основной, массив разрушается. Мудрение с упсами в этом случае общую надёжность системы особо как-то не повышает. Есть такое понятие, как enclosure loss protection, т.е. разнесения дисков каждой зеркальной пары RAID10 на разные полки (и аналогично для других RAIDов). Но это в моём случае не катит, т.е. у полок разный форм фактор. Всё таки есть ли способ настроить СХД так, чтобы при отключении питания, массив на дополнительной полке не разрушался? Ещё раз подчеркну, что речь идёт о локально расположенном массиве в границах одного enclasure.
горячее резервирование, !*! farcengoldd, (Увеличение наджности) 15-Дек-12, 21:07  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день, возникла необходимость горячего резервирования одного сервера в сети, те в сети должен быть запущен паралельно первому второй сервер с одинаковыми сервисами и при выходе из строя первого менять у себя мак и ip на адрес первого и попутно стартовать сервисы (или они могут уже висеть на опр портах - напримеh http ftp mail dns) (для доступности сервисов)
репликация данных с первого не важна на первых порах
может кто-то посоветует в каком направлении можно копать ? или кто сталкивался с таким вариантом резервирования?
 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру