The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Limit CPU in Solaris, !*! usmt, (Solaris) 02-Дек-09, 06:14  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый День !!!

Есть сервер T2000 c Solaris на борту плюс установлен Checkpoint но беда в том что licences у Checkpoint только на 2 CPU (а у меня их 8) можно ли как нибудь уменьшить колличество CPU  в solaris.
p/s c ldoms and zones Checkpoint не работает

Заранее благодарен !!!

Dlink 320 + Freebsd, !*! UxN, (Увеличение масштабируемости) 01-Дек-09, 23:56  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Господа купил себе роутер Dlink Dir-320 на свою голову. Скажите пожалуйста как можно ли портировать freebsd на роутер.
Платформа Dir-320 следущая:
CPU - BCM4704
MEM - 32124K
Есть подержка USB.
Я так понимаю нужно собрать ядро и мир под етот процесор. Перерыл интернет - нашел только пару статей, в которых описана проблема wi-fi модуля.  Помогите пожалуйста т.к. информации очень мало, а я еще новичёк.

EMC AX150<->brocade<-> QLA2460 FreeBSD 8.0 = gmultipath, !*! avator, (Хранилища данных) 25-Ноя-09, 21:25  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую Всех!
Есть задача подключить хранилище по оптике через коммутатор.
исходные данные:
1. система
FreeBSD node1........gov.ua 8.0-RELEASE FreeBSD 8.0-RELEASE #1: Wed Nov 25 12:09:49 EET 2009     root@.....gov.ua :/usr/obj/usr/src/sys/GENERIC  amd64
2. адаптер
dmesg | grep Qlogic
isp0: <Qlogic ISP 2422 PCI FC-AL Adapter> port 0x3000-0x30ff mem 0xd8100000-0xd8100fff irq 24 at device 1.0 on pci5
3. диски
camcontrol devlist
<DGC RAID 5 0220>                  at scbus0 target 0 lun 0 (pass0,da0)
<DGC RAID 5 0220>                  at scbus0 target 1 lun 0 (pass1,da1)
4. драевера
grep isp /boot/loader.conf
ispfw_load=YES
isp_load=YES
5. может сто запамятовал :-)

стою мультипасинг
sysctl kern.geom.debugflags=16
gmultipath label -v storage4 /dev/da0 /dev/da1
вывод:
gmultipath: cannot clear metadata on /dev/da0: Device not configured.

вот что сыпин в месаги!!!!!!
tail -n 10 /var/log/messages
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): CAM Status: SCSI Status Error
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): SCSI Status: Check Condition
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): NOT READY asc:4,3
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): Logical unit not ready, manual intervention required
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): Unretryable error
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): Invalidating pack
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): SYNCHRONIZE CACHE(10). CDB: 35 0 0 0 0 0 0 0 0 0
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): NOT READY asc:4,3
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): Logical unit not ready, manual intervention required

Что посоветуете коллеги?

kvm virt-manager(install) iSCSI, !*! yolkov, (Увеличение масштабируемости) 23-Ноя-09, 19:15  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет!
Установлена fedora 12, qemu-kvm, python-virtinst + на этой же машине поднято iSCSI target.
Хочу поднять виртуальную машину и хранить ее на этом iSCSI target'е, чтобы когда купим отдельное iSCSI хранилище и перенести эту мащину туда.
Вопрос:
Как мне создать виртуальную машину с местом хранения на iSCSI хранилище, пытался скормить разные параметры для virt-install ничего не подходит, знает ли кто правильные параметры?
Еще пробывал с другой машины запустить virt-manager, storage мне подцепить удалось, но создать на нем разделы не удаеться, и виртулаьную машину тоже создать не могу.

Может virt-install не может напрямую работать с iSCSI хранилищем? И если не может то как нужно обходить эту ситуацию?

Помогите плиз, запарился уже.
спасибо
  



BACULA КОМАНДНАЯ СТРОКА, !*! buboni, (Хранилища данных) 23-Ноя-09, 11:32  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день всем!
столкнулся вот с такой проблемкой использую bacula 3.0.3 на Centos

Все хорошо пишет на ленту бекапит )) При востановлении одного файла! я использую командную строку с такии параметрами

echo -e restore client=localhost.localdomain-fd select current file=/folder/myfile.tar done yes | bconsole -c /etc/bacula/bconsole.conf

Всё отлично достает файлик, и вот мне понадобилась доставать ВСЕ ФАЙЛЫ из конкретной папки

Ручками через консоль это можно проделать, но как проделать из командной строки увы не могу найти решения в мануале про это ни чего не написано может кто то сталкивался, подскажите плиз

Заранее благадарю

SLES 11 на HP DL320 G6, !*! shagg, (Серверные платформы) 13-Ноя-09, 16:11  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет, вопрос такой:
При установке Suse Linux Enterprise Server на сервер HP Proliant DL320 G6 линукс не видит аппаратный RAID, а отображает два диска. Пробовал подключить образ дискеты с драйверами через iLO, в логе появляется запись
>> HP CISS Driver (v 4.6.20-21)

то есть драйвер загружается, но это ничего не меняет - так же отображаются 2 диска.
Как создать RAID аппаратными средствами сервера и корректно установить Linux?

Мониторинг активности жесткого диска, !*! sasku, (Увеличение производительнсти) 11-Ноя-09, 11:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Стоит удаленный сервер, периодически у него начинаются "тормоза": пинги через раз, сетевые соединения отваливаются (рядом стоит другой - без проблем).
Есть мысль - посмотреть активность жесткого диска.
Есть ли программы для отображения активности жесткого диска типа iptraf (эта для сети) ?
Желательно консольные, без окошек


ЗЫ: Linux Fedora 11
zfs data recovery, !*! pg, (Solaris) 10-Ноя-09, 10:53  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
всем привет

кто знает как восстановит удаленные данные, файловая система zfs OS Solaris 10?

спасибо

Вопрос по оптимизации дисковой подсистемы lib.rus.ec, !*! PSV, (Увеличение производительнсти) 09-Ноя-09, 19:50  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
http://lib.rus.ec/node/157533

---8<-----

Как определить, берётся ли файл из кэша или с диска?

Точнее, нужен список файлов, за, скажем, час, которые читались с диска. Те, которые брались из кэша - не интересуют.
(Да, я понимаю, что все файлы проходят через буфера. Нужны те, кто нагружают диск, как это не назови.)
Из них буду выбирать, кого проще утащить на другой сервер.
А то опять упёрлись в диск, прошлый раз помогло добавление нового, а третий в сервер уже не лезет.
Значит файло уёдет на другую машину. Не знаю только, какое именно. В идеале - которое меняется редко, а читается часто, для упрощения синхронизации.
Список открытых/прочитанных файлов я получил с помощью perl-Linux-Inotify2, но не могу понять, кто из них взят из кэша, а ради кого пришлось диск мучать. Можно, конечно, прикинуть из общих соображений, но что-то меня потянуло на системный подход.

---8<-----

ошибки CRC протоола HDLC, !*! serzh_hight, (Аппаратное обеспечение) 05-Ноя-09, 11:09  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
High-Level Data Link Control (HDLC) — бит-ориентированный кодопрозрачный сетевой протокол управления каналом передачи данных канального уровня сетевой модели OSI, разработанный ISO.
у меня проблема с этим протоколом, железка работает под протоколом HDLC, но имеются ошибки чётности(CRC).
Как их исправить или как понять что мешает нормальной работы HDLC.
канал вроде нормальный.в чём может быть причина появления ошибок?
MSL2024 Как примонтировать, !*! buboni, (Хранилища данных) 03-Ноя-09, 19:08  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Привет всем

Сразу скажу что лузер в tape torage )))
Имеется само хранилище MSL2024, Centos на серверe prolain, и всё это связано по scsi между собой
после инстоляции дров и tool у меня появились устр-ва после сканирования через программу  hp_ltt от хранилища.


Libraries/Autoloaders:
   1 HP MSL G3 Series (Address: 40.4.1[4-/dev/sg2])
   2   Drive 1:HP Ultrium 3-SCSI (Address: 40.4.0[4-/dev/sg1])
Причем тесты проходят, тоесть хранилище отзывается на тесты от программы))

И вот вопросик как мне примонтировать хранилище к папке или вообще записать что либо на хранилище. моя задача сбрасывать в это хранилище tar.файлы
Может подскажите как вообще реализовается запись в хранилище. что я должен дальше сделать или наоборот доделать, что должно получится в конце концов у меня)) я в ступоре :( люди добрые помогите хоть советом, хоть ссылочку на умную статьейкую Буду всему рад
Ну а лучше пошаговое руководство :)

Заранее благадарю


BladeCenterE и отказоустойчивость BNT Layer 2_3 Gigabit Etherne, !*! XoXa, (Увеличение наджности) 29-Окт-09, 17:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Никто не занимался?
Есть BladeCenterE шасси, внутри 14 лезвий HS22 с Ксеонами, все вместе это общается с сетью через 2 нортеловских свитча, вставленных в блэйд центр Е.
Требуется создать отказоустойчивость, примерно такую чтобы если вылетает один свитч, другой тут же брал на себя его работу.
Думал вот посоветоваться, может, кто сталкивался?
Как реализовывали, как работает, подводные камни...

П.С.
Честно скажу, что в данный момент слабо представляю КАК ВООБЩЕ мне это сделать, ибо если попробовать просто объеденить в бридж два интерфейса на лезвии получается петля, ибо с обох свичей из первых ext1 провода уходят в cisco 2960.
Подозреваю надо ковырять в сторону STP и port-priority, но...вдруг, я не прав, а умные подскажут...

Подключение сервера с ВМ к SAN по FC, !*! chipoza, (Разное) 21-Окт-09, 14:56  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Планируется закупка SAN с подключение к сервакам по FC, а также планируется внедрение сервака содержащего виртуалки физических серверов, это нужно для того чтобы при косяках или обслуживании физических серваков, можно было пережить всё это на виртуалке. И собственно возникает вопрос, в сервер где будет 3-4 ВМ, вставляем HBA контроллер, он может использоваться для всех виртуалок одновременно или же всётаки только на одну.
Виртуалка планируется Citrix XenServer. Собственно как обойтись с минимальными затратами?
FreeBSD 5.5 + Intel SATA RAID, !*! Romkins, (Хранилища данных) 20-Окт-09, 14:10  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток. Имеется рабочий сервер на площадке провайдера. Там 5.5 бздя. Мать Intel se7520jr2 с аппаратным набортным SATA RAID 1. Незнаю, как было раньше, не работал в фирме, но недавно заметил ошибку в dmesg:

ad4: 76319MB <ST380817AS/3.42> [155061/16/63] at ata2-master SATA150
ad6: 76319MB <ST380817AS/3.42> [155061/16/63] at ata3-master SATA150
ar0: 76319MB <ATA RAID1 array> [9729/255/63] status: DEGRADED subdisks:
disk0 READY on ad4 at ata2-master
disk1 DOWN no device found for this disk

собственно подумал, что диск гигнулся, пошёл и воткнул другой вместо второго. Зашёл в биос контроллера перед этим, ошибки никакой не было. Но всё же, раз я уже дошёл до провайдера, решил сменить диск на всякий случай. Воткнул, ребилдил в контроллере. Всё окей. Но фря сейчас пишет малость другое:

ad4: 76319MB <ST380817AS/3.42> [155061/16/63] at ata2-master SATA150
ad6: 76319MB <WDC WD800AAJS-60M0A0/02.03E02> [155061/16/63] at ata3-master SATA150
ar0: 76319MB <ATA RAID1 array> [9729/255/63] status: DEGRADED subdisks:
disk0 READY on ad4 at ata2-master
disk1 DOWN no device found for this disk


причём:

atacontrol status ar0
ar0: ATA RAID1 subdisks: ad4 DOWN status: DEGRADED


как так?

Почтовый сервер на 500k пользователей, !*! lamer, (Др. Unix) 19-Окт-09, 11:06  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
возможно ли на open source? посоветуйте статьи на эту тему


Построение ЦОДа с нуля на базе IBM,Cisco + VMы в XEN 5.5, !*! XoXa, (Сетевое оборудование) 14-Окт-09, 00:54  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Если я создам эту тему здесь я попаду по адресу?
Всем кто использует Oracle SQL Developer в linux, !*! Ivan, (Oracle) 13-Окт-09, 17:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток .Я новичек .Вопросы ко всем кто использует Oracle SQL Developer в linux .
1.Вижу список джобов . Как в нем выполнить любой из джобов?
2.В винде есть аналог PL/SQL Developer . Тот показывает все таблицы , виевсы и прочее , а Oracle SQL Developer только по схеме под кем подключился .Как сделать чтоб он показывал аналогично ?
Включение сервера UPS'ом при N% заряде, !*! a388pm, (Разное) 29-Сен-09, 15:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
При достижении обозначенного порога разряда, ups подает команду на выключение сервера. Есть ли возможность будить компьютер при увеличении заряда ups'a до N%.

WOL и тыканье пальцами в корпус не катит...

Ось: CentOS
Дрова: Megatec (serial)
ПО: nut
UPS: Ippon Smart Power Pro

Проблема с Sun Sparc Enterprise T5120. , !*! Alexey Shalin, (Solaris) 29-Сен-09, 07:14  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день,
купили сервер Sun Sparc Enterprise T5120 с предустановленной Solaris 10 sparc.

Стоит задача, поставить на этот сервер Solaris 9.
Вставлю в DVD (Он там USB) диск с Solaris 9 для Sparc

Захожу в shell. пишу reboot -- cdrom
сервер перегружается.

в ответ получаю
Boot device: /pci@0/pci@0/pci@1/pci@0/pci@1/pci@0/usb@0,2/hub@4/device@4/storage@0/disk@0:f File and args:
boot: cannot open kernel/sparcv9/unix
Enter filename [kernel/sparcv9/unix]:

в DVD стоит диск:
Solaris 9
Perationg Environment
0/05

Sparc Platform Edition

Был бы рад помощи.

Спасибо

резка трафика, !*! dnk2009, (Разное) 19-Сен-09, 21:42  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
проблема состоит в том чтобы ограничить пользователям канал в интернет. т.е. защититься от вирусного флуда и торрентов у пользователей.

собственно что для этого нужно?
резать количество соеденений или всё же резать pps ? а также если резать то и то какие нормы для обычного пользователя

Контроллер RAID-массива на SATA-дисках, !*! serzh_high, (Серверные платформы) 14-Сен-09, 13:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всех приветствую!
Есть какие-нибудь идеи по поводу вот такой ситуации...нужен cсервак подобрать очень быстро, который будет выполнять роль контроллера RAID массива уровня 5-7 на SATAшных винтах хотя бы ... кто знает примерно что у нас появилось на рынке новенького из железа?т.е. получается нужна мамка как минимум поддерживающая 6-8 каналов...так чтобы конфликтов не было...вообщем нужны хотя бы конкретные модели подобного и примерная цена..
заранее благодарен.
Зона Solaris не видит шлюз, !*! Ник, (Solaris) 24-Авг-09, 12:20  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Имею следующую проблему.
На сервере есть две сетевухи. e1000g0 (192.168.0.1/16) смотрит внутрь, e1000g1 (85.20.70.218/27) - наружу. Шлюз 85.20.70.217. Сконфигурирована зона, имеющая, по идее, две сетевухи, e1000g0:1 (192.168.0.2/16) и e1000g1:1 (85.20.70.219/27). Так вот. Из глобальной зоны шлюз пингуется. Из дочерней - нет, хотя внешний айпи глобальной зоны из дочерней пропинговать можно.

# route -p show
persistent: route add default 85.20.70.217
# netstat -rn
...
default 85.20.70.217 UG 1 483
...
# zlogin zone1 route -p show
No persistent routes are defined #ну естественно...
# zlogin zone1 netstat -rn
default 85.20.70.217
85.20.70.192 85.20.70.219 U 1 0 e1000g1:1
...
# ping 85.20.70.217
85.20.70.217 is alive
# ping 85.20.70.219
85.20.70.219 is alive
# zlogin zone1 ping 85.20.70.218
85.20.70.218 is alive
# zlogin zone1 ping 85.20.70217
ничего

Что я делаю не так?

Сервер лезет в SWAP, !*! Alexey, (Серверные платформы) 18-Авг-09, 18:29  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Имеем сервер CentOS с установленным сайтом (apache+php+mysql) на базу идет приличная нагрузка в последнее время сервер лезет в Swap.

Mem:   4147756k total,  4115400k used,    32356k free,    10652k buffers
Swap:  3068404k total,   597864k used,  2470540k free,  1307316k cached

Хотелось бы узнать что можно оптимизировать, если учесть что саму машину нельзя проапгрейдить. Где что надо посмотреть что бы понять что застравляет систему так использовать Swap. Прошу поделиться опытом.



Postgres грузит проц, !*! toshkin, (Другие СУБД) 12-Авг-09, 16:51  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!
Просьба помочь разобраться.
Система ASP Linux 14. Процесс postgres грузит процессор.

вот команда top:
op - 17:44:29 up  3:16,  3 users,  load average: 0.58, 0.56, 0.58
Tasks: 249 total,   1 running, 248 sleeping,   0 stopped,   0 zombie
Cpu(s):  2.2%us,  2.0%sy,  0.0%ni, 94.9%id,  0.8%wa,  0.0%hi,  0.0%si,  0.0%st
Mem:   3631120k total,  3448384k used,   182736k free,    71084k buffers
Swap:  7266456k total,       80k used,  7266376k free,  2526612k cached

PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
2549 postgres  20   0 80232  46m  288 R 27.6  1.3  51:37.58 postmaster
6223 usr1cv81  20   0  682m 397m  44m S  5.3 11.2  16:26.99 rphost
6327 postgres  20   0 73168  47m  29m S  2.3  1.3   2:06.06 postmaster
  635 root      15  -5     0    0    0 S  0.7  0.0   1:05.35 kjournald
5901 root      20   0     0    0    0 S  0.7  0.0   1:13.10 pdflush
7398 nobody    20   0 17924 4124 2568 S  0.7  0.1   0:01.20 smbd
1494 root      39  19     0    0    0 S  0.3  0.0   0:35.30 kipmi0
2039 root      20   0  2856  344  256 S  0.3  0.0   0:00.83 irqbalance
5818 root      20   0     0    0    0 S  0.3  0.0   1:18.76 pdflush
7888 root      20   0  2496 1120  808 R  0.3  0.0   0:00.12 top
    1 root      20   0  1948  740  536 S  0.0  0.0   0:01.83 init
    2 root      15  -5     0    0    0 S  0.0  0.0   0:00.26 kthreadd
    3 root      RT  -5     0    0    0 S  0.0  0.0   0:00.02 migration/0


Может конечно так и должно быть, но что-то здесь не то. Да и тормоза чувствуются при работе в 1с. Причем грузит проц постоянно, без перерывов.

2549 postgres  20   0 80232  46m  288 R 27.6  1.3  51:37.58 postmaster

Что здесь не так? Не могу понять.
Просьба помочь.

Solaris 10 и Instant Client - проблема с libsched.so, !*! mdenisov, (Oracle) 11-Авг-09, 18:44  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день господа.
На 10 солярку (SPARC) воткнул instant client и sqlplus, прописал в crle. При попытке запустить sqlplus ругается на отсутствие libsched.so.1, что подтверждается по ldd. Самое интересное что это сошка есть, но только в 32-разрядном варианте. Подскажите пожалуйста что это такое и откуда оно по идее берется.
Proliant DL 180 G5 (оранжевый индикатор), !*! AlexanderR, (Аппаратное обеспечение) 31-Июл-09, 14:42  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем добрый день!
Прошу помощи в следующем - есть сервер proliant DL 180 G5, около каждого жесткого диска есть 2 индикатора: зеленый - показывает активность жесткого диска и как я недавно узнал - оранжевый. Заметил периодическое(раз в секунду-две) мигание оранжевого индикатора около одного из дисков случайно. Документации к серверу найти не могу. Подскажите, пожалуйста, о чем он говорит!?

P.S. Какие существуют утилиты для диагностики и контроля состояния подобных серверов? ОС - Windows 2003x64.

Окошки от MS в песочницу...., !*! Solo_Wolf, (Разное) 25-Июл-09, 01:01  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Поскольку приходится работать с АБС quorum, то приходится реализовывать много нестандартных схем/техпроцессов для пользователей. Давеча решил проблему работы пользователей в консольных приложениях quorum, но остался 1 пень, который решить не могу. А именно печать из консоли проприетарного wine http://www.etersoft.ru . Эта зараза считает, что консоль работает в той же кодировке, что и форточки. Правил ему реестр, *.ini файлы, но ничего не помогает.Все остальное работает. У кого есть мысли на этот счет?
увеличения масштабируемости VPN-сервера?, !*! Luxor, (Увеличение масштабируемости) 21-Июл-09, 21:01  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!
VPN-сервер (пользователи подключаются к нему по протоколу pptp) очень загружен, обратил взор на кластерную технологию.
Опишу что хочу получить в итоге: у всех клиентов единый ip адрес vpn-сервера, vpn-тунели раскидываются между серверами 50 на 50, либо (здорово если так можно) терминировать все тунели будет один логический сервер состоящий из двух физических. Самое главное это - хочу масштабиремость решения, если кластер не справляется - добавить еще один сервер и радоваться жизни.
Я вообще не зациклен на кластере - буду рад выслушать все идеи! Можно ли вообще подойти к решению моей задачи с "кластерной" стороны ? Может у кого есть опыт решения таких задач ? Многие интернет-провайдеры используют такой метод аутентификации своих пользователи по vpn pptp, как они решают такую задачу интересно?

Единственное что пока придумал это балансирвока средствами DNS - указать два ip адреса на доменное имя и раскидывать будет DNS, но мне этот вариант не нравится ибо будет складываться дисбаланс мжеду серверами потому как у многих в сети установлен не доменное имя сервера а ip-адрес, и не понятно как быть с сетью реальных адресов, непонятно на какой vpn-сервер пограничному маршрутизатору маршрутизировать реальный блок адресов...



SUN T1000, !*! OlmerSU, (Серверные платформы) 21-Июл-09, 05:33  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
На SUN T1000 как-нибудь регулируется скорость вращения вентиляторов, а то уж очень он сильно шумит?
Может быть на нем есть автоматическия подбор скорости, взависимости от температуры?
Глюки IPMP на Solaris10 x86, !*! Dmitry, (Solaris) 16-Июл-09, 22:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
есть 2 машины с solaris10 x86 - one, two
есть 2 свича - switch1 switch2
one воткнут в switch1
two воткнут в switch1 (bnx0)и в swintch2(bnx1) и на этих интерфейсх настроен IPMP (link-based failure detection)

на two стоит ipfilter со state-ами

делаем ssh с one на two - через некоторое время сессия замирает и потом отваливается по timeout-у

происходит это в тот момент когда two шлет ARP ответ машине one со своим MAC-адресом, в ответ на broadcast ARP запрос своего MAC адреса от машины one.

ssh (как и любое другое tcp соединение) блочится из-за странной вещи, после того как мы отослали ARP ответ исходяшие пакеты на one начинают отсылаться с другого интерфейса из IPMP группы. То есть если до этого мы получали и принимали через bnx0, то будет отсылаться через bnx1, а в следующий раз опять и прием и передача будут через bnx0.

сам ARP ответ уходит через bnx0 и в нем стоит MAC адрес bnx0

причем если в тот момент когда пакеты физически отсылаются через bnx1 (видно по snoop)
two# route get one
говорит маршрут на one через interface: bnx0

да, bnx1 сконфигурен просто:
ifconfig bnx1 plumb
ifconfig bnx1 group twogrp up

адрес на нем 0.0.0.0 и маска 0xff000000

да, ipfilter не понимает переключения сессий с одного интерфейса не другой, это понятно, но с какой стати исходящий трафик меняет интерфейс после ARP ответа - вот вопрос.

 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру