The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
postfix - QUIT\r\n, !*! Alessandro1991, (Разное) 21-Ноя-17, 08:46  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
здравствуйте!
переношу настройки на новый сервер freebsd 10.3
postfix+cour+ldap+sasl
подключение почтовым клиентом не проходит.
локально telnet-ом 110 порт все ок, логин\пароль проходит.
в maillog -
Nov 21 10:42:56 desertfox pop3d: LOGOUT, ip=[::ffff:127.0.0.1]
Nov 21 10:42:56 desertfox pop3d: LOGOUT, ip=[::ffff:127.0.0.1]
Nov 21 10:42:56 desertfox postfix/smtpd[48770]: improper command pipelining after EHLO from localhost.polushka.net[127.0.0.1]: QUIT\r\n
Nov 21 10:42:56 desertfox postfix/smtpd[48770]: disconnect from localhost.polushka.net[127.0.0.1] ehlo=1 quit=1 commands=2
что может быть?
p.s. подключение идет 127.0.0.1 - потому что подкл. с  перебросом портов. сервер стоит внутри сети в другом месте.
После прошифки раид контроллер не видит диски, !*! sergicus, (Аппаратное обеспечение) 28-Июн-17, 15:58  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть у меня сервер Fujitsu Siemens model PRIMERGY RX300 S4
Попробовал я обновить его до самых последних версий прошивки биос и раид контроллера. Все обновилось но при входе в биос жесткие диски перестали видется а вместо них показывается надпись Backplane(252)
Раид контроллер у меня RAID 5/6 sas based on LSI MegaRaid

Ниже я выкладываю скриншоты megaraid bios config utility

http://s018.radikal.ru/i506/1706/45/ca7ae131e3af.jpg

http://s018.radikal.ru/i501/1706/a2/9029c897aa3b.jpg

http://s018.radikal.ru/i524/1706/16/1052f660e8e4.jpg

http://s019.radikal.ru/i637/1706/c7/bdfc8b492613.jpg

http://s019.radikal.ru/i628/1706/fa/ef7ec84164fe.jpg

http://s009.radikal.ru/i307/1706/ed/6b6d772d1fed.jpg


Я пробовал использовать megacli (загружался с флэшки)  - очищал конфигурацию megacli -CfgClr -aAll  но это не помогло

Что мне посоветуете делать в такой ситуации

hp rx6600 + FreeBSD 10.3, !*! Энди, (Серверные платформы) 21-Июн-17, 17:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
подарили блин... :( решил поставить фрю, все девайсы видим, все замечательно ставится, никаких проблем кроме одной - не стартуем толком. вываливаем can't load kernel. боремся просто - load part1:/boot/kernel/kernel ну и дальше опять ругаемся что нужно указать откуда - ufs:/dev/da0p2
хочется поправить это дело - но прописывание в loader.conf vfs.root.mountfrom - не помогает... что-то у меня никаких мыслей :(
Объединение сетевых интерфейсов 10Gb под Linux, !*! Maximus, (Увеличение производительнсти) 19-Июн-17, 13:45  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую всех!
Планирую объединение сетевых интерфейсов 10Gb под Linux на двух серверах. ОС Red Hat Enterprise Linux AS release 4 (Nahant Update 8) и Red Hat Enterprise Linux Server release 5.8 (Tikanga). Режим планирую использовать mode = 6 (balance-alb). Подскажите кто с похожей задачей сталкивался, есть ли какие либо нюансы, возможные проблемы, куда стоит копать и т.д.
Системы учета рабочего времени, !*! TimaKlim, (Разное) 13-Мрт-17, 14:07  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день. Интересует система учета рабочего времени.
Желательно чтобы вела запись процесса как и сколько сотрудник работает.
Дело в том, что мы сотрудничаем с удаленными фрилансерами - хотелось бы знать что они нам полностью уделяют проплаченое время.
Благодарю.


Стоит ли поднимать БД на X5680 + SSD, !*! ОлдФак, (Серверные платформы) 10-Мрт-17, 17:40  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Товарищи, прошу дельного совета.

Итак ситуация такая, что надо строить сервер для БД. Посмотрел стоимость новых серверов, все от 200 тыс. рублей.

В процессе изучения вопроса нашёл варианты Б/У серверов Supermicro, и они значит практически все на Xeon'ах 2010 года. Например X5680.

Так вот вопросов несколько:
1. Стоит ли брать Б/У сервер двухсокетный на таком процессоре?
2. Стоит ли под БД делать схему хранилища такую: 2xHDD + 2xSSD, где зеркало на HDD'ах под систему, а зеркало на SSD'ах под БД.
3. Какое примерно % соотношение желательно для RAM и объёма БД?

Вопрос про схему хранения заключается в том, что SSD же желательно поменьше дёргать на запись, и если SSD в зеркале, то они и на запись одинаково будут "истощаться", это в плане отказоустойчивости вообще имеет смысл?

И если у сервера например ОЗУ 96Гб, при размере БД 16Гб, то не будет ли постоянно что-то писаться на диск?



VMWare ESXI 5.1 - замена загрузочного диска, !*! ASphinx, (Виртуализация) 10-Фев-17, 13:36  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброе время суток всем!

Есть на работе машинка для различных экспериментов под VMWare ESXI 5.1, Free license. Количество задач выросло - стало не хватать места. Начальство расщедрилось и выделило новый HDD с требованием вернуть старый диск после замены во внутренний оборот железа. Пытался перенести содержимое акронисом, norton ghost-ом, простым dd - лучше всех справился dd, но теперь машинка грузится долго, в логе куча ругани типа:

WARNING: NMP: nmp_IssueCommandToDevice:2955:I/O could not be issued to device "${новый диск}" due to Not found
WARNING: NMP: nmp_DeviceRetryCommand:133:Device "${новый диск}": awaiting fast path state update for failover with I/O blocked. No prior reservation ex
WARNING: NMP: nmp_DeviceStartLoop:721:NMP Device "${новый диск}" is blocked. Not starting I/O from device
WARNING: NMP: nmpDeviceAttemptFailover:599:Retry world failover device "${новый диск}" - issuing command 0x412400816cc0
WARNING: NMP: nmpDeviceAttemptFailover:658:Retry world failover device "${новый диск}" - failed to issue command due to Not found (APD), try again...
WARNING: NMP: nmpDeviceAttemptFailover:708:Logical device "${новый диск}": awaiting fast path state update...
[много раз по кругу...],
наконец, потеряна информация о локальном сторадже для виртуальных машин и сами виртуальные машины на новом диске. Я понимаю, что лучше было бы ставить систему на отдельном диске, но... Никто не думал тогда, что виртуалка приживётся так надолго.
В гугле много советов, как поменять носители в рейде и стораджах, но про загрузочный диск как-то тихо. :(
Есть у кого положительный опыт или ставить систему заново и восстанавливать конфигурации?

не грузится FreeBSD любой версии, !*! Alessandro1991, (Разное) 19-Янв-17, 15:19  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!

имеется сервер - FreeBSD 9.3 i386
CPU: Intel(R) Core(TM) i5-4460  CPU @ 3.20GHz (3192.67-MHz 686-class CPU)
материнка - ASUS H81M-K
там все хорошо запускается.

теперь другой
CPU: Intel(R) Core(TM) i5-4440  CPU @ 3.10GHz (3092.86-MHz 686-class CPU)
материнка - ASUS H81M-K
тут я пробовал разные ОС. 8.4 amd64. 9.3 i386. 10.1 amd 64
отключал dvd, сетевые карты. при запуске, черный экран что-то думает пару сек. и биос заходит и все.
windows пробовал запускать, запускает.

до меня парень был, у одного клиента было подобное, решилось тупо заменой всего железа.

у кого-нить было такое? это вообще нормально?

lsi raid sas 8404e + esxi, !*! Endar, (Др. Unix) 05-Ноя-16, 18:48  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Столкнулся с проблемой esxi (4, 5.5, 6) работают с дисковыми полками в 2 раза медленнее от простой линухи (убунты)
Железка давно не новая, но работать должна нормально
NEC Express5800/120Ri-2 Rack Servers
N8100-1247E
Бортовой рейд (не интересует, но для справки) LSI Megaraid 1068
Интересует навешенный LSI SAS MegaRaid 8408e
Корзинка на 6 дисков - 2 полки на RAID 5

ESXi видит контроллер вот так:
vmhba1 megaraid_sas link-n/a unknown.vmhba1 (0:4:14.0) LSI / Symbios Logic LSI MegaRAID SAS1064R

а убунту с коробки:
RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS 1068
        Subsystem: LSI Logic / Symbios Logic MegaRAID SAS 8408E
        Flags: bus master, stepping, 66MHz, medium devsel, latency 32, IRQ 18
        Memory at de000000 (32-bit, prefetchable) [size=64K]
        Memory at de200000 (32-bit, non-prefetchable) [size=128K]
        [virtual] Expansion ROM at de220000 [disabled] [size=32K]
        Capabilities: [c0] Power Management version 2
        Capabilities: [d0] MSI: Enable- Count=1/2 Maskable- 64bit+
        Capabilities: [e0] PCI-X non-bridge device
        Kernel driver in use: megaraid_sas
        Kernel modules: megaraid_sas

Бортовой контроллер в убунте:
SCSI storage controller: LSI Logic / Symbios Logic SAS1068 PCI-X Fusion-MPT SAS (rev 01)
        Subsystem: NEC Corporation SAS1068 PCI-X Fusion-MPT SAS
        Flags: bus master, 66MHz, medium devsel, latency 72, IRQ 25
        I/O ports at 3000 [disabled] [size=256]
        Memory at de610000 (64-bit, non-prefetchable) [size=16K]
        Memory at de600000 (64-bit, non-prefetchable) [size=64K]
        [virtual] Expansion ROM at de400000 [disabled] [size=2M]
        Capabilities: [50] Power Management version 2
        Capabilities: [98] MSI: Enable- Count=1/1 Maskable- 64bit+
        Capabilities: [68] PCI-X non-bridge device
        Capabilities: [b0] MSI-X: Enable- Count=1 Masked-
        Kernel driver in use: mptsas
        Kernel modules: mptsas

Проблема:
Провожу простое копирование файла (линейная запись) - с полки на полку вытаскиваю с сети на полку, хоть ДД-шкой!

Попробовал:
- перестраивать полки в различных вариантах,
- пробовал разные типы носителей SAS/SATA - HDD/SSD,
- менял драйвера на megaraid_sas с vmware и adapteca - от самых старых до последних.
- включал/выключал прибамбасы кеширование контроллера и дисков.
- поменял BBU.
- обновил прошивку контроллера.
- попробовал даже отключить всё не нужное в биосе.
- в бубен стучал.
- и даже это всё в разных комбинациях.

Всегда одно и тоже в ESXi скорость записи на полки в 2 раза ниже.

Кто-нибудь сталкивался с подобной ситуацией, может, даже, удалось решить подобную проблему?

Объеденение сервров в одну сеть, !*! CHIM, (Увеличение производительнсти) 19-Окт-16, 21:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток!
Существует сервер с 4 сетевыми портами и 1 задействован для соединения с инетом и 3 для существующих 3х подсетей, назовём его - SRV1
Сейчас ставлю ещё одни сервер для бухгалтерии и их нужд, там есть 4 сетевых интерфейса SSD и всё такое, назовём его SRV2.
Если говорить простыми словами, то 2 сервера в одной подсети.
Но вот появилась делема, как соединить данные сервера?
Немного предыстории о том почему я собираюсь использовать оптику для соединения с коммутатором для бухгалтерии и сервером SRV1 или же другим коммутатором. У меня на пути к серверу проходит множество кабелей с 220V (точнее целая щитова от которой идёт разводка на все стороны)+ сигнализация+пожарка+телевидение+радио и эти линии никак не обойти. Решил что в моём случае использование оптики(в коммутаторе есть SFP порт) в качестве соединения без помех коммутатора с сервером SRV2 это лучший из способов, тем более я хотел бы добиться максимальной скорости от передачи информации с SSD дисков сервера в гигабитную сеть бухгалтерии.  Если подскажите какой либо другой вариант, то буду признателен.
Вариант первый:
1. Вся бухгалтерия соединяется коммутатором и от туда идёт оптикой в порт первый(eth0) сервера SRV2
2. Во второй порт(eth1) сервера SRV2 втыкается провод с сервера который раздаёт интернет SRV1
3. На сетевой сервера SRV1 меняем IP адрес, так как он был из той под сети что и в бухгалтерии, например ставим 192.168.12.1, а для бухгалтерии сервер SRV2 будет смотреть адресом 192.168.20.1(прежний ip сервера SRV1).
4. Настраиваю на сервере SRV2 маскарадинг на сервер SRV1, дабы пропустить интернет в сеть бухгалтерии с теми настройками фильтрации которые предоставляет сервер SRV1, чтоб не настраивать всё по нескольку раз на разных машинах.
5. Подправляю настройки iptables на SRV1 для интерфейса смотрящего на SRV2, чтоб он раздавал интернет для IP SRV2.

Минусы этого варианта в том что как это будет работать на практике ещё не ясно, так как буду такое соединение делать впервые.

Вариант второй:
1. Вся бухгалтерия соединяется коммутатором и от туда идёт оптикой в гигабитный порт коммутатора на котором настроен VLAN для подсети бухгалтерии, из этого коммутатора выходит два патчкорда, один из которых идёт к серверу SRV1, второй к SRV2/

Минус данного варианта в том, что я боюсь потерять скорость соединения  используя ещё одно промежуточное звено в виде коммутатора. Во втором коммутаторе тоже есть SFP  порт, но его использовать не вариант, так как он не управляется сервером, то есть его нельзя привязать к определённому VLAN что к нему не было доступа из других подсетей. Получается что если я соединю 2 коммутатора по SFP то полностью расшарю сеть бухгалтерии для всех VLAN(оба коммутатора MultiCo EW-70244).

Вариант третий:
1. Использовать Bridge и объединить 2 сетевых порта на сервере SRV2 для доступа к серверу SRV1. Но тогда возникает вопрос о скорости соединения и фильтрации входящих адресов и доступов для сервера SRV2. Много где читал, что Bridge снижает производительность, правда или лож?

Вот и не знаю как поступить. Хотел погуглить на тему как соединяются сервера, но так толкового ничего и не нашёл. Может подскажете как вы соединяете сервера в одной подсети? Только через коммутаторы?


переезд NW4.11 под ESXi 5.1, !*! ASphinx, (Виртуализация) 12-Сен-16, 15:55  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день сообществу!

Стоит у нас неплохая, в общем-то железка с раритетной нетварью 4.11 для нужд выдачи архивных справок бывшим работникам. Винт у нетвари небольшой - 40 гиг, но вникать в особенности работы бухгалтерии многолетней давности нет желания. Для малонагруженных сервисов недалеко стоит ESXi 5.1. Возникла здравая мысль перетащить нетварь под общую крышу в виртуалку. Когда-то у нетвари был сказёвый контроллер, но за давностью лет и крахом винтов, давно переехал на обычный IDE. Сейчас же ESXi, наоборот, не умеет эмулировать IDE-винты - только SCSI двух-четырёх типов.
В гугле вычитал, что есть успешный опыт переноса старых систем в виртуалку, но у меня пока не получается. :( Есть ли у кого практический опыт в этом вопросе? Прошу советов.

При запуске load install после переноса и попытки подгрузки драйверов, инсталлер находит новое устройство, на которое требует драйвер. Однажды это устройство было обозначено как PCI.8086.7111.15AD.1976.01, потом вдруг стало PCI.1000.0030.15AD.1976.01.
Попытка загрузить скачанный с сайта support.novell.com драйвера LSIMPTNW, выдаёт ошибку:
Server-4.11-1586: Loader cannot find public symbol: NPA_Get_Loaded_Module_Info
Server-4.11-1586: Load file referenced undefined public variable.
Module LSIMPTHW.HAM NOT loaded.

Ну, и, соответственно, дальше весь процесс стопорится - пока нет диска, работать система не могеть. :(

VMware data protection, !*! Renat, (Виртуализация) 31-Авг-16, 14:46  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.
Для бэкапа виртуальных машин долгое время использовал VMware data recovery.
Сейчас у VMware появился новый продукт, для бэкапа виртуальной инфраструктуры - VMware data protection. Все действия выполнил по официальной инструкции, развернул OVA c машинкой, прошёл все шаги через в web интерфейсе https://<ip>:8543/vdp-configure/.

Но вот вопрос, процесс "VDP: configure appliance" останавливается на 70-ти процентах выполнения, то-есть он и не завершается с ошибкой и дальше не продолжает. Задание просто висит.
Побывал на версиях 5.8 и 6.1.2, результат такой-же.
Кто нибудь сталкивался с такой проблемой? Куда копать?

Вопрос по синтаксису команд, !*! anikibeniki, (Разное) 29-Авг-16, 12:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день подскажите пожалуйста, что сделает следующяя цепочка команд :
~$ find /tmp -name "sess_*" -type f -cmin +30 -print0 | xargs -r -0rm>/dev/null 2>&1


Raid контроллер + кэш память, !*! tunsa, (Аппаратное обеспечение) 11-Июл-16, 10:12  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем добрый день!

Прошу сильно не пинать, хочу приобрести рейд контроллер hp p420 для того чтобы подключить корзину дополнительную на сервер для бэкапов, поставщик пишет этот рейд контроллер без памяти - ZM, zero memory. В этом и заключается вопрос, необходимо ли мне для работы контроллера, приобретать отдельно память для рейд контроллера?

Autocad. Посоветуйте железо., !*! zdenik, (Разное) 06-Июл-16, 15:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте.
Сам с автокад'ом никогда не работал и уж тем более не внедрял какие-то сетевые его решения, поэтому нуждаюсь в советах.

Суть - несколько человек (порядка 15) должны работать совместно в autocad'е. Для этого должен быть куплен и собран какой-нибудь рэковый сервачок, что собственно говоря меня и интересует, т.к. никаких ТЗ у меня по нему нет, а нужно подобрать железо так, чтобы все нормально работало, и вот дальше у меня начинаются вопросы.

Кто-нибудь вообще может объяснить, что вообще из себя представляет этот autocad под совместной работой? Там, наверное, ставится какой-то автокадовский софт и на сервер и на клиентскую машину, так? А где в таком случае происходит вся обработка то? Основные мощности нужны на клиентских ПК или всей этой сумасшедшей обработкой занимается этот несчастный сервер, или сервер выступает лишь местом хранения общих файлов и неким авторизующим узлом для доступа клиентов к этим самым общим файлам?
Другими словами, какие мощности то нужны по железу? Процессор (или их нужно несколько?), сколько памяти требуется под это дело, ну и другие нюансы?

Freebsd+Dump, !*! Alecsandr1991, (Разное) 20-Июн-16, 20:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!

система FreeBSD 9.3
при команде - /sbin/dump -a -L -P "bzip2 -z > /mnt/smb/$datestamp/dump-ad4s1a-root.bz2" /
выходит ошибка - mksnap_ffs: Cannot create snapshot //.snap/dump_snapshot: /: Snapshots are not yet supported when running with journaled soft updates: Operation not supported
dump: Cannot create //.snap/dump_snapshot: No such file or directory

читал, что можно запускать без ключа -L
но корректно ли будет идти копирование.
при том, при всем очень странное поведение.
я устанавливал несколько систем на freebsd 9.3, у одного шлюза только корень не хочет дампиться у другого все разделы.

FreeBSD+VPN, !*! Alecsandr1991, (Разное) 18-Май-16, 12:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!

дано: FreeBSD 9.3 + MPD5
конфиг MPD5
startup:
        # configure mpd users
        set user foo bar admin
        set user foo1 bar1
        # configure the console
        set console self 127.0.0.1 5005
        set console open
        # configure the web server
        set web self 0.0.0.0 5006
        set web open
#       log +all
# Default configuration is "dialup"
default:
        load pptp_vpn
pptp_vpn:
        create bundle static B1
        set ipcp ranges 0.0.0.0/0 0.0.0.0/0
        # маршрут до сети
        set iface route 172.16.0.0/16
# Enable Microsoft Point-to-Point encryption (MPPE)
#       set bundle enable encryption
set bundle enable compression
        set ccp yes mppc
        set mppc yes e40
        set mppc yes e56
        set mppc yes e128
        set mppc yes stateless
#       set mppc disable compress
        set mppc no compress
        set ipcp disable vjcomp
        set bundle enable crypt-reqd
        create link static L1 pptp
        set link action bundle B1
#Client-only auth
        set link accept chap-msv2
        set link no eap
        set link disable eap
        set auth authname "login"
        set auth password "password"
        set link keep-alive 10 75
        set bundle disable noretry
        set link max-redial 0
# Configure PPTP and open link
        set pptp peer vpn.test.ru
        set link enable incoming
        open

как есть сейчас. шлюз А - шлюз Б
шлюз А - на нем настроен MPD с конфигом выше
шлюз Б - настроен VPN как сервер, принимает.
непосредственно со шлюза А, пинги идут до шлюза Б и до тех ресурсах, которые находятся за ним.
но, не проходят пинги с компов, которые находятся за шлюзом А.
задача: подключить эти 2 шлюза так, чтоб можно было свободно коннектиться с компов за шлюзом А, к компом за шлюзом Б.
мне объяснили, то что нужно настроить VPN сервер-сервер, а сейчас клиент-сервер. но не понял, как это реализовать.

Hitachi AMS 2100 cильно тормозит., !*! Renat, (Хранилища данных) 11-Май-16, 18:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.
Отребилдился диск, но СХД лучше не стало, горит warning,
в логах W3M000 PIN is over RAID group threshold[write will not run](DIR-1,RG-01)
Что значит PIN is over RAID group threshold? Куда копать?

Hitachi AMS 2100, !*! Renat, (Хранилища данных) 27-Апр-16, 17:46  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.
На СХД Hitachi AMS 2100 вышел из строя жесткий диск, диск поменяли все нормально, но СХД сильно тормозит. Проблема в то, что при переезде потерялся диск с дистрибутивом Hitachi Storage Navigator Modular 2. Никто не знает где можно скачать? Просьба в google не отправлять, я там уже был.


Отказоустойчивость сетевой инфраструктуры, !*! Сергей, (Увеличение наджности) 22-Мрт-16, 15:25  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть задача, построить сетевую инфраструктуру на скорости 10G с максимальной отказоустойчивостью.
Планирую использование LAG, однако не совсем понимаю как построить так, чтобы можно было апгрейдить коммутаторы без ущерба в доступности.
Есть мысль:
1. Делим всю инфраструктуру на 2 части.
2. В каждой части есть коммутаторы, связанные между собой стеком, однако на каждый коммутатор приходится половина занятых портов.
3. При необходимости апгрейда конфигурации используется сервисный коммутатор в который переводим всех на время процедуры. После процедуры апгрейда стека возвращаем по одному обратно...
Только сильно не бейте. Может у кого есть опыт эксплуатации таких систем?
Тема купи одну железку и не парься - не катит, проходили. Повторяться не хочу.
Да... и ещё... Это коммутация. Маршрутизация будет делаться на основе двух маршрутизирующих коммутаторов типа VSS (у Cisco). А вот как у них с апгрейдом? Возможен ли нулевой даунтайм?
NAT на Linux - 10Gbps, !*! Valera, (Увеличение производительнсти) 05-Фев-16, 10:46  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть ли у кого success story о поднятии NAT сервера в ISP с прокачкой близкой к 10G или более?
NAT44, ALG, синхронизация сессий, балансировка/резервирование?
ucarp, conntrackd?
freebsd + alc сетевая карта, !*! Александр1991, (Разное) 27-Янв-16, 14:27  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!

стоит вот такая сетевая карта - Qualcomm Atheros 8161/8171, 1 x Gigabit LAN Controller(s)
в freebsd 9.3 она не определяется, в freebsd 10.2 определяется.

как правильно сейчас вытащить драйвера от 10.2 и поставить на 9.3? реально ли?

это нужно, потому что на 10.2 связку squid3.5 + sams2 + редирект sams2 не могу ни как сделать. все криво работает
а на 9.3 пока что мой рабочий отработанный вариант это - squid 3.3.14 + sams2

плиз)))

HP P2000, !*! Alexandeer, (Хранилища данных) 26-Янв-16, 16:23  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Подскажите, пожалуйста. Была необходимость в выключении всего оборудования, серверов и сетевого оборудования. От DPM сервера и только от него отвалились диски P2000.
Ошибку выдает:
The disk HP P2000 G3 FC  Multi-Path Disk Device cannot be detected or has stopped responding. All subsequent protection activities that use this disk will fail until the disk is brought back online. (ID: 3120)
Куда копать, подскажите?
Прошу совета при выборе и подборки сервера ( Linux почта, шлюз,, !*! tunsa, (Аппаратное обеспечение) 14-Янв-16, 07:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем добрый день!

Хотим приобрести сервер. Накатить на него Vmware ESXI ( бесплатной версии) ну и чтоб проблем совместимости ESXI с железом не было.
На сервере планируем поставить несколько виртуальных машин
1) Zentyal или Pfsense ( шлюз, прокси, firewall, dhcp, vpn)
2) Zimbra (почту планируем хранить на сервере)
3) Debian 8 - Система контроля доступом
4) Ubuntu сервер терминалов ( пользователей 20, постоянно работают порядка 5 человек)
5) Ubuntu ( на нем будет стоять программа, самописная, работает сервер как клиент серверный вариант, большой нагрузки нет)

Пользователей в данный момент 60 в ближайшей время будет 100.

Подобрали сервер

IBM x3650 M4 (7915K5G)
Конфигурация
2xXeon E5-2620 V2
4X8Gb DDR3 ECC REG
8X600gb SAS 10k 2.5
Integrated Managment Module II Standart
ServerRAID M5110 512Mb+FBWC  SAS/SATA Controller
4 порта Ethernet 1GB/s
2xБП 750w
Rack 2U

Не может определиться сколько дисков взять и какой raid выбрать, а точнее raid 10 или raid 50 или вообще посмотреть в сторону SSD.
Так же хотим делать бэкапы или на этот же сервер на SATA диски не в рейде которые будут.
Или все-таки использовать этот сервер как гипервизор и бэкапы на отдельную машину делать?

Прошу дать совет

Заранее спасибо за ответы

исходные данные для встраиваемых СРВ, !*! addi2, (Разное) 04-Янв-16, 18:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!
Подскажите пожалуйста, для студентов, исходные данные для встраиваемых систем реального времени, исходя из Вашего опыта, - какие сигналы по входу и выходу, какие их электрические и динамические характеристики, итд :?: .

Заранее благодарен!

postfix+header_cheks+кодировка, !*! Alecsandr1991, (Разное) 21-Дек-15, 23:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую.
freebsd 9.3
нужно отсеять письмо по заголовку, в заголовке текст русский.
в main.cf
header_checks = regexp:/usr/local/etc/postfix/header_checks
в header_checks
/^Subject.*(sex|viagra|seduce|naked|M-Q~AM-PM-?M-PM-0M-PM-<)/ FILTER REJECT:

письма режутся по англ. словам. а вот по русски ни как.
M-Q~AM-PM-?M-PM-0M-PM-< - это я пытался слово СПАМ вписать сюда. и ни как
менял кодировки с koi8-r на utf8. не хочет и все. и там и там не хочет что то.
плиз помогите.

Подключение диска как NTFS папки, !*! DeepGray, (Хранилища данных) 18-Дек-15, 16:03  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

Есть 2 NTFS диска, подключенных к серверу (W2K8). Один диск подключен как буква (D:) второй как дополнительная папка на этом диске (D:\Share\SecondDisk)

На самом сервере и машинах работающих под XP - вся папка Share работает без проблем.
На машинах под управлением W7 папка SecondDisk сама пропадает и автоматически появляется

Гугл в ответ на этот вопрос выдал только один вопрос, без ответов на него.

postfix - архивация писем , !*! Alecsandr19912015, (Разное) 26-Ноя-15, 10:09  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!
есть /var/mail/virtual/domen.ru/ и тут папки под именами - логинов почтовых ящиков
задача: заархивировать прошлогодние письма, например до 2014 года. с папками, чтоб при раз архивации, понимать от куда какое либо письмо.
и потом их удалить, при этом чтоб не удалялся файл courierpop3dsizelist.
courierpop3dsizelist - этот файл тоже подпадает как до 2014, но он нужен.
решения простых нету?
СХД MSA 1040  низкая производительность, !*! Владимир, (Хранилища данных) 19-Ноя-15, 11:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравтсвуйте!

Прошу помощи в вопросе подключения СХД к серверу Proliant
В наличии есть:
1.Сервер HP Proliant DL320e на борту контроллер HP Smart Array P222 на нем создан RAID6 и Raid0 два логических диска, на 4-х дисках SATA 3,5" 3 Тб
2. СХД HP MSA 1040 c шестью дисками SAS 3,5" 4Tb
Между собой они подключены кабелем Mini SAS Ext 408767-001 FOXCONN SAS 4X 8PAIRS, один разъем подключен в RAID контроллер СХД, а другой в контроллер сервера Proliant DL320e.

Диски SAS контроллер видит 6 шт, при создании массива Raid5 на сервере Proliant очень медленно происходит процесс Parity Inizialization Status, за три дня 4%. Попытался создать Raid0 на этих дисках, также производительность массива составила 50-60 Mb/с на запись. Не могу понять почему такая низкая производительность дисков подключенных по кабелю mini SAS?

pppoe + squid, !*! Alecsandr1991, (Разное) 11-Окт-15, 18:55  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!

настроил роутер в режим bridge.
настроил ppp на FreeBSd.
прокси-сервер не пускает теперь в инет, мимо прокси работает все.



 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру