The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
FreeBSD+VPN, !*! Alecsandr1991, (Разное) 18-Май-16, 12:35  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!

дано: FreeBSD 9.3 + MPD5
конфиг MPD5
startup:
        # configure mpd users
        set user foo bar admin
        set user foo1 bar1
        # configure the console
        set console self 127.0.0.1 5005
        set console open
        # configure the web server
        set web self 0.0.0.0 5006
        set web open
#       log +all
# Default configuration is "dialup"
default:
        load pptp_vpn
pptp_vpn:
        create bundle static B1
        set ipcp ranges 0.0.0.0/0 0.0.0.0/0
        # маршрут до сети
        set iface route 172.16.0.0/16
# Enable Microsoft Point-to-Point encryption (MPPE)
#       set bundle enable encryption
set bundle enable compression
        set ccp yes mppc
        set mppc yes e40
        set mppc yes e56
        set mppc yes e128
        set mppc yes stateless
#       set mppc disable compress
        set mppc no compress
        set ipcp disable vjcomp
        set bundle enable crypt-reqd
        create link static L1 pptp
        set link action bundle B1
#Client-only auth
        set link accept chap-msv2
        set link no eap
        set link disable eap
        set auth authname "login"
        set auth password "password"
        set link keep-alive 10 75
        set bundle disable noretry
        set link max-redial 0
# Configure PPTP and open link
        set pptp peer vpn.test.ru
        set link enable incoming
        open

как есть сейчас. шлюз А - шлюз Б
шлюз А - на нем настроен MPD с конфигом выше
шлюз Б - настроен VPN как сервер, принимает.
непосредственно со шлюза А, пинги идут до шлюза Б и до тех ресурсах, которые находятся за ним.
но, не проходят пинги с компов, которые находятся за шлюзом А.
задача: подключить эти 2 шлюза так, чтоб можно было свободно коннектиться с компов за шлюзом А, к компом за шлюзом Б.
мне объяснили, то что нужно настроить VPN сервер-сервер, а сейчас клиент-сервер. но не понял, как это реализовать.

Отказоустойчивость сетевой инфраструктуры, !*! Сергей, (Увеличение наджности) 22-Мрт-16, 15:25  [ | | | ] [линейный вид] [смотреть все]
Есть задача, построить сетевую инфраструктуру на скорости 10G с максимальной отказоустойчивостью.
Планирую использование LAG, однако не совсем понимаю как построить так, чтобы можно было апгрейдить коммутаторы без ущерба в доступности.
Есть мысль:
1. Делим всю инфраструктуру на 2 части.
2. В каждой части есть коммутаторы, связанные между собой стеком, однако на каждый коммутатор приходится половина занятых портов.
3. При необходимости апгрейда конфигурации используется сервисный коммутатор в который переводим всех на время процедуры. После процедуры апгрейда стека возвращаем по одному обратно...
Только сильно не бейте. Может у кого есть опыт эксплуатации таких систем?
Тема купи одну железку и не парься - не катит, проходили. Повторяться не хочу.
Да... и ещё... Это коммутация. Маршрутизация будет делаться на основе двух маршрутизирующих коммутаторов типа VSS (у Cisco). А вот как у них с апгрейдом? Возможен ли нулевой даунтайм?
  • Я рекомендую брать бу Деллы с 10Г портами, их несколько моделей Заводить в класт, !*! universite (ok), 17:14 , 22-Мрт-16 (1)
    > Есть задача, построить сетевую инфраструктуру на скорости 10G с максимальной отказоустойчивостью.

    Я рекомендую брать бу Деллы с 10Г портами, их несколько моделей.
    Заводить в кластер.
    А дальше в разные коммутаторы стэка втыкаются коммутаторы агрегации. С помощью M-LAG объединяются.
    Дальше пара PC маршрутизаторов отвечают за маршрутизацию. BGP, OSPF, Carp, Lagg - по-вкусу.

    Апгрейдить стек? вы рехнулись? у вас так часто новые прошивки выходят?

    сообщить модератору +/ответить
  • gt оверквотинг удален with VSS you can do upgrades via ISSU procedure if this , !*! Serb (?), 04:06 , 23-Мрт-16 (2)
    >[оверквотинг удален]
    > каждый коммутатор приходится половина занятых портов.
    > 3. При необходимости апгрейда конфигурации используется сервисный коммутатор в который
    > переводим всех на время процедуры. После процедуры апгрейда стека возвращаем по
    > одному обратно...
    > Только сильно не бейте. Может у кого есть опыт эксплуатации таких систем?
    > Тема купи одну железку и не парься - не катит, проходили. Повторяться
    > не хочу.
    > Да... и ещё... Это коммутация. Маршрутизация будет делаться на основе двух маршрутизирующих
    > коммутаторов типа VSS (у Cisco). А вот как у них с
    > апгрейдом? Возможен ли нулевой даунтайм?

    with VSS you can do upgrades via ISSU procedure
    if this is campus network make L3 as close to the edge as possible
    if this is Data Center network - go with Nexus/VPC and don't look at VSS at all
    Catalyst -> VSS  (ISSU is supported )
    Nexus - > VPC/FP/VXLAN (ISSU is supported), only Nexus 7k supports ISSU with L3 services. On N6k/5k/3k ISSU will not work if L3 is enabled

    ISSU on NX-OS, IOS-XE, IOS - works different under the hood however end goal is the same  - firmware can  be upgraded on the fly

      


    сообщить модератору +/ответить
  • gt оверквотинг удален 2 шт 7600 c 2-мя супервизорами каждая А так - модульны, !*! fantom (ok), 17:41 , 25-Мрт-16 (5)
    >[оверквотинг удален]
    > каждый коммутатор приходится половина занятых портов.
    > 3. При необходимости апгрейда конфигурации используется сервисный коммутатор в который
    > переводим всех на время процедуры. После процедуры апгрейда стека возвращаем по
    > одному обратно...
    > Только сильно не бейте. Может у кого есть опыт эксплуатации таких систем?
    > Тема купи одну железку и не парься - не катит, проходили. Повторяться
    > не хочу.
    > Да... и ещё... Это коммутация. Маршрутизация будет делаться на основе двух маршрутизирующих
    > коммутаторов типа VSS (у Cisco). А вот как у них с
    > апгрейдом? Возможен ли нулевой даунтайм?

    2 шт.7600 c 2-мя супервизорами каждая :)

    А так - модульные коммутаторы с железячным резервированием всего, хоть у циски, хоть у хьюлета, хоть у хуавея и т.д.

    сообщить модератору +/ответить
Производительность канала., !*! BlackRat, (Разное) 13-Янв-14, 14:43  [ | | | ] [линейный вид] [смотреть все]
Есть у меня клиент. Один офис в Москве, второй - в Кургане. В Москве стоит терминальный сервер для 1С, который обслуживает пользователей Москвы и Кургана. Выход в инет и создание IPSec-туннеля обеспечивают Микротики.
И вот какое чудо. Курганцы эдак с 09:30-10:00 по Москве жалуются на падение скорости доступа к терминальному серверу. Если мерять скорость с Московского сервера через спиднет, то download ~ 20 Mbps, upload ~30 Mbps (и это примерно то, что по тарифу). А вот если мерять iperf-ом из локалки в кургане до Московского сервера, получается порядка 1,9 - 2,6 Mb/s...
как всегда риторические вопросы: кто виноват и что делать?
Скорость от сервера к серверу в Москве (т.е. в Московской локалке) ~ 577 Mbps.
Если мерять скорость через такой-же IPSec-канал, но от Московского терминального сервера к московскому клиенту, трафик раза в два получше, чем у Курганских.
В Москве - Акадо. тестовый клиент в Москве ходит из Демоса. :)
  • фсб расшифровывет все, быстрее не могут, извините, !*! дима (??), 14:58 , 13-Янв-14 (1)
    фсб расшифровывет все, быстрее не могут, извините
    сообщить модератору +/ответить
  • терминальный сервер 1СМикротикипри чём тут opупнет и где тут промышленные систе, !*! pavel_simple (ok), 16:09 , 13-Янв-14 (2)
    терминальный сервер

    Микротики

    при чём тут opупнет? и где тут промышленные системы? у перечисленных продуктов имеются огранизации обеспечивающие супарт.

    сообщить модератору +/ответить
  • А в другие часы скорость какая ибо 20Mbps 2 6Mb s может все по утрам проверяю, !*! vg (??), 17:22 , 13-Янв-14 (4)

    > сервера через спиднет, то download ~ 20 Mbps, upload ~30 Mbps
    > (и это примерно то, что по тарифу). А вот если мерять
    > iperf-ом из локалки в кургане до Московского сервера, получается порядка 1,9
    > - 2,6 Mb/s...

    А в другие часы скорость какая?

    ибо 20Mbps ~= 2.6Mb/s

    может все по утрам проверяют почту и канал тупо забит?

    что мешает построить графики загрузки каналов, например тем же MRTG ?

    соберите немного статистики, авось картина прояснится...


    сообщить модератору +/ответить
  • Наверное, не спиднет , а спидтест все-таки Лично я результатам iperf за, !*! Дядя_Федор (?), 20:48 , 13-Янв-14 (6)
    > Если мерять скорость с Московского
    > сервера через спиднет, то download ~ 20 Mbps, upload ~30 Mbps
    > (и это примерно то, что по тарифу). А вот если мерять
    > iperf-ом из локалки в кургане до Московского сервера, получается порядка 1,9
    > - 2,6 Mb/s...

    Наверное, не "спиднет", а "спидтест" все-таки. :) Лично я результатам iperf (запущенному с ПРАВИЛЬНЫМИ параметрами) больше доверяю. Ибо спидтест - глюкав. Лично наблюдал на "соточном" канале 120 Мбит на измерении этим инструмэнтом. :) Вы, кстати, учтите, что "по тарифу" это совершенно не значит с вашей точки подключения до какого-нибудь сервера на Берегу Слоновой Кости (Москвы, в данном случае). Есть нюансы (например, у аплинка на магистрала) канал тоже забит. Ну и попутно попробуйте утилитку mtr - покажет времена и потери при прохождении пакета на "трассе"

    сообщить модератору +/ответить
  • Сделайте traceroute из Кургана в Москву и из Москвы в Курган и сравните результа, !*! Anonymous1 (?), 18:55 , 14-Мрт-16 (7)
      
    > В Москве - Акадо. тестовый клиент в Москве ходит из Демоса. :)

    Сделайте traceroute из Кургана в Москву и из Москвы в Курган и сравните результат.
    Интернет не анизотропен, к сожалению. У меня бывали ситуации, когда первый провайдер не видит второго, в второй первого видит (что-то с автономными системами провайдеры мудрят).
    Или трафик из ПровА к ПровБ локально через М9, а обратно через Лейпциг или Дрезден.

    Если это так - не факт, что поможет что-то, кроме смены одного из провайдеров.

    сообщить модератору +/ответить
NAT на Linux - 10Gbps, !*! Valera, (Увеличение производительнсти) 05-Фев-16, 10:46  [ | | | ] [линейный вид] [смотреть все]
Есть ли у кого success story о поднятии NAT сервера в ISP с прокачкой близкой к 10G или более?
NAT44, ALG, синхронизация сессий, балансировка/резервирование?
ucarp, conntrackd?
Прошу совета при выборе и подборки сервера ( Linux почта, шлюз,, !*! tunsa, (Аппаратное обеспечение) 14-Янв-16, 07:21  [ | | | ] [линейный вид] [смотреть все]
Всем добрый день!

Хотим приобрести сервер. Накатить на него Vmware ESXI ( бесплатной версии) ну и чтоб проблем совместимости ESXI с железом не было.
На сервере планируем поставить несколько виртуальных машин
1) Zentyal или Pfsense ( шлюз, прокси, firewall, dhcp, vpn)
2) Zimbra (почту планируем хранить на сервере)
3) Debian 8 - Система контроля доступом
4) Ubuntu сервер терминалов ( пользователей 20, постоянно работают порядка 5 человек)
5) Ubuntu ( на нем будет стоять программа, самописная, работает сервер как клиент серверный вариант, большой нагрузки нет)

Пользователей в данный момент 60 в ближайшей время будет 100.

Подобрали сервер

IBM x3650 M4 (7915K5G)
Конфигурация
2xXeon E5-2620 V2
4X8Gb DDR3 ECC REG
8X600gb SAS 10k 2.5
Integrated Managment Module II Standart
ServerRAID M5110 512Mb+FBWC  SAS/SATA Controller
4 порта Ethernet 1GB/s
2xБП 750w
Rack 2U

Не может определиться сколько дисков взять и какой raid выбрать, а точнее raid 10 или raid 50 или вообще посмотреть в сторону SSD.
Так же хотим делать бэкапы или на этот же сервер на SATA диски не в рейде которые будут.
Или все-таки использовать этот сервер как гипервизор и бэкапы на отдельную машину делать?

Прошу дать совет

Заранее спасибо за ответы

  • 32Гб на гипервизор 5ВМ, одна из которых сервер терминалов Сомнительно Бэкапы , !*! PavelR (??), 08:15 , 14-Янв-16 (1)
    > На сервере планируем поставить несколько виртуальных машин
    > Подобрали сервер
    > 4X8Gb DDR3 ECC REG

    32Гб на гипервизор + 5ВМ, одна из которых сервер терминалов? Сомнительно.

    > Так же хотим делать бэкапы или на этот же сервер на SATA

    Бэкапы на этот же сервер? Бэкапы должны быть в другом здании...

    сообщить модератору +/ответить
  • gt оверквотинг удален Для начала - забудьте про IBM System X, нету их больше , !*! a_shats (ok), 16:55 , 03-Фев-16 (4)
    >[оверквотинг удален]
    > IBM x3650 M4 (7915K5G)
    > Конфигурация
    > 2xXeon E5-2620 V2
    > 4X8Gb DDR3 ECC REG
    > 8X600gb SAS 10k 2.5
    > Integrated Managment Module II Standart
    > ServerRAID M5110 512Mb+FBWC  SAS/SATA Controller
    > 4 порта Ethernet 1GB/s
    > 2xБП 750w
    > Rack 2U

    Для начала - забудьте про IBM System X, нету их больше. Есть Lenovo.
    Дальше - эта модель(как и вся линейка М4)с производства тогось, снята давно. М5 актуальны. Ну, пока еще System X внутри Lenovo еще живы.

    Второй момент - RAID. Самое критичное в Вашем случае - это вопрос, какая производительность на запись потребуется Вашим задачам. Если не слишком суровая - можно обойтись RAID5+hot-spare. Если таки нагрузка будет сурова - RAID10, но пострадает объем (доступен будет объем половины дисков, в отличие от RAID5).
    RAID6 в таких вещах используют параноики, ибо он жесточайше грузит сам контроллер :) Ну и - это наихудший по производительности на запись уровень RAID.
    Нет, будь у Вас 12-24 SATA диска под каким-нибудь видеонаблюдением, то RAID6 был бы вполне оправдан - но не тут. Опять же, для того, чтобы RAID6 вообще был доступен на M5110 - к нему нужно приобрести соответствующую лицензию/ключ (RAID6 Upgrade).
    Бэкапы данных сервера на самом сервере - совершенно бессмысленное занятие. Осмысленное (на самом сервере) - это снэпшоты, если что.
    Хоть тушкой (самым дешевым из USB-дисков нужного объема), хоть чучелом (да хоть автолоадером каким на 8/12 картриджей) - но бэкапьтесь наружу сервера.

    сообщить модератору +/ответить
Подключение диска как NTFS папки, !*! DeepGray, (Хранилища данных) 18-Дек-15, 16:03  [ | | | ] [линейный вид] [смотреть все]
Добрый день.

Есть 2 NTFS диска, подключенных к серверу (W2K8). Один диск подключен как буква (D:) второй как дополнительная папка на этом диске (D:\Share\SecondDisk)

На самом сервере и машинах работающих под XP - вся папка Share работает без проблем.
На машинах под управлением W7 папка SecondDisk сама пропадает и автоматически появляется

Гугл в ответ на этот вопрос выдал только один вопрос, без ответов на него.

  • go tomicrosoft com, !*! fantom (??), 13:59 , 25-Дек-15 (2)
    > Добрый день.
    > Есть 2 NTFS диска, подключенных к серверу (W2K8). Один диск подключен как
    > буква (D:) второй как дополнительная папка на этом диске (D:\Share\SecondDisk)
    > На самом сервере и машинах работающих под XP - вся папка Share
    > работает без проблем.
    > На машинах под управлением W7 папка SecondDisk сама пропадает и автоматически появляется
    > Гугл в ответ на этот вопрос выдал только один вопрос, без ответов
    > на него.

    go to
    microsoft.com

    сообщить модератору +/ответить
freebsd + alc сетевая карта, !*! Александр1991, (Разное) 27-Янв-16, 14:27  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!

стоит вот такая сетевая карта - Qualcomm Atheros 8161/8171, 1 x Gigabit LAN Controller(s)
в freebsd 9.3 она не определяется, в freebsd 10.2 определяется.

как правильно сейчас вытащить драйвера от 10.2 и поставить на 9.3? реально ли?

это нужно, потому что на 10.2 связку squid3.5 + sams2 + редирект sams2 не могу ни как сделать. все криво работает
а на 9.3 пока что мой рабочий отработанный вариант это - squid 3.3.14 + sams2

плиз)))

HP P2000, !*! Alexandeer, (Хранилища данных) 26-Янв-16, 16:23  [ | | | ] [линейный вид] [смотреть все]
Подскажите, пожалуйста. Была необходимость в выключении всего оборудования, серверов и сетевого оборудования. От DPM сервера и только от него отвалились диски P2000.
Ошибку выдает:
The disk HP P2000 G3 FC  Multi-Path Disk Device cannot be detected or has stopped responding. All subsequent protection activities that use this disk will fail until the disk is brought back online. (ID: 3120)
Куда копать, подскажите?
  • мб слетел mapping, проверьте , !*! Doka (??), 13:50 , 28-Янв-16 (1)
    > Подскажите, пожалуйста. Была необходимость в выключении всего оборудования, серверов
    > и сетевого оборудования. От DPM сервера и только от него отвалились
    > диски P2000.
    > Ошибку выдает:
    > The disk HP P2000 G3 FC  Multi-Path Disk Device cannot be
    > detected or has stopped responding. All subsequent protection activities that use
    > this disk will fail until the disk is brought back online.
    > (ID: 3120)
    > Куда копать, подскажите?

    мб "слетел" mapping, проверьте.

    сообщить модератору +/ответить
исходные данные для встраиваемых СРВ, !*! addi2, (Разное) 04-Янв-16, 18:05  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!
Подскажите пожалуйста, для студентов, исходные данные для встраиваемых систем реального времени, исходя из Вашего опыта, - какие сигналы по входу и выходу, какие их электрические и динамические характеристики, итд :?: .

Заранее благодарен!

postfix+header_cheks+кодировка, !*! Alecsandr1991, (Разное) 21-Дек-15, 23:26  [ | | | ] [линейный вид] [смотреть все]
Приветствую.
freebsd 9.3
нужно отсеять письмо по заголовку, в заголовке текст русский.
в main.cf
header_checks = regexp:/usr/local/etc/postfix/header_checks
в header_checks
/^Subject.*(sex|viagra|seduce|naked|M-Q~AM-PM-?M-PM-0M-PM-<)/ FILTER REJECT:

письма режутся по англ. словам. а вот по русски ни как.
M-Q~AM-PM-?M-PM-0M-PM-< - это я пытался слово СПАМ вписать сюда. и ни как
менял кодировки с koi8-r на utf8. не хочет и все. и там и там не хочет что то.
плиз помогите.

  • gt оверквотинг удален потому что письмо с русскими буквами приходит в таком ви, !*! eRIC (ok), 17:13 , 24-Дек-15 (1)
    >[оверквотинг удален]
    > в main.cf
    > header_checks = regexp:/usr/local/etc/postfix/header_checks
    > в header_checks
    > /^Subject.*(sex|viagra|seduce|naked|M-Q~AM-PM-?M-PM-0M-PM-<)/
    > FILTER REJECT:
    > письма режутся по англ. словам. а вот по русски ни как.
    > M-Q~AM-PM-?M-PM-0M-PM-< - это я пытался слово СПАМ вписать сюда. и ни как
    > менял кодировки с koi8-r на utf8. не хочет и все. и там
    > и там не хочет что то.
    > плиз помогите.

    потому что письмо с русскими буквами приходит в таком виде и там вы не увидите русские буквы С П А М:
    Subject: =?Windows-1251?blablabla.....
    Subject: =?KOI8-R?dfsdfsdfsdfdsf......
    Subject: =?utf-8?dfghjhgjdfsdfsdfsdfdsf......


    отправьте себе одно письмо с заголовком СПАМ в разных кодировках(ну и не забываем что буквы можно на английском ввести С А М) и получите письмо, далее откройте исходник письма и все увидите по какому критерию блокировать :)

    сообщить модератору +/ответить
postfix - архивация писем , !*! Alecsandr19912015, (Разное) 26-Ноя-15, 10:09  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!
есть /var/mail/virtual/domen.ru/ и тут папки под именами - логинов почтовых ящиков
задача: заархивировать прошлогодние письма, например до 2014 года. с папками, чтоб при раз архивации, понимать от куда какое либо письмо.
и потом их удалить, при этом чтоб не удалялся файл courierpop3dsizelist.
courierpop3dsizelist - этот файл тоже подпадает как до 2014, но он нужен.
решения простых нету?
  • Решается с помощью 3х утилит - tar, find, rmTar find умеют работать с файлами от, !*! keir (ok), 11:41 , 26-Ноя-15 (1)
    > Здравствуйте!
    > есть /var/mail/virtual/domen.ru/ и тут папки под именами - логинов почтовых ящиков
    > задача: заархивировать прошлогодние письма, например до 2014 года. с папками, чтоб при
    > раз архивации, понимать от куда какое либо письмо.
    > и потом их удалить, при этом чтоб не удалялся файл courierpop3dsizelist.
    > courierpop3dsizelist - этот файл тоже подпадает как до 2014, но он нужен.
    > решения простых нету?

    Решается с помощью 3х утилит - tar, find, rm
    Tar/find умеют работать с файлами относительно даты, исключать ненужные файлы.
    Подсказка: rm запускать с помощью find.

    сообщить модератору +/ответить
СХД MSA 1040  низкая производительность, !*! Владимир, (Хранилища данных) 19-Ноя-15, 11:21  [ | | | ] [линейный вид] [смотреть все]
Здравтсвуйте!

Прошу помощи в вопросе подключения СХД к серверу Proliant
В наличии есть:
1.Сервер HP Proliant DL320e на борту контроллер HP Smart Array P222 на нем создан RAID6 и Raid0 два логических диска, на 4-х дисках SATA 3,5" 3 Тб
2. СХД HP MSA 1040 c шестью дисками SAS 3,5" 4Tb
Между собой они подключены кабелем Mini SAS Ext 408767-001 FOXCONN SAS 4X 8PAIRS, один разъем подключен в RAID контроллер СХД, а другой в контроллер сервера Proliant DL320e.

Диски SAS контроллер видит 6 шт, при создании массива Raid5 на сервере Proliant очень медленно происходит процесс Parity Inizialization Status, за три дня 4%. Попытался создать Raid0 на этих дисках, также производительность массива составила 50-60 Mb/с на запись. Не могу понять почему такая низкая производительность дисков подключенных по кабелю mini SAS?

pppoe + squid, !*! Alecsandr1991, (Разное) 11-Окт-15, 18:55  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!

настроил роутер в режим bridge.
настроил ppp на FreeBSd.
прокси-сервер не пускает теперь в инет, мимо прокси работает все.

  • Здесь не новостная лента, но мы продолжаем следить за развитием событий , !*! PavelR (??), 21:04 , 11-Окт-15 (1) +2
    > Здравствуйте!
    > настроил роутер в режим bridge.
    > настроил ppp на FreeBSd.
    > прокси-сервер не пускает теперь в инет, мимо прокси работает все.

    Здесь не новостная лента, но мы продолжаем следить за развитием событий.

    сообщить модератору +2 +/ответить
  • - какую ошибку выдает прокси - где конфиг squid а - где IP адрес роутера - и т д, !*! eRIC (ok), 08:09 , 12-Окт-15 (4)
    > прокси-сервер не пускает теперь в инет, мимо прокси работает все.

    - какую ошибку выдает прокси?
    - где конфиг squid'а?
    - где IP адрес роутера?
    - и т.д. и т.п.

    сообщить модератору +/ответить
  • Привет У меня далеко не решение конкретно твоей проблемы, но может сделаешь, как, !*! Антоха (ok), 08:37 , 12-Окт-15 (7)
    > Здравствуйте!
    > настроил роутер в режим bridge.
    > настроил ppp на FreeBSd.
    > прокси-сервер не пускает теперь в инет, мимо прокси работает все.

    Привет.

    У меня далеко не решение конкретно твоей проблемы, но может сделаешь, как я.
    Нафиг роутер с pppoe. Шнур от провайдера в шлюз на FreeBSD. PPPoE настраиваешь на фряхе, встроенным демоном. PPP_NAT вырубаешь. Делаешь NAT через IPFW. Ну и squid и unbound поднимаются с первого раза без особых танцев..

    сообщить модератору +/ответить


Мониторинг батарей Ippon, !*! Vova, (Увеличение наджности) 10-Июл-15, 11:48  [ | | | ] [линейный вид] [смотреть все]
Товарищи, есть ИБП Ippon Smart Winner 3000 и два доп. батарейных модуля к ней.

Всё соеденено и работает. Но вот в чём вопрос:

Можно ли через Winpower посмотреть сколько батарей она видит ?
Подозрительно мало времени работает не от сети

  • попробуйте и посмотрите, насколько я знаю у иппонов еще своя софтина мониторинга, !*! eRIC (ok), 12:27 , 10-Июл-15 (1)
    > Можно ли через Winpower посмотреть сколько батарей она видит ?
    > Подозрительно мало времени работает не от сети

    попробуйте и посмотрите, насколько я знаю у иппонов еще своя софтина мониторинга есть


    сообщить модератору +/ответить
  • конечно можно утилитку скачай, все видно будет, а по поводу времени работы, ты ж, !*! tawer2014 (ok), 10:54 , 21-Сен-15 (5)
    > Товарищи, есть ИБП Ippon Smart Winner 3000 и два доп. батарейных модуля
    > к ней.
    > Всё соеденено и работает. Но вот в чём вопрос:
    > Можно ли через Winpower посмотреть сколько батарей она видит ?
    > Подозрительно мало времени работает не от сети

    конечно можно утилитку скачай, все видно будет, а по поводу времени работы, ты же не думаешь что оно будет постоянно "не от сети" работать)

    сообщить модератору +/ответить
RAID + бортовые SATA на DL160se G6, !*! mdenisov, (Серверные платформы) 18-Сен-15, 12:30  [ | | | ] [линейный вид] [смотреть все]
Приветствую господа.
Подскажите пожалуйста такой момент - есть у меня HP DL160se G6 с 8 HDD на P410 и есть у этого сервера на борту отдельно 4 SATA. Хотелось бы воткнуть SSD для ускорения виртуальных машин ESXi - порты есть, место вроде тоже есть за бэкплэйном, правда крепления нет. Хочу понять можно ли так делать, не рекомендуется или категорически нельзя. А если нельзя то почему и для чего тогда на борту растут SATA?
  • набортные SATA нужны для случаев, когда материнка в корпусе без отдельного контр, !*! name (??), 13:45 , 18-Сен-15 (1)
    > Приветствую господа.
    > Подскажите пожалуйста такой момент - есть у меня HP DL160se G6 с
    > 8 HDD на P410 и есть у этого сервера на борту
    > отдельно 4 SATA. Хотелось бы воткнуть SSD для ускорения виртуальных машин
    > ESXi - порты есть, место вроде тоже есть за бэкплэйном, правда
    > крепления нет. Хочу понять можно ли так делать, не рекомендуется или
    > категорически нельзя. А если нельзя то почему и для чего тогда
    > на борту растут SATA?

    набортные SATA нужны для случаев, когда материнка в корпусе без отдельного контроллера.

    у меня такая же фигня, материнка Intel® S5000PAL в одноюнитовом корпусе с тремя дисками, хотя бэкплейн позволяет шесть SAS + 6 набортных SATA

    смысла в SSD может не быть, когда подключают кучу SSD к чипу, который не сможет обработать большой поток данных.

    сообщить модератору +/ответить
postfix - анализ писем, !*! Alecsandr19912015, (Разное) 09-Сен-15, 16:32  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!

стоит FreeBSD 8.3 Release
недавно провайдер жаловался дня два где-то, что идут спам-рассылки.
проверил по глобальным белым спискам - все ок.

хотелось бы сделать, какой то анализ писем или что-то в этом роде, дабы выявить или опровергнуть что идут спам-рассылки.
к сожалению варианты с первого захода в гугл не нашел, что можете посоветовать?

EMC AX150<->brocade<-> QLA2460 FreeBSD 8.0 = gmultipath, !*! avator, (Хранилища данных) 25-Ноя-09, 21:25  [ | | | ] [линейный вид] [смотреть все]
Приветствую Всех!
Есть задача подключить хранилище по оптике через коммутатор.
исходные данные:
1. система
FreeBSD node1........gov.ua 8.0-RELEASE FreeBSD 8.0-RELEASE #1: Wed Nov 25 12:09:49 EET 2009     root@.....gov.ua :/usr/obj/usr/src/sys/GENERIC  amd64
2. адаптер
dmesg | grep Qlogic
isp0: <Qlogic ISP 2422 PCI FC-AL Adapter> port 0x3000-0x30ff mem 0xd8100000-0xd8100fff irq 24 at device 1.0 on pci5
3. диски
camcontrol devlist
<DGC RAID 5 0220>                  at scbus0 target 0 lun 0 (pass0,da0)
<DGC RAID 5 0220>                  at scbus0 target 1 lun 0 (pass1,da1)
4. драевера
grep isp /boot/loader.conf
ispfw_load=YES
isp_load=YES
5. может сто запамятовал :-)

стою мультипасинг
sysctl kern.geom.debugflags=16
gmultipath label -v storage4 /dev/da0 /dev/da1
вывод:
gmultipath: cannot clear metadata on /dev/da0: Device not configured.

вот что сыпин в месаги!!!!!!
tail -n 10 /var/log/messages
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): CAM Status: SCSI Status Error
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): SCSI Status: Check Condition
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): NOT READY asc:4,3
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): Logical unit not ready, manual intervention required
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): Unretryable error
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): Invalidating pack
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): SYNCHRONIZE CACHE(10). CDB: 35 0 0 0 0 0 0 0 0 0
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): NOT READY asc:4,3
Nov 25 20:22:59 node1 kernel: (da0:isp0:0:0:0): Logical unit not ready, manual intervention required

Что посоветуете коллеги?

Что быстрее? ssd или ssd + hdd в raid0, !*! abask, (Хранилища данных) 14-Авг-15, 14:34  [ | | | ] [линейный вид] [смотреть все]
Что быстрее: ssd или ssd + hdd в raid0 ?

Или по другому:
Если к существующему диску на ssd (btrfs) добавить hdd в режиме raid0 (btrfs) не станет ли оно работать медленнее чем просто ssd?

Zabbix, мониторинг нестабильных хостов, !*! prodvi, (Увеличение наджности) 06-Июл-15, 10:48  [ | | | ] [линейный вид] [смотреть все]
Друзья, приветствую!
В качестве мониторинг-сервера используется Zabbix, но есть хосты, которые часто падают и поднимаются, в нагиосе есть настройка дополнительной проверки данных хостов, чтобы исключить "холостые" письма на почту, в заббиксе же не могу найти подобного.
Подскажите как сделать так, чтобы при падении хоста он не сразу слал письмо, а к примеру после 2-3х проверок через N-сек, либо хотя бы просто после N-ого кол-ва проверок через заданный в шаблоне ping интервал
  • http blog zabbix com no-more-flapping-define-triggers-the-smart-way 1488 , !*! alex (??), 18:07 , 06-Июл-15 (1)
    > Друзья, приветствую!
    > В качестве мониторинг-сервера используется Zabbix, но есть хосты, которые часто падают
    > и поднимаются, в нагиосе есть настройка дополнительной проверки данных хостов, чтобы
    > исключить "холостые" письма на почту, в заббиксе же не могу найти
    > подобного.
    > Подскажите как сделать так, чтобы при падении хоста он не сразу слал
    > письмо, а к примеру после 2-3х проверок через N-сек, либо хотя
    > бы просто после N-ого кол-ва проверок через заданный в шаблоне ping
    > интервал

    http://blog.zabbix.com/no-more-flapping-define-triggers-the-.../

    сообщить модератору +/ответить
  • Посмотрите на эскалации https www zabbix com documentation 2 2 ru manual confi, !*! karapet.ag (?), 09:51 , 07-Июл-15 (3)
    > Подскажите как сделать так, чтобы при падении хоста он не сразу слал
    > письмо, а к примеру после 2-3х проверок через N-сек, либо хотя
    > бы просто после N-ого кол-ва проверок через заданный в шаблоне ping
    > интервал

    Посмотрите на эскалации https://www.zabbix.com/documentation/2.2/ru/manual/config/no...

    сообщить модератору +/ответить
Не могу создать базу данных oracle на freebsd, !*! driveer1, (Oracle) 17-Июн-15, 04:50  [ | | | ] [линейный вид] [смотреть все]
Вообщем ситуация такая: работал я по статье (может кто ище по ней работал):
https://forums.freebsd.org/threads/install-oracle-11gr2-data.../
До 20-го пункта все было нормально. Как только начал выполнять создание БД скриптом (запущен с параметром отладки -xv) - пошли ошибки.

oracle@debora:/oracle/admin/ORATEST/create$  nohup ./cr_ORATEST.sh &

Вот содержимое файла nohup.out из той же дирректории:

#!/bin/bash -xv

. ./ORATEST.sh
+ . ./ORATEST.sh
ORACLE_HOME=/oracle/product/11.2.0
++ ORACLE_HOME=/oracle/product/11.2.0
ORACLE_SID=ORATEST
++ ORACLE_SID=ORATEST

NLS_LANG=American_america.WE8ISO8859P15
++ NLS_LANG=American_america.WE8ISO8859P15
ORA_NLS11=${ORACLE_HOME}/nls/data
++ ORA_NLS11=/oracle/product/11.2.0/nls/data
PATH=$PATH:$ORACLE_HOME/bin
++ PATH=/usr/local/bin:/usr/bin:/bin:/usr/games:/oracle/product/11.2.0/bin
export PATH
++ export PATH
export ORACLE_BASE
++ export ORACLE_BASE
export ORACLE_HOME
++ export ORACLE_HOME
export ORACLE_SID
++ export ORACLE_SID
export NLS_LANG
++ export NLS_LANG
export ORA_NLS33
++ export ORA_NLS33


rm ${ORACLE_HOME}/dbs/orapw${ORACLE_SID}
+ rm /oracle/product/11.2.0/dbs/orapwORATEST
orapwd file=${ORACLE_HOME}/dbs/orapw${ORACLE_SID} password=zebracat entries=2
+ orapwd file=/oracle/product/11.2.0/dbs/orapwORATEST password=zebracat entries=2
./cr_ORATEST.sh: line 6: 91302 Segmentation fault  orapwd file=${ORACLE_HOME}/dbs/orapw${ORACLE_SID} password=zebracat entries=2

rm -r /oracle/oradata/${ORACLE_SID}
+ rm -r /oracle/oradata/ORATEST
rm: cannot remove `/oracle/oradata/ORATEST': No such file or directory

sqlplus /nolog << EOF
spool ../logbook/cr_${ORACLE_SID}.log
conn / as sysdba;
CREATE SPFILE
FROM  PFILE='/oracle/admin/${ORACLE_SID}/create/init${ORACLE_SID}.ora';

DISCONNECT;

conn / as sysdba;

STARTUP NOMOUNT;
CREATE DATABASE ${ORACLE_SID}
CHARACTER SET WE8ISO8859P15
NATIONAL CHARACTER SET UTF8
USER SYS IDENTIFIED BY zebracat
USER SYSTEM IDENTIFIED BY zebracat
EXTENT MANAGEMENT LOCAL
DEFAULT TEMPORARY TABLESPACE temp
UNDO TABLESPACE undotbs1
DEFAULT TABLESPACE users;

@?/rdbms/admin/catalog.sql
@?/rdbms/admin/catproc.sql
@?/sqlplus/admin/pupbld.sql

SHUTDOWN IMMEDIATE;

EXIT
spool off

EOF
+ sqlplus /nolog

SQL*Plus: Release 11.2.0.1.0 Production on Wed Jun 17 04:49:29 2015

Copyright (c) 1982, 2009, Oracle.  All rights reserved.

SQL> SQL> Connected to an idle instance.
SQL>  2  CREATE SPFILE
*
ERROR at line 1:
ORA-01012: not logged on
Process ID: 0
Session ID: 0 Serial number: 0


SQL> SQL> Disconnected
SQL> SQL> Connected to an idle instance.
SQL> SQL> ORA-01012: not logged on
SQL>  2  3  4  5  6  7  8  9  CREATE DATABASE ORATEST
*

ERROR at line 1:
ORA-01012: not logged on
Process ID: 0
Session ID: 0 Serial number: 0


SQL> SQL> DOC>######################################################################
DOC>######################################################################
DOC>  The following statement will cause an "ORA-01722: invalid number"
DOC>  error and terminate the SQLPLUS session if the user is not SYS.
DOC>  Disconnect and reconnect with AS SYSDBA.
DOC>######################################################################
DOC>######################################################################
DOC>#
SELECT TO_NUMBER('MUST_BE_AS_SYSDBA') FROM DUAL
*
ERROR at line 1:
ORA-01012: not logged on
Process ID: 0
Session ID: 0 Serial number: 0


Disconnected

Я грешу на строчку в начале:


./cr_ORATEST.sh: line 6: 91302 Segmentation fault  orapwd file=${ORACLE_HOME}/dbs/orapw${ORACLE_SID}

А что думаете вы?



Использование процессора, !*! worsvch, (Увеличение производительнсти) 03-Мрт-14, 22:25  [ | | | ] [линейный вид] [смотреть все]
Система: 2 процессора по 4 ядра.
Нужно сжать в пределах 80 файлов, используя gzip. Что нужно сделать чтобы были задействованы одновременно все ядра процессора? На данный момент при использовании команды gzip * используется одновременно только одно ядро, остальные не задействованы.

Умер дисковый массив, !*! sdi, (Серверные платформы) 13-Июн-15, 04:52  [ | | | ] [линейный вид] [смотреть все]
Всем привет!
Подскажите, пожалуйста, хорошее ПО, с помощью которого можно восстановить данные с дисков, которые раньше были дисковым массивом?
Ситуация в следующем. К серверу подключен дисковый массив из 14 дисков. Так вот раньше при загрузке сервера, он видел эти диски как один логический. А теперь при загрузке системы он показывает 14 дисков. После загрузки винды, этого логического диска нет. В управлении дисками так же пусто....
Я предположил, что массив по каким либо причинам рассыпался...
Что теперь делать? Там столько инфы было важной....
Есть какое либо ПО не для восстановления массива, а хотя бы по восстановлению данных с каждого диска?


Вопрос по NTP, !*! Shinma, (Др. Unix) 07-Май-15, 09:38  [ | | | ] [линейный вид] [смотреть все]
Добрый день.

Ищу помощи в вопросе:

Есть два сервера NTP они присылают на мои системы HP-UX два разных времени с разницей в +/- 7 секунд.
если один из NTP решит синхронизироваться с вышестоящим сервером и обнаруживает смещение то он переводит свое локальное время до вышестоящего сервера, например на +7 сек.
В этот момент на моих HP-UX ни один сервер не признается валидным для синхронизации. далее коллизии со временем (2-5 минут) проходят и мои сервера берут для синхронизации NTP сервер на угад из этих двух. это может оказаться как сервер у которого уже +7 сек так и сервер на котором все еще +0 секунд относительно моих HP-UX. с кем первее синхронизируется, того и назначает сервером NTP.
дальше происходит смешная ситуация если мои серваки выбрали NTP у которого +7сек через минуты 2-5 они тоже изменяют свое время.
дальше если текущий NTP опять изменит время на любое, мои серваки , опять сбрасывают доверие ко всем NTP и начинают процедуру проверки доверия(или как ее назвать...), могут взять за основной NTP сервер тот у которого еще не произошла доводка на +7 секунд. в итоге мои серваки через минут 5 откатывают время на -7 секунд назад.
База данных в шоке, приложения в шоке. SAP начинает спать дампы с ошибками.

Как можно избежать ситуацию когда NTP сервера вот так себя ведут? разница между NTP серверами бывает достигает 7-14 секунд на протяжении 3 часов. потом опять проходит. NTP сервера не мои, я могу только направить совет тем админам, если он будет.
Заранее благодарен.


  • Увлекательно, деражите нас в курсе событий Синхронизоваться с сервером, который , !*! Andrey Mitrofanov (?), 10:17 , 07-Май-15 (1)
    > Добрый день.
    > Ищу помощи в вопросе:
    > Есть два сервера NTP они присылают на мои системы HP-UX два разных
    > времени с разницей в +/- 7 секунд.

    Увлекательно, деражите нас в курсе событий.

    > Как можно избежать ситуацию когда NTP сервера вот так себя ведут? разница

    Синхронизоваться с сервером, который не скачет козликом, а не с этим барахлом, элементарно же. Либо найти другой такой, либо сделать эти такими.

    > между NTP серверами бывает достигает 7-14 секунд на протяжении 3 часов.
    > потом опять проходит. NTP сервера не мои, я могу только направить
    > совет тем админам, если он будет.

    Тебе совет не заниматься чужими проблемами (вариант1 выше). pool.ntp.org не? Да, у самого провайдер :/ блокирует.

    Им Совет - заняться администрированием сервиса. Ну, там, повыяснять причины, попытаться сформулировать, чего можно подкрутить, сделать мониторинг-графики, следить за ними, смотреть, дали ли принятые меры желаемый результат. Сменить сервер [железо] для ntpd: менее нагруженный задачами, поставить приоритет ntpd выше, не виртуалка, но торренто-качалка на RPi, сеть не забитая на 150%, ядро не 2.6.18, и т.п.

    > Заранее благодарен.

    сообщить модератору +/ответить
Диски для контроллера P410i, !*! VladimirMakov, (Серверные платформы) 30-Янв-15, 16:33  [ | | | ] [линейный вид] [смотреть все]
Всем, доброго

Имеется сервер HP DL160 G6 под 4 корзины 3.5 с контроллером P410i SAS.
Буду покупать новые диски и ставить CentOS под задачи хранения образов виртуальных машин. Так вот собственно вопрос, кто-нибудь ставил на этот контроллер диски большого объема? Хочется установить 5ТБ SAS диски, в спецификации по контроллеру (а она общая на кучу других) в поддерживаемых опциях стоит HP 3TB 6G SAS 7.2K rpm LFF, не получится ли, что диски будут не видны для этой железки?

Помогите разобаться с LSI Logic MegaRAID 9260-8i, !*! ibs0d, (Хранилища данных) 24-Мрт-15, 16:45  [ | | | ] [линейный вид] [смотреть все]
Есть средний опыт работы только с программными raid и бытовым железом используемым как сервер.
Приобрели серверную железку с LSI Logic MegaRAID 9260-8i. В сервере (в морде) имеется дисковая полка (или корзина, не знаю как правильно называется) на 12 отсеков под sas\sata диски, из полки (корзины) выходят только два  Mini-SAS SFF8087 (не считая питание) в RAID контроллер.
Объясните, пожалуйста, как MegaRAID 9260-8i видит больше 8-ми sata дисков, когда SFF8087 может передавать только 4 канала (судя по поискам в интернете), а их всего два. И второстепенный вопрос, для того чтобы использовать ssd кэш нужно приобретать дополнительные софт\лицензии, и нужна ли в таком случае батарейка (мне кажеться, что не нужна)? И еще вопросик, потянет ли такой контроллер RAID10 из 6-ти 3TB HDD (смущает 9TB обьем, и меет ли смысл его сделать меньше при организации массива)?
Спасибо всем ответившим.
fujitsu-siemens primepower 450, !*! Влад, (Серверные платформы) 10-Фев-15, 17:32  [ | | | ] [линейный вид] [смотреть все]
Доброго времини суток! Есть сервер  primepower 450, на него нужно поставить Solaris 10.
Вопрос как и с помощью чего можно сделать конфигурацию сервера(например настройка апаратного RAID)?
GFS2 на centos7, !*! mor, (Высоконадежные кластеры) 14-Янв-15, 17:46  [ | | | ] [линейный вид] [смотреть все]
Хотел попробовать GFS2, создал две виртуальные машины с centos7 и подключил к ним обоим shared-storage.
установил пакеты gfs2-utils и lvm2-cluster

раздел отформатировал в gfs2, но при попытки монтирования получаю:
failed: Transport endpoint is not connected

поиск по ошибке говорит что не запушен clvmd, в centos7 его нету.
Что я делаю не так. куда смотреть?

Помощь в настройке Solaris Cluster, !*! GoodTimes, (Высоконадежные кластеры) 15-Апр-14, 12:27  [ | | | ] [линейный вид] [смотреть все]
Всем доброе время суток,

Есть задача, внедрить на одном из продакшн узлов, Sol Cluster.
Конфигурация, 2 сервера Sun M4000 плюс страдж HP 3PAR плюс кворум диск.
Минимальные требования:
1. VIP. Shared IP address. Создать один общий (floating) ip адресс, между двумя нодами.
2. Общая дисковая подсистема стораджа. 2 ноды подключены к одному общему стораджу.

Т.е., в случаи падения, одной из нод, клиенты могли спокойно, не теряя соединения работать с базой оракл.
На данном этапе, собрал тестовую конфигурацию на вирт. машинах.
Что было сделано, кусочек вывода для виртуального ip адреса, для дисковой группы, аналогично:
-- Resource Groups --
            Group Name     Node Name                State          Suspended
            ----------     ---------                -----          ---------
     Group: sun-rg         node2                    Offline        No
     Group: sun-rg         node1                    Online         No
-- Resources --
            Resource Name  Node Name                State          Status Message
            -------------  ---------                -----          --------------
  Resource: my_virt_ip1    node2                    Offline        Offline
  Resource: my_virt_ip1    node1                    Online         Online

Все работает прекрасно, но в случаи падения одной из нод, приходится в ручную переключать группу my_virt_ip1 в статус online, чтоб она стала главной для node2. А необходимо, чтоб переключение происходило автоматически.
Надеюсь, что правильно все объяснил и вы меня поняли;)
Прошу помощи у знающих людей.
Заранее благодарю за ответы!

  • В случаи падения далеко не факт что база поднимется на втором сервере, использ, !*! coffee (?), 17:53 , 15-Апр-14 (1)

    > Т.е., в случаи падения, одной из нод, клиенты могли спокойно, не теряя
    > соединения работать с базой оракл.

    В "случаи падения" далеко не факт что база поднимется на втором сервере, используйте нативные средства отказоустойчивости базы.

    сообщить модератору +/ответить
Шаблоны хостов в NConf, !*! Vitto74, (Увеличение наджности) 06-Мрт-14, 08:21  [ | | | ] [линейный вид] [смотреть все]
Привет всем. Имеется сервер мониторинга Nagios с которым успешно подружился NConf. В основном он будет мониторить серверы ProxMox 2/3 и показания будет снимать одни и те же с примерно десятка хостов (серверы разбросаны по разным точкам в городе и области).
Внимание вопрос - возможно ли создать шаблон хоста с уже настроенными сервисами для более быстрого добавления в NConf? Сейчас для каждого сервера нужно создавать более десятка сервисов вручную и у каждого ProxMox эти сервисы ничем не отличаются.
Кроме того планируется там же мониторить состояние виртуальных машин, которые также будут типовыми - на гостевых windows будут мониториться загруженность дисков, памяти, подкачки и пара служб.
Выбор системы для видеоконференций, !*! svel, (Разное) 28-Сен-10, 15:32  [ | | | ] [линейный вид] [смотреть все]
Добрый день, уважаемые коллеги.

Случилось в нашей компании неприятность, поехал как то генеральный директор в одну очень богатую контору и "повезло" ему там принять участие в сеансе видеосвязи. И загорелись глаза нашего руководителя, захотел он так же нагибать директоров иногородних офисов продаж. И передо мной встала проблема/задача. Надо сделать так же или даже круче, но дешевле.

Обзвонил я всех и вся, облазил интернету, был на поклоне у гугла, и собрал я много коммерческих предложений на похожие системы заморские. Однако ценники всюду были лютые, генерала сводившие с ума, вынуждавшие его громко рассказывать что нет в нашей казне таких богатств. Но прислали мне одно странное предложение на оборудование Emblaze VCON. И почти за даром обещают его спекулянты окаянные.

И вопрос у меня к вам, люд честной, встречал ли кто зверя такого в работе своей? Каков он в работе сложной и трудной? Сдюжет ли он вести сеансы видеосвязи между 4-мя переговорными комнатами при качестве картинки 720 строк и 7-ю городами в качестве обычном?

PS прошу прощения за слог, конец рабочего дня не могу писать серьезно =) но суть вопроса мне кажется ясна

  • Видел в работе видеосвязь polycom Хорошо работает на фиговых линиях, проста в н, !*! mef (ok), 19:56 , 28-Сен-10 (1)
    Видел в работе видеосвязь polycom. Хорошо работает на фиговых линиях, проста в настройке, но не самая дешевая.
    Но я бы на вашем месте поковырял asterisk, он много чего умеет. Будет точно дешевле чем покупать готовое оборудование.
    сообщить модератору +/ответить
  • gt оверквотинг удален А попробуйте lync, очень гоже система - , !*! Алексей (??), 02:46 , 23-Мрт-13 (14)
    >[оверквотинг удален]
    > ценники всюду были лютые, генерала сводившие с ума, вынуждавшие его громко
    > рассказывать что нет в нашей казне таких богатств. Но прислали мне
    > одно странное предложение на оборудование Emblaze VCON. И почти за даром
    > обещают его спекулянты окаянные.
    > И вопрос у меня к вам, люд честной, встречал ли кто зверя
    > такого в работе своей? Каков он в работе сложной и трудной?
    > Сдюжет ли он вести сеансы видеосвязи между 4-мя переговорными комнатами при
    > качестве картинки 720 строк и 7-ю городами в качестве обычном?
    > PS прошу прощения за слог, конец рабочего дня не могу писать серьезно
    > =) но суть вопроса мне кажется ясна

    А попробуйте lync, очень гоже система ;-)

    сообщить модератору +/ответить
  • Приветствую Вроде как самое кошерное решение это Cisco Telepresence, но стоит ка, !*! mdenisov (ok), 16:52 , 25-Мрт-13 (15)
    Приветствую.

    Вроде как самое кошерное решение это Cisco Telepresence, но стоит как самолет. Если хотите слегка попроще - почитайте про цискин же WebEX, там масса разных вариантов его применения, хоть на своем, хоть на их оборудовании.

    сообщить модератору +/ответить


 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру