The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Установка HP P2000 - отображение СХД как локальный диск, !*! iGLaX6, (Хранилища данных) 07-Дек-12, 17:31  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Комрады, приветствую!

Хочется видеть СХД HP P2000 как локальный диск в системе под управлением Windows 2008 R2.
Разъёмы подключены на iSCSI через переходники на Ethernet и подрублены на сервер HP DL 360 G7.
Как сделать СХД локальным диском? Очень надо!

DRBD vs Glusterfs or...?, !*! stre10k, (Хранилища данных) 04-Дек-12, 12:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

Есть задача хранить более 3ТБ картинок разных размеров, с возможностью роста по размеру и скорости хранилища. Плюс обеспечить отказоустойчивость.
Все это дело отдается nginx пока примерно до 600 хитов в сек.

Решил попробовать glusterfs mirror, но производительность не радует, возник вопрос, может есть что-то более приспособленное под данный вид нагрузки?

Производительность raid массива., !*! stre10k, (Хранилища данных) 06-Ноя-12, 17:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

Есть рейд 6 массив из 12 SATA дисков на контроллере Adaptec 6й серии 512MB Cache.
Read и Write cache включены. Файловая система xfs с заданными sw и su.


При тестировании получились интересные результаты.

iozone -O -i0 -i1 -i2 -s4G -r4k -R

"Writer report"     137649
"Re-writer report"  193208
"Reader report"     146244
"Re-Reader report"  151575

Случайное чтение идет со скоростью 200 iops(по iostat), окончания теста не дожидался.

При этом тест в 100 потоков дает такие результаты:

iozone -O -i0 -i1 -i2 -s40M -r4k -R -t 100

"  Initial write "   42760.28
"        Rewrite "   31235.14
"           Read "  135243.35
"        Re-read "  133918.22
"    Random read "    4361.25
"   Random write "    3402.84


Что может повлиять на производительность случайного чтения в первом случае?
Пробовал увеличить queue_depth и поменять scheduler на noop.
Тестировал разные уровни raid (10, 5, 50) со всеми так.
Так и должно быть или что-то не то с настройками?

Как определить MAC-адрес 'кабеля', !*! kp580, (Сетевое оборудование) 02-Ноя-12, 19:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Собственно, есть кабель, торчащий из стенки, это management интерфейс какого-то оборудования. Надо определить MAC, для того, чтобы зарезервировать его в DHCP. как это сделать?
Бекап MySQL и недоступность сайтов, !*! Adm4311, (Хранилища данных) 30-Окт-12, 13:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте,

при бекапе баз из MySQL частенько стали возникать проблемы с доступом к сайту. Веб-сервер начал долго грузить страницы, так как на время бекапа таблицы лочатся и есть задержка с доступом к ним. Со временем размер баз будет только увеличиваться и проблема станет особо остро.

Сайты посещаемые. Веб-сервер + MySQL живут на одном сервере.

Вообщем что можно сделать чтобы сайты были доступны в момент бекапа MySQL? Также в течение дня делаются дополнительные бекапы для актуализации данных на резервном сервере.

FC HBA max 100 mb/s, !*! renat, (Хранилища данных) 05-Окт-12, 14:49  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.
В общем есть такая схема:

          1Gb/s  _______   FC HBA 8G  __________
        -------> |Server| ----------->|СХД RAID 6|

То есть поставил в Server FC HBA 8G подключил его к СХД. Настроил LUN, Server его увидел создал на нем том расшарил по smb и rsync.
Так вот суть проблемы если R/W по-любому протоколу на сервер в этот том который на самом деле на СХД то скорость как заколдованная не превышает 110-117 MB/s, если лить трафик на локальные диски сервера, то скорость 800 MB/s. К сожалению возможности попробовать записать на этот том что то с локально сервера нет.

Так вот вопрос: реально ли организовывать такие схемы (Может просто архитектура не позволяет такое исполнять)? Если да то в чем может быть затык? почему скорость такая маленькая? Пните хотя бы в нужную сторону на что пинять на HBA или на СХД?

Автоматическое переключение серверов для клиентов., !*! Kolinz, (Увеличение наджности) 27-Сен-12, 16:58  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть 3 сервера c ip-адресами IP1, IP2, IP3.

Клиенты работают с IP1 по-умолчанию. При аварии они вынуждены использовать IP2 или IP3.

Клиенты не могут в разумные сроки (не разрешено) оперативно поменять IP1 на IP2.
Клиенты не могут (не разрешено вообще) использовать имена при подключении к IP*, только ip-адреса.

Задача:  как сделать так, чтобы клиенты использовали все время один и тот же ip-адрес для доступа к IP*, а при падении одного из серверов IP*, клиенты автоматически маршутизируются на второй доступный сервер IP2 и так далее.

Предположение: нужен какой-то промежуточный маршрутизатор, к которому будут подсоединяться клиенты, но какой это маршрутизатор, что он должен поддерживать - вопрос.

Выбор ПО для централизованного управления виртуальными машинами, !*! stre10k, (Виртуализация) 21-Сен-12, 00:54  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Посоветуйте пожалуйста ПО для централизованного управления виртуальными машинами на нескольких серверах. Надо создавать образы в LVM на серверах, желательно с поддержкой экспорта по iscsi. Создавать горячие копии рабочих образов на другие хранилища(сервера) с возможностью автоматизации процесса. Поддержка восстановления виртуальной машины из копии на другом сервере. Желательно под Debian c поддержкой XEN.
Посоветуйте файловую систему, !*! kp580, (Хранилища данных) 17-Сен-12, 14:20  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть SAN. В нем NL SAS, SAS и SSD диски. Использоваться будет для долговременного хранения данных и в то же будут разделы для временных данных. В связи с чем вопросы: 1. Долговременно будут храниться файлы большого объема(порядка десятков - сотен ГБ). Интересует максимальная надежность. Вроде вот XFS подходит, какие опции форматирования/монтирования посоветуете? 2. На SSD дисках будут обрабатываться временные данные, тоже большого объема(сохранность не особо интересует, но интересует очень быстродействие). Что выбрать? То ли ext2, то ли ext4 без журнала или еще что-то может есть?
Sata raid на esxi5, !*! nelgondar, (Виртуализация) 10-Сен-12, 18:33  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день. Покупал сервак специально под esxi,взял не сильно дорогой, на матери Intel S5520UR. На офсайте вари  посмотрел, что она официально поддерживается. Собрал, настроил raid 0, esxi видит как два разных раздела. Начал искать информацию, и по ходу рейд интегрированный esxi не поддерживает. Прям взбесило, ведь мать еще еле нашел. Ребят, есть ли возможность завести рейд от моей материнки на esxi?
Отказоустойчивый NFS сервер на GlusterFS, !*! stre10k, (Высоконадежные кластеры) 05-Сен-12, 14:06  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

Есть задача сделать отказоустойчивый NFS сервер на 6ТБ. Данные: картинки, небольшие видео-ролики и mp3. Нагрузка - случайное чтение до 20МБ/с.

Задачу предполагается решить с помошью 2х серверов c GlusterFS Replicated volume и экспортом в NFS средствами gluster. IP NFS сервера будет настроен через VRRP.

Интересно узнать опыт работы с этим ПО и какие могут быть проблемы.

sftp chroot centos 6.2, !*! chunk41, (Хранилища данных) 13-Авг-12, 17:07  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здраствуйте форумчане!!!
Хочу сделать chroot окружение для юзера с sftp доступом.


Subsystem sftp internal-sftp
AllowGroups sftponly
UseDNS no

# Example of overriding settings on a per-user basis
Match Group sftponly
ChrootDirectory /var/www/production
        X11Forwarding no
    AllowTcpForwarding no
        ForceCommand internal-sftp
#    ForceCommand cvs server

При подключении выдает Write failed: Broken pipe  Couldn't read packet: Connection reset by peer

В /var/log/secure:
pam_unix(sshd:session): session opened for user builder by (uid=0)
fatal: safely_chroot: stat("/var/www/"): Permission denied
pam_unix(sshd:session): session closed for user
На папку /var/www/production смонтирован рейд на 22 Гб, и там же находится сайт
права -R apache:sftponly /var/www/production  -R 755 /var/...



Всетот же natd  с redirect port не работает , !*! Михаил, (Разное) 13-Авг-12, 14:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток )
bge0 -internal
bge1 -external

natd.conf:
port 8668
same_ports      yes
interface       bge1
use_sockets     yes
unregistered_only yes
deny_incoming    no
redirect_port tcp 192.168.85.80:8080 8080

ipfw.conf:
fwcmd="/sbin/ipfw -q add"
/sbin/ipfw -q -f flush
$fwcmd 1 check-state
$fwcmd 2 allow tcp from any to 192.168.85.80 8080 setup keep-state
$fwcmd 3 divert natd all from any to any via bge1
$fwcmd 4 allow ip from any to any via bge1
$fwcmd 1000 allow all from any to any

Нужен свежий взгляд на картину, туплю уже, редайрект не работает, tcpdump показывает, что пакеты доходят до внутреннего интерфейса, а далее не идут...

LVS странно работает, !*! Admi4222, (Высоконадежные кластеры) 13-Авг-12, 13:58  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Даже не знаю куда копать.

Суть такая: есть LVS-балансировщик и 3 веб-сервера. Используется Direct Routing. На LVS на eth1:0 (всего один интерфейс на сервере eth1) поднят Virtual IP, на веб-серверах он на lo:0. При запросе HTML-страницы все ок - в порядке round robin она выдается с каждого сервера, но если я положу php-файл то происходит странная ситуация: все запросы идут только на веб-сервер 2. Если я его отключаю то тогда все ОК - в порядке round robin отрабатывают веб-сервера 1 и 3. Если я включаю веб-сервер 2, то опять только он один работает.

Куда копать??

LVS-БАЛАНСИРОВЩИК:

/etc/ha.d/ldirectord.cf:

checktimeout=3
checkinterval=1
fallback=127.0.0.1:80
autoreload=yes
logfile="/var/log/ldirectord.log"
#logfile="local0"
quiescent=yes

# A sample virual with a fallback that will override the gobal setting
virtual=192.168.66.250:80
        real=192.168.66.144:80 gate
        real=192.168.66.222:80 gate
        real=192.168.65.78:80 gate
        fallback=127.0.0.1:80
        service=http
        request="online.html"
        receive="OK"
        virtualhost=test.site.ru
        scheduler=rr
        #persistent=600
        #netmask=255.255.255.255
        protocol=tcp

/etc/sysctl.conf:

net.ipv4.ip_forward = 1

Сеть:
eth1: обычный iface (192.168.66.200)
eth1:0 192.168.66.250 255.255.255.255


РЕАЛЬНЫЕ СЕРВЕРА:

/etc/sysconfig/network-scripts/ifcfg-lo:

DEVICE=lo
IPADDR=127.0.0.1
NETMASK=255.0.0.0
NETWORK=127.0.0.0
BROADCAST=127.255.255.255
ONBOOT=yes
NAME=loopback

DEVICE=lo:0
IPADDR=192.168.66.250
NETMASK=255.255.255.255
ONBOOT=yes

/etc/sysctl.conf:

net.ipv4.conf.eth2.arp_ignore = 1
net.ipv4.conf.eth2.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2

Дамп/восстановлеие INNODB, !*! mad4rider, (Другие СУБД) 09-Авг-12, 05:37  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Вопрос заключается в следующем.
Есть 16и Ядерный сервер, с 12ГБ мозгов. Есть база, средних размеров 8Гб ( Zabbix если интересно ). Есть желание (что естественно) ее беэкапить и максимально быстро восстановить ее если это будет необходимо.

Варианты с снапшотами/репликацией пока не подходит по некоторым причинам.

Может кто подскажет как ПРАВИЛЬНО дамп сделать и его влить обратно (допустим на новую машину).
Сейчас делаю дамп при помощи mysqldump --single-transaction -uuser -ppass zabbix > /mnt/san/blabla/zabbix.sql

Проблема в том что делается он быстро, а вливаться потом может часами очень долгиими, последний раз это заняло около 8-10 часов.
Вливаю mysql -uuser -ppass

mysql> create database zabbix;
mysql> use zabbix
mysql> source /mnt/san2/blabla/zabbix.sql

Помидорами сильно не кидайте, в интернете каких то конкретных советов не нашел, может как то криво искал. ...

Перенос содержимого .htaccess в httpd.conf, !*! chunk41, (Увеличение производительнсти) 08-Авг-12, 18:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброе время суток!
Вообщем идея такая: правила прописать правила вместо .htaccess в httpd.conf
Поиск, чтение и разбор файлов .htaccess происходит при каждом запросе. собственно и нагрузка лишняя...С другой стороны httpd.conf читается один раз при запуске Apache,необходимо перенести содержимое .htaccess в httpd.conf и запретить поиск файлов .htaccess в пределах корневого каталога сервера, установив AllowOverride в None.
кто реализовывал?
Второй канал связи в компании, !*! Helo131, (Увеличение наджности) 06-Авг-12, 14:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Привет админы.

У нас сейчас есть задача - увеличить надежность текущего канала связи. Так как он редко но падает, а нам нужно 24х7 доступность веб-сервисов.

Вставал вопрос о втором канале через другого провайдера.

Второй канал хочется сделать резервным, то есть он работает, когда падает основной.

Но там это другие подсети уже, как быть с веб-сайтами? DNS Round Robin для веб-сайтов сомнителен. Ведь при работе основного канала все запросы должны идти через него. DNS медленно распространяется и будет мало эффективен. Только если запросы поровну делить между 2 каналами одновременно работающими. Тут 50% запросов спасём если 1 канал рухнет.

Кто какие решения использует? Основная задача - отказоустойчивая работа веб-сайтов.

Помогите с серверным шкафом, !*! drlecter2007, (Сетевое оборудование) 02-Авг-12, 14:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
В качестве преамбулы, я полный дилетант, но так вышло, что делать это больше некому :)
Собственно есть сервер 1U, для интернета. Поставили задачу подобрать под него шкафчик и какой-либо бюджетный вариант охлаждения. Ставить планируется в небольшое, изолированное помещение с комнатной температурой и отсутствием кондиционирования. Посоветуйте что-нибудь, спасибо.
  
Целостность данных в MySQL при большом кол-ве запросов, !*! Helo131, (Хранилища данных) 10-Июл-12, 22:41  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Привет,

вопрос такой: что произойдет если к базе MySQL будет одновременно много запросов. Интересуют ситуации, когда запросы идут к одним и тем же данным и пытаются их изменить одновременно! Вообщем как работают MySQL в системах с большим кол-вом вычислительных нод.

LVS vs Nginx, !*! Helo131, (Высоконадежные кластеры) 09-Июл-12, 22:47  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Привет,

вопрос в выборе балансировщика для распределения большого количества запросов по ферме кластеров.

Nginx прост в работе но не отслеживают ноды. И если она упадет, то на нее будут приходить запросы в порядке своей очереди и теряться.
LVS интеллектуален в этом плане.

Как лучше сделать?

split brain pacemaker?, !*! Verf, (Высоконадежные кластеры) 28-Июн-12, 20:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
ДОбрый день!

вопрос к знатокам pacemaker, corosync.

Есть: CentOS 5, x86_64, подключены rpmforge, epel, pacemaker

установлены пакеты:
pacemaker-1.0.12-1.el5
corosync-1.2.7-1.1.el5

на двух серверах делаю простую конфигурацию, позволяющая перекидывать общий ip адрес:
# crm configure show
node server1
node server2
primitive TC2IP ocf:heartbeat:IPaddr2 \
        params ip="192.168.10.10" cidr_netmask="32" \
        op monitor interval="10s"
property $id="cib-bootstrap-options" \
        dc-version="1.0.12-unknown" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        no-quorum-policy="ignore" \
        stonith-enabled="false"

Если взять и перезагрузить один из серверов то видим следующую картину:

На сервере который остался:
============
Last updated: Thu Jun 28 20:01:58 2012
Stack: openais
Current DC: server1 - partition WITHOUT quorum
Version: 1.0.12-unknown
2 Nodes configured, 2 expected votes
1 Resources configured.
============

Online: [ server1 ]
OFFLINE: [ server2 ]

TC2IP        (ocf::heartbeat:IPaddr2):       Started server1


Загружается второй сервер, заходим на него, запускаем crm_mon и видим "зеркальную" картину

============
Last updated: Thu Jun 28 20:03:27 2012
Stack: openais
Current DC: server2 - partition WITHOUT quorum
Version: 1.0.12-unknown
2 Nodes configured, 2 expected votes
1 Resources configured.
============

Online: [ server2 ]
OFFLINE: [ server1 ]

TC2IP        (ocf::heartbeat:IPaddr2):       Started server2


при этом ip адрес 192.168.10.10 цепляется на интерфейсе на обоих серверах.
Где-то через 20 секунд, на втором сервере всё прочухивается и он убирает адрес с интерфейса и видит, что он закреплён на server1.

Что характерно, я поднимал pacemaker 1.1 на centos6 (он там ставится из официального родного репозитория) и никогда с такой проблемой не сталкивался, всё работало как надо.

Может быть дело в версии pacemaker и стоит поискать 1.1 для centos5?

VmWare ESX обьеденить два ядра в одно, !*! renat, (Виртуализация) 09-Июн-12, 16:12  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.
Я тут вот о чем подумал есть много приложений работающих на vmware который не поддерживают многопоточность то есть у виртуальной машины есть допустим много ядер, а приложение грузит только одно ядро используя в моем случае всего 2.7Гц.
Вопрос можно ли в VmWare создать допустим один vCPU обьеденяющих в себе 2 ядра с частотой 5,4Гц?
Системы контроля доступа к сети, !*! vseya_rusi, (Разное) 23-Май-12, 15:01  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Коллеги, доброго времени суток, вот какой вопрос:
рассматриваю технологии доступа в глобальную сеть на базе привязки IP-MAC-Port. Наткнулся на связку DHCP + RADIUS(+ Billing) для идентификации абонента и предоставлением ему доступа к сети. Однако, это костыль. Напрашивается идея перенести информацию в БД, этакий DHCP+СУБД. В качестве сетевого оборудования использовать управляемые коммутаторы с использованием option 82. Собственно, вопрос: а есть вообще готовые решения? Как нынче решаются подобные проблемы провайдерами, которые используют привязку по MAC-у? PPPoE и каждый абонент в отдельном VLAN-е не рассматриваются, в силу определенных причин. Буду благодарен за ссылки на соответствующие решения!!

Монтирование zfs при загрузке Solaris 10, !*! Dns, (Коммерческие системы) 10-Май-12, 13:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

zfs list (касательно проблемы):
rpool/zones                 2.71G   978G    31K  /rpool/zones
rpool/zones/ALFA_1           119M   978G   119M  /rpool/zones/ALFA_1

При загрузке системы начала возникать ошибка при монтировании (/usr/sbin/zfs mount -a):
cannot mount '/rpool/zones': directory is not empty

В этой директории действительно есть папка ALFA_1. Только смущает 1 факт. У меня есть такая же конфигурация системы и пулов в VirtualBox. Иерархия файловых систем такая же. Никаких ошибок не возникает.

Подскажите пож-та в чем может быть проблема.

P.S. Про монтирование поверх непустого каталога я нашел в доках... Только как управлять загрузкой ZFS в момент запуска системы (-O)?

Нужен ли MPI?, !*! ПростоИмя, (Вычислительные кластеры) 17-Апр-12, 13:30  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток. Назрело несколько вопросов, так что кому не лень поделитесь опытом!:) Есть несколько серверных компов на которых предполагается поднять кластер. Есть прога, которая должна на нем работать и написана без MPI. Можно ли создать кластер, где распараллеливание будет происходить только на уровне ОС? То есть чтобы не меняя программу она использовала мощь всех серверов? Подойдут ли для этих целей облачные решения, например openstack?
Насколько активно используется фрагментация IP пакетов?, !*! Konstantin, (Сетевое оборудование) 12-Апр-12, 22:22  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте.

На сколько активно сейчас используется механизм фрагментации IPv4 пакетов?
Понятно, что все хосты поддерживающие стек TCP\IP должны его поддерживать, но на сколько он актуален?
Сколько не доводилось глядеть в какой-нибудь tcpdump, ни разу не видел там "естественных" фрагментов пакетов, где всё цивильно, указано смещение, флаг + поставлен. Если и приходили небольшие пакеты, то приходили не фрагментированные, а просто 3 пакета по 600, к примеру, т.е., по-видимому, используется pmtu сразу.

Может быть есть какая-нибудь статистика на этот счёт?

использовать все ядра многопроцессорной системы как один cpu, !*! Макс, (Увеличение производительнсти) 08-Апр-12, 16:14  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
подскажите,пожалуйста, есть желание сэкономить на лицензиях
существует ли возможность использовать все ядра многопроцессорной системы как один единственный процессор? имеется ввиду производительность всех ядер и процессоров предоставленная гостевой ОС как единственный процессор. Какой гипервизор может обладать такой возможностью?
спасибо


Копирование зон 'по образцу', !*! Dns, (Коммерческие системы) 06-Апр-12, 23:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток!

Опишу вкратце ситуацию.
Есть образ Solaris 10 + Sybase ASE 15.7 для VirtualBox.
Для удобства пользования необходимо иметь несколько копий подобной конфигурации.
Сначала кинулись было на VmWare, но сегодня наткнулся на использование зон в Solaris.

Вопрос следующий: можно ли имеющийся образ как-то организовать в виде отдельной зоны на чистой оси Solaris, установленной на физическом сервере? Также хотелось бы размножить эту зону и иметь сразу несколько работающий копий Sybase ASE. Учитывая привязку лицензии к hostid, можно ли сделать несколько идентичных в этом плане зон?

Всю необходимую информацию по конфигу готов предоставить.

Заранее благодарен.



Железо для большой БД, !*! Гриша, (Разное) 06-Апр-12, 09:38  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброе время суток!
Вообщем есть задача,организация БД (скорее всего это будет Oracle 11G) в которой будет около (1 млн строк*30 тыс.)*30 в месяц...
кто подскажет какое можно приобрести железо и приблизительную стоимость,чтобы всё это вывозил и не тормозило ничего?
Посоветуйте трубку с базой поддерживающие iax2 (Asterisk), !*! obleg, (Разное) 07-Фев-12, 22:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет, в интернете стоит сервер с астериском, в оффисах стоят дешевые (3тр) трубки, поддерживающие iax2. Все отлично работало пока эти "дешевые" трубки не стали сбрасывать конфиги раз в две недели примерно.

В связи с чем встал вопрос о покупки новых. Посоветуйте нормальные беспроводные трубки (базу+трубку) с поддержкой iax2, исходя из опыта и удобства работы.

Если соберетесь уговаривать переводить офисы на sip, пожалуйста аргументируйте :)
Спасибо.

 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру