The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
RAID + бортовые SATA на DL160se G6, !*! mdenisov, (Серверные платформы) 18-Сен-15, 12:30  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую господа.
Подскажите пожалуйста такой момент - есть у меня HP DL160se G6 с 8 HDD на P410 и есть у этого сервера на борту отдельно 4 SATA. Хотелось бы воткнуть SSD для ускорения виртуальных машин ESXi - порты есть, место вроде тоже есть за бэкплэйном, правда крепления нет. Хочу понять можно ли так делать, не рекомендуется или категорически нельзя. А если нельзя то почему и для чего тогда на борту растут SATA?
postfix - анализ писем, !*! Alecsandr19912015, (Разное) 09-Сен-15, 16:32  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!

стоит FreeBSD 8.3 Release
недавно провайдер жаловался дня два где-то, что идут спам-рассылки.
проверил по глобальным белым спискам - все ок.

хотелось бы сделать, какой то анализ писем или что-то в этом роде, дабы выявить или опровергнуть что идут спам-рассылки.
к сожалению варианты с первого захода в гугл не нашел, что можете посоветовать?

Что быстрее? ssd или ssd + hdd в raid0, !*! abask, (Хранилища данных) 14-Авг-15, 14:34  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Что быстрее: ssd или ssd + hdd в raid0 ?

Или по другому:
Если к существующему диску на ssd (btrfs) добавить hdd в режиме raid0 (btrfs) не станет ли оно работать медленнее чем просто ssd?

Мониторинг батарей Ippon, !*! Vova, (Увеличение наджности) 10-Июл-15, 11:48  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Товарищи, есть ИБП Ippon Smart Winner 3000 и два доп. батарейных модуля к ней.

Всё соеденено и работает. Но вот в чём вопрос:

Можно ли через Winpower посмотреть сколько батарей она видит ?
Подозрительно мало времени работает не от сети

Zabbix, мониторинг нестабильных хостов, !*! prodvi, (Увеличение наджности) 06-Июл-15, 10:48  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Друзья, приветствую!
В качестве мониторинг-сервера используется Zabbix, но есть хосты, которые часто падают и поднимаются, в нагиосе есть настройка дополнительной проверки данных хостов, чтобы исключить "холостые" письма на почту, в заббиксе же не могу найти подобного.
Подскажите как сделать так, чтобы при падении хоста он не сразу слал письмо, а к примеру после 2-3х проверок через N-сек, либо хотя бы просто после N-ого кол-ва проверок через заданный в шаблоне ping интервал
Не могу создать базу данных oracle на freebsd, !*! driveer1, (Oracle) 17-Июн-15, 04:50  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Вообщем ситуация такая: работал я по статье (может кто ище по ней работал):
https://forums.freebsd.org/threads/install-oracle-11gr2-data.../
До 20-го пункта все было нормально. Как только начал выполнять создание БД скриптом (запущен с параметром отладки -xv) - пошли ошибки.

oracle@debora:/oracle/admin/ORATEST/create$  nohup ./cr_ORATEST.sh &

Вот содержимое файла nohup.out из той же дирректории:

#!/bin/bash -xv

. ./ORATEST.sh
+ . ./ORATEST.sh
ORACLE_HOME=/oracle/product/11.2.0
++ ORACLE_HOME=/oracle/product/11.2.0
ORACLE_SID=ORATEST
++ ORACLE_SID=ORATEST

NLS_LANG=American_america.WE8ISO8859P15
++ NLS_LANG=American_america.WE8ISO8859P15
ORA_NLS11=${ORACLE_HOME}/nls/data
++ ORA_NLS11=/oracle/product/11.2.0/nls/data
PATH=$PATH:$ORACLE_HOME/bin
++ PATH=/usr/local/bin:/usr/bin:/bin:/usr/games:/oracle/product/11.2.0/bin
export PATH
++ export PATH
export ORACLE_BASE
++ export ORACLE_BASE
export ORACLE_HOME
++ export ORACLE_HOME
export ORACLE_SID
++ export ORACLE_SID
export NLS_LANG
++ export NLS_LANG
export ORA_NLS33
++ export ORA_NLS33


rm ${ORACLE_HOME}/dbs/orapw${ORACLE_SID}
+ rm /oracle/product/11.2.0/dbs/orapwORATEST
orapwd file=${ORACLE_HOME}/dbs/orapw${ORACLE_SID} password=zebracat entries=2
+ orapwd file=/oracle/product/11.2.0/dbs/orapwORATEST password=zebracat entries=2
./cr_ORATEST.sh: line 6: 91302 Segmentation fault  orapwd file=${ORACLE_HOME}/dbs/orapw${ORACLE_SID} password=zebracat entries=2

rm -r /oracle/oradata/${ORACLE_SID}
+ rm -r /oracle/oradata/ORATEST
rm: cannot remove `/oracle/oradata/ORATEST': No such file or directory

sqlplus /nolog << EOF
spool ../logbook/cr_${ORACLE_SID}.log
conn / as sysdba;
CREATE SPFILE
FROM  PFILE='/oracle/admin/${ORACLE_SID}/create/init${ORACLE_SID}.ora';

DISCONNECT;

conn / as sysdba;

STARTUP NOMOUNT;
CREATE DATABASE ${ORACLE_SID}
CHARACTER SET WE8ISO8859P15
NATIONAL CHARACTER SET UTF8
USER SYS IDENTIFIED BY zebracat
USER SYSTEM IDENTIFIED BY zebracat
EXTENT MANAGEMENT LOCAL
DEFAULT TEMPORARY TABLESPACE temp
UNDO TABLESPACE undotbs1
DEFAULT TABLESPACE users;

@?/rdbms/admin/catalog.sql
@?/rdbms/admin/catproc.sql
@?/sqlplus/admin/pupbld.sql

SHUTDOWN IMMEDIATE;

EXIT
spool off

EOF
+ sqlplus /nolog

SQL*Plus: Release 11.2.0.1.0 Production on Wed Jun 17 04:49:29 2015

Copyright (c) 1982, 2009, Oracle.  All rights reserved.

SQL> SQL> Connected to an idle instance.
SQL>  2  CREATE SPFILE
*
ERROR at line 1:
ORA-01012: not logged on
Process ID: 0
Session ID: 0 Serial number: 0


SQL> SQL> Disconnected
SQL> SQL> Connected to an idle instance.
SQL> SQL> ORA-01012: not logged on
SQL>  2  3  4  5  6  7  8  9  CREATE DATABASE ORATEST
*

ERROR at line 1:
ORA-01012: not logged on
Process ID: 0
Session ID: 0 Serial number: 0


SQL> SQL> DOC>######################################################################
DOC>######################################################################
DOC>  The following statement will cause an "ORA-01722: invalid number"
DOC>  error and terminate the SQLPLUS session if the user is not SYS.
DOC>  Disconnect and reconnect with AS SYSDBA.
DOC>######################################################################
DOC>######################################################################
DOC>#
SELECT TO_NUMBER('MUST_BE_AS_SYSDBA') FROM DUAL
*
ERROR at line 1:
ORA-01012: not logged on
Process ID: 0
Session ID: 0 Serial number: 0


Disconnected

Я грешу на строчку в начале:


./cr_ORATEST.sh: line 6: 91302 Segmentation fault  orapwd file=${ORACLE_HOME}/dbs/orapw${ORACLE_SID}

А что думаете вы?



Умер дисковый массив, !*! sdi, (Серверные платформы) 13-Июн-15, 04:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет!
Подскажите, пожалуйста, хорошее ПО, с помощью которого можно восстановить данные с дисков, которые раньше были дисковым массивом?
Ситуация в следующем. К серверу подключен дисковый массив из 14 дисков. Так вот раньше при загрузке сервера, он видел эти диски как один логический. А теперь при загрузке системы он показывает 14 дисков. После загрузки винды, этого логического диска нет. В управлении дисками так же пусто....
Я предположил, что массив по каким либо причинам рассыпался...
Что теперь делать? Там столько инфы было важной....
Есть какое либо ПО не для восстановления массива, а хотя бы по восстановлению данных с каждого диска?


Вопрос по NTP, !*! Shinma, (Др. Unix) 07-Май-15, 09:38  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

Ищу помощи в вопросе:

Есть два сервера NTP они присылают на мои системы HP-UX два разных времени с разницей в +/- 7 секунд.
если один из NTP решит синхронизироваться с вышестоящим сервером и обнаруживает смещение то он переводит свое локальное время до вышестоящего сервера, например на +7 сек.
В этот момент на моих HP-UX ни один сервер не признается валидным для синхронизации. далее коллизии со временем (2-5 минут) проходят и мои сервера берут для синхронизации NTP сервер на угад из этих двух. это может оказаться как сервер у которого уже +7 сек так и сервер на котором все еще +0 секунд относительно моих HP-UX. с кем первее синхронизируется, того и назначает сервером NTP.
дальше происходит смешная ситуация если мои серваки выбрали NTP у которого +7сек через минуты 2-5 они тоже изменяют свое время.
дальше если текущий NTP опять изменит время на любое, мои серваки , опять сбрасывают доверие ко всем NTP и начинают процедуру проверки доверия(или как ее назвать...), могут взять за основной NTP сервер тот у которого еще не произошла доводка на +7 секунд. в итоге мои серваки через минут 5 откатывают время на -7 секунд назад.
База данных в шоке, приложения в шоке. SAP начинает спать дампы с ошибками.

Как можно избежать ситуацию когда NTP сервера вот так себя ведут? разница между NTP серверами бывает достигает 7-14 секунд на протяжении 3 часов. потом опять проходит. NTP сервера не мои, я могу только направить совет тем админам, если он будет.
Заранее благодарен.


Помогите разобаться с LSI Logic MegaRAID 9260-8i, !*! ibs0d, (Хранилища данных) 24-Мрт-15, 16:45  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть средний опыт работы только с программными raid и бытовым железом используемым как сервер.
Приобрели серверную железку с LSI Logic MegaRAID 9260-8i. В сервере (в морде) имеется дисковая полка (или корзина, не знаю как правильно называется) на 12 отсеков под sas\sata диски, из полки (корзины) выходят только два  Mini-SAS SFF8087 (не считая питание) в RAID контроллер.
Объясните, пожалуйста, как MegaRAID 9260-8i видит больше 8-ми sata дисков, когда SFF8087 может передавать только 4 канала (судя по поискам в интернете), а их всего два. И второстепенный вопрос, для того чтобы использовать ssd кэш нужно приобретать дополнительные софт\лицензии, и нужна ли в таком случае батарейка (мне кажеться, что не нужна)? И еще вопросик, потянет ли такой контроллер RAID10 из 6-ти 3TB HDD (смущает 9TB обьем, и меет ли смысл его сделать меньше при организации массива)?
Спасибо всем ответившим.
fujitsu-siemens primepower 450, !*! Влад, (Серверные платформы) 10-Фев-15, 17:32  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времини суток! Есть сервер  primepower 450, на него нужно поставить Solaris 10.
Вопрос как и с помощью чего можно сделать конфигурацию сервера(например настройка апаратного RAID)?
Диски для контроллера P410i, !*! VladimirMakov, (Серверные платформы) 30-Янв-15, 16:33  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем, доброго

Имеется сервер HP DL160 G6 под 4 корзины 3.5 с контроллером P410i SAS.
Буду покупать новые диски и ставить CentOS под задачи хранения образов виртуальных машин. Так вот собственно вопрос, кто-нибудь ставил на этот контроллер диски большого объема? Хочется установить 5ТБ SAS диски, в спецификации по контроллеру (а она общая на кучу других) в поддерживаемых опциях стоит HP 3TB 6G SAS 7.2K rpm LFF, не получится ли, что диски будут не видны для этой железки?

GFS2 на centos7, !*! mor, (Высоконадежные кластеры) 14-Янв-15, 17:46  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Хотел попробовать GFS2, создал две виртуальные машины с centos7 и подключил к ним обоим shared-storage.
установил пакеты gfs2-utils и lvm2-cluster

раздел отформатировал в gfs2, но при попытки монтирования получаю:
failed: Transport endpoint is not connected

поиск по ошибке говорит что не запушен clvmd, в centos7 его нету.
Что я делаю не так. куда смотреть?

Не в тему но ...., !*! RedD, (Разное) 17-Ноя-14, 21:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Построение сети., !*! BR, (Разное) 19-Сен-14, 13:55  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Необходим совет от знающих людей.
Суть темы вот в чем:
Имеется трасса в 400км (топология-шина), через каждые 35-40 км стоят узловые пункты (всего 10), между ними проложена оптика, в пунктах будут установлены коммутаторы, от каждого пункта идет ответвление еще порядка 800м до передающего модуля с которого необходимо получать информацию.
Вопрос в следующем:
  С коммутаторами вроде понятно, на интерфейс 100Base FX подбираем SFP по расстоянию, и т.к. полный дуплекс о коллизиях волноваться не стоит. (Если есть какие-то особенности прошу о них написать)
  Проблема в том как пробить эти 800 метров от узлового пункта до передающего модуля. Пропускная способность на этом участке требуется порядка 10 Мбит. Проблема была бы решена использованием оптики, но по ряду причин необходимо использовать медь. На сколько я понимаю т.к. тут все тот же полный дуплекс вопрос ограничивается только затухание кабеля, но тут проблема в том, что на этом участке нет возможности ставить активное оборудование. Есть предложение использовать DSL модемы, один на стороне коммутатора, другой на стороне модуля, есть ли в этом смысл? Если есть какие-то предложения по более разумной реализации данной сети просьба описать их.
mysql joins how it works, !*! tsolodov, (Другие СУБД) 18-Июл-14, 17:25  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет.

Хочется понять как работает mysql:
допустим есть 2 таблицы по 6 000 000 записей.

a:
id (PK)
filed1
filed2
filed3


b:
id(PK)
filed1
filed2
filed3

select * from a
join b on a.filed2 = b.filed2

Если я буду делать join этих таблиц по НЕ индексированным полям,

Я правильно понимаю что будет работать примерно следующий алгоритм:
для каждого поля первой таблицы будет полный обход другой таблицы(full scan) на предмет сопоставления полей, и того получится 6 000 000 * 6 000 000 проходов внутри mysql server?


Менеджмент фермы тестовых вируталок с linux,windows&solaris, !*! Fry33, (Виртуализация) 25-Июн-14, 18:57  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет!

Свалилась на меня поддержка фермы систем для тестирования, по роду деятельности я ни в вирутализации, ни в администрирование опыта не имею.

Как итог было поднято около 30 вируталок, но практически каждая виртуалка была поднята вручную, что было время затратно и поддерживать это тоже проблема.

Сейчас ищу решения как это можно всё автоматизировать.
Используются разношерстные системы: linux, windows & solaris.

Обычные сценарии использования:

Есть голд имейджи - системы конфигурируется, далее клонируется, загоняется в виртуал бокс и там уже настраивается сеть и запускается скрипыты разворачивающие демонов пускающие тесты.

Подправил gold image linux x32, далее убил все вируталки с linux x32 и пересоздал новые системы.

Создание и снепшотов и реверь систем к состояние которое было до запуска тестов( тесты иногда превращают систему в фраш ).

Виртуалки хостятся на двух серваках под oracle linux.

Мониторинг GSM/UMTS сетей из радиоэфира, !*! Fly, (Разное) 18-Июн-14, 12:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
кто что посоветует что использовать...

вообщем жду изменений в одной местности...
должны там появится ряд операторов сотовой связи...
местность площадью 1-2 кв км...там на данный момент есть оператор к которому можно подключиться...
вообщем хотел бы сделать некое устройство, работающее на АКБ, которое мониторило бы состояние радиоэфира и могла анализировать полученные данные с эфира+отправить по GPRS/3G/LTE на E-mail сведения о результатах мониторинга...т.е. факт наличие нового оператора хотелось бы-вопрос тарифов...жду когда в той местности появится их сети и перейти на них...вот думаю как побыстрее узнать и заодно поразбираться.
результат должен быть примерно такой:
1)Наименование оператора
2)CELID
3)LAC
4)уровень сигнала
5)Частота приёма и передачи

вот думал что-то на Ardunio реализовать...но пока не могу найти конкретно какие платы...у кого какие мысли?

Охранка на разрыв+фото по GPRS. Помогите в поиске гаджета, !*! Shib, (Разное) 09-Июн-14, 06:11  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем хай!
вообщем жизненная ситуация...есть забор -хочу его под охрану поставить с целью, чтобы мародёры его не растащили(к сожалению воровство в Россиии ещё процветает)....на этом участке есть небольшое строение с сетью 220 В....периметр участка-получется длина 180 метров...забор металопрофильный...61 проём...

Собственно идея у меня возникла как можно её организовать эту охранку....да кстати хотел, чтобы ЧОП какой-нибудь взял под охрану-отказалсь...ол очень далёкая точка получается...так что охранку нужно как-то лоять по своему....


что придумал раз в такую ситуацию попал...

в одну из прожилин(профильная труба) запихать по периметру кабель....но так как длина общая 180 метров-то затухание большое...нужно 180 метров делить на 2 части...т.е. два кабеля по 90 метров с одной стороны участка в заборе(в проф.трубе)...и 90 метров с другой стороны....

завести эти два кабеля в строение, где есть 220 В....
строение временное, но запирающее....
теперь нужно как-то создать некое устройство, которое будет фиксировать факт разрыва кабеля(т.е. если начнут отрезать забор мародёры, то кабель порежут....значит есть тех.событие, которое можно обработать и оповестить меня)...есть GSM сигнал на той местности двух операторов МТС и Мегафон...

Цена естественно имеет значение...т.е. некое устройство должно стоить максимально мало!
Т.е. устройство должно реагировать на разрыв этих двух кабель и возможность оповестить меня о данном событии....

Делю задачу на две подзадачи:
1)реагирование на факт мародёрства
2)оповещение о данном факте

1-Я ПОДЗАДАЧА вполне анализируется...есть два кабель..значит нужно устройство, имеющая 2 шлейфа, куда эти кабель можно оконечить извещателями охраны (ИОшками магнитными-копейки стоит)+подобрать резистором на конце кабеля так чтобы было нужное сопротивление для того, чтобы устройство поняло, что встать на контроль...
2-я ПОДЗАДАЧА оповещение-путём SMS  и фото местности(есть возможность подключить какую-нибудь камерку и по наступлению события сфотографировать картинку и отправить допустим либо MMSкой или на E-mail(или сайт)....

Вот что я уведиел на рынке, что продают...
более или менее одходит охранная сигнализация Гранит-2,т.е. на 2 шлейфа(на них кабель на каждый шлейф с ИОшками и резисторами подобрать)....и имеет возможность подключения одной SIM карты...оповещает через SMS. Гранит-2 стоит 6500 руб в моем городе.
также увидел устройство Версет на 4 шлейфа-стоимость 7800 руб. в моём городе.
Заказывать по инету особо смысла не вижу, т.к. да дешевле по инету вытсавляют стоимость, но +доставка то на то и выходит цены...+этого устройства в том, что имеется возможность подключения двух SIMок(т.е. вероятность своевременного оповещения увеличивается в случае неисправности сети связи у операторов МТС или Мегафон).
Постановка и отключение с охраны путём через SMS у обоих

Ещё попала в моё зрение устройства КСИТАЛ на 4 шлейфа...тож стоимость около 7000 руб...есть у него магнитная розетка(постановка и отключение на охрану)


Но вот вроде с основными задачами увидел устройство, а вот чтобы +к этому ещё была возможность подключить к ним камерку(которая сфотографировала бы и сформированное фото отправляла по инету на почту или сайт)...вот кто-то может быть занимается этим или знает такие устройства, т.е. те, что и датчик на разрыв можно поставить(2 шлейфа) и оповестить через SMS и ещё возможность есть подцепить в виде датчика камеру-при срабатывании разрыва на датчике-активировать камеру и сфотографировать местность-отправить по GPRS картинку на почту или сайт или MMSкой...пока в поисках..не могу найти...был бы очень благодарен за примеры фирма модели таких устройств...

Помощь в настройке Solaris Cluster, !*! GoodTimes, (Высоконадежные кластеры) 15-Апр-14, 12:27  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем доброе время суток,

Есть задача, внедрить на одном из продакшн узлов, Sol Cluster.
Конфигурация, 2 сервера Sun M4000 плюс страдж HP 3PAR плюс кворум диск.
Минимальные требования:
1. VIP. Shared IP address. Создать один общий (floating) ip адресс, между двумя нодами.
2. Общая дисковая подсистема стораджа. 2 ноды подключены к одному общему стораджу.

Т.е., в случаи падения, одной из нод, клиенты могли спокойно, не теряя соединения работать с базой оракл.
На данном этапе, собрал тестовую конфигурацию на вирт. машинах.
Что было сделано, кусочек вывода для виртуального ip адреса, для дисковой группы, аналогично:
-- Resource Groups --
            Group Name     Node Name                State          Suspended
            ----------     ---------                -----          ---------
     Group: sun-rg         node2                    Offline        No
     Group: sun-rg         node1                    Online         No
-- Resources --
            Resource Name  Node Name                State          Status Message
            -------------  ---------                -----          --------------
  Resource: my_virt_ip1    node2                    Offline        Offline
  Resource: my_virt_ip1    node1                    Online         Online

Все работает прекрасно, но в случаи падения одной из нод, приходится в ручную переключать группу my_virt_ip1 в статус online, чтоб она стала главной для node2. А необходимо, чтоб переключение происходило автоматически.
Надеюсь, что правильно все объяснил и вы меня поняли;)
Прошу помощи у знающих людей.
Заранее благодарю за ответы!

Платные аналоги pacemaker и heartbeat., !*! obl, (Кластеры) 30-Мрт-14, 20:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет! Я потратил несколько недель на освоение corosync +pacemaker, и понимаю насколько опасна эта связка. Поведение часто не предсказуемо, синхронизация может развалиться только потому что обновилось ядро системы, к примеру.
heartbeat - ведет себя стабильно, но не устраивает своей излишней простотой. Кроме как включить -выключить ноду - мало что можно от него добиться.

Поэтому ищу платные аналоги подобных продуктов, с квалифицированной поддержкой и соответствующим уровнем sla.

Raid1 по сети (iscsi + mdraid), !*! obl, (Хранилища данных) 16-Мрт-14, 17:41  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день! настраиваю связку 2 сервера, на каждом iscsi target, на каждом сервер виртуальных машин. Получается полная резервная копия по сети, по принципу дрбд но заметно быстрее. Каждая машиа цепляется к обоим серверам, к себе и к соседу по iscsi. iblock разераются lvm.
По iscsitarget - LIO.

Но вот столкнулся с неприятностью каждый раз при загрузке mdadm цепляет устройство /dev/md-xx  и блокирует его,таким образом что оно перестает быть доступно таргету.
лун переходит в состояние [BROKEN STORAGE LINK].

А в /proc/mdstat появляется запись о деградировавшем рейде.

что можно сделать в такой ситуации?

Linux srvvps01-std 3.8.0-37-generic #53~precise1-Ubuntu SMP Wed Feb 19 21:37:54 UTC 2014 x86_64 x86_64 x86_64 GNU/Linux

No LSB modules are available.
Distributor ID: Ubuntu
Description:    Ubuntu 12.04.4 LTS
Release:        12.04
Codename:       precise

> ls /

o- / ..................................................................... [...]
  o- backstores .......................................................... [...]
  | o- fileio ............................................... [0 Storage Object]
  | o- iblock ............................................... [1 Storage Object]
  | | o- test .................................... [/dev/vps01/test deactivated]
  | o- pscsi ................................................ [0 Storage Object]
  | o- rd_dr ................................................ [0 Storage Object]
  | o- rd_mcp ............................................... [0 Storage Object]
  o- ib_srpt ........................................................ [0 Target]
  o- iscsi .......................................................... [1 Target]
  | o- iqn.2003-01.org.linux-iscsi.srvvps01-std.x8664:sn.ae1b14256e9a .. [1 TPG]
  |   o- tpgt1 ....................................................... [enabled]
  |     o- acls ........................................................ [0 ACL]
  |     o- luns ........................................................ [1 LUN]
  |     | o- lun1 ........................................ [BROKEN STORAGE LINK]
  |     o- portals .................................................. [1 Portal]
  |       o- 10.1.1.1:3260 ................................................ [OK]
  o- loopback ....................................................... [0 Target]
  o- qla2xxx ........................................................ [0 Target]
  o- tcm_fc ......................................................... [0 Target]


cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : active (auto-read-only) raid1 dm-4[1]
      20955008 blocks super 1.2 [2/1] [_U]

unused devices: <none>

Шаблоны хостов в NConf, !*! Vitto74, (Увеличение наджности) 06-Мрт-14, 08:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Привет всем. Имеется сервер мониторинга Nagios с которым успешно подружился NConf. В основном он будет мониторить серверы ProxMox 2/3 и показания будет снимать одни и те же с примерно десятка хостов (серверы разбросаны по разным точкам в городе и области).
Внимание вопрос - возможно ли создать шаблон хоста с уже настроенными сервисами для более быстрого добавления в NConf? Сейчас для каждого сервера нужно создавать более десятка сервисов вручную и у каждого ProxMox эти сервисы ничем не отличаются.
Кроме того планируется там же мониторить состояние виртуальных машин, которые также будут типовыми - на гостевых windows будут мониториться загруженность дисков, памяти, подкачки и пара служб.
Использование процессора, !*! worsvch, (Увеличение производительнсти) 03-Мрт-14, 22:25  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Система: 2 процессора по 4 ядра.
Нужно сжать в пределах 80 файлов, используя gzip. Что нужно сделать чтобы были задействованы одновременно все ядра процессора? На данный момент при использовании команды gzip * используется одновременно только одно ядро, остальные не задействованы.

Через LDAP аутентифицируется только локальный пользователь , !*! ldap_user, (Разное) 03-Мрт-14, 19:47  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Коллеги, прошу объяснить (простую) вещь!

1 Имею сервер с Ubuntu 13.10 i386, на котором развернут LDAP.

2 Есть клиент (client1) , установленный на Ubuntu 12.04 ARM :
apt-get install ldap-auth-client без nscd (nscd отсутствует в репозитории).

3 В LDAP создана запись :

dn: uid=user1,ou=people,dc=example,dc=com
uid: user1
uidNumber: 7777
gidNumber: 200
passwd: 123

4 Когда я пытаюсь подключитьтся по ssh:
ssh user1&client1 с паролем 123, получаю в журнале запись :

pam_ldap : error trying to bind as uid=user1,ou=people,dc=example,dc=com,
Invalid credentials.

5 Как только на клиенте создается одноименный пользователь
adduser user1 с паролем 321, id=1001,gid=1001
я подключаюсь по ssh как user1 с любым паролем.
Причем в любом случае id=1001,gid=1001.

6 Имею еще одного клиента (client2) на Ubuntu 12.10 i386
apt-get install ldap-auth-client nscd

К этому клиенту по ssh подключаюсь сразу :
ssh user1&client2 с паролем 123,
id=7777,gid=200.

Создать пользователя на этом клиенте
adduser user1 не могу : такой пользователь уже существует.
Хотя в файле passwd его ( естественно) нет.


Сразу же говорю, что файлы  ldap.conf, nsswitch.conf  и остальные
в  /etc/pam.d на клиентах идентичны. Но поведение клиентов разное.

Что я не учел и где ощибся ?
Спасибо!


Перманентный доступ на чтение логов Аудита, !*! Dionis80, (Solaris) 03-Мрт-14, 13:47  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

Подскажите, пожалуйста, как решить следующую задачу:
Необходимо дать перманентный доступ на чтение, логов из папки /var/audit, для определенного пользователя.
Проблема в том, что если дать команду:

chown -R root:USER /var/audit
chmod -R g+r /var/audit

После подачи команды: audit -n
Либо после перезапуска службы: svcadm disable auditd
Либо после перезагрузки ОС

Права на доступ к логу "/var/audit/*not_terminated*" остаются только у привилегированного пользователя!

-bash-3.2# ls -l /var/audit/
total 1290
-rw-r-x---   1 root     USER      579355 Mar  3 14:48 20140303080818.20140303084821.unknown
-rw-------   1 root     USER         488 Mar  3 15:30 20140303084825.20140303093002.unknown
-rw-------   1 root     root        1291 Mar  3 15:36 20140303093006.not_terminated.unknown
-bash-3.2#

Заранее благодарю за ответ!

Данные о системе:
-bash-3.2# cat /etc/release
                    Oracle Solaris 10 1/13 s10x_u11wos_24a X86
  Copyright (c) 1983, 2013, Oracle and/or its affiliates. All rights reserved.
                            Assembled 17 January 2013
-bash-3.2#

Помогите с пониманием диплома, !*! elisey357, (Разное) 16-Фев-14, 16:58  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!
Я может пишу не совсем по адресу, но надежда как говорится последней :)
Ситуация следующая: есть помещение, может несколько, в которых понатыканы датчики, которые соединены в узлы. Так же есть центр (допустим главный комп или сервер), который по беспроводной связи подает сигнал в пространство, а ближайшие узлы его ловят и уже после передают в окружении, чтобы поймали остальные. Затем, когда пройдет N времени, центр посылает сигнал инициализации узлов, опять по схеме ближайшие ловят - передают дальше, пока все узлы не пройдут инициализацию на серваке. Вот собственно суть задачи, хотелось бы узнать у Вас как это выглядит в реале, на что похоже, с чего оттолкнуться в реализации (т.е. диплом написать), ну и вообще советы=)
P.S.: если не затруднит знающих, подскажите ресурсы или форумы, куда с этим вопросом актуальнее обратиться, спасибо.
Проблемы с дисковым хранилищем, !*! prazdnick, (Хранилища данных) 22-Янв-14, 17:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем доброго времени суток.
Помогите разобраться с проблемой. Я не очень силен в вопросах FC HBA.
Есть дисковый массив EonStor A16F-G2422 и сервак HP 380e в который воткнута QLogic Fiber adapter QLE2464, в качестве оси выступает Windows Server 2008 R2, задача проста, как мне презентовать на сервак лун из массива?
Прошу отнестись со снизхождением к моим слабым знаниям в этой области, рыскания по гуглам нормального ответа не дали. Желательно описание как вы бы решили эту нетривиальную задачу, или отсылка на вменяемый мануал.
Заранее спасибо!
Выбор БД, !*! tsolodov, (Другие СУБД) 20-Янв-14, 12:02  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет.

В данный момент планирую написание внутреннего тула, всетал вопрос в выборе БД. Трудность в том, что будет таблица с часто изменяемыми данными, размер которой в данный момент составил бы: 250 000 000 строк. Прошу совета с выбором СУБД. Рассматриваются как реляционные так и объектные БД.
В первую очередь рассматриваю использование mysql(с ним больше всего работал), но есть подозрение что на моем железе(это HP proliant G7) оно может работать медленно.

ЗЫ:
на ORACLE денег не дадут 100%.

Есть вариант разбить одну большую таблицу на много маленьких с одинаковой структурой но разным именем, но это выглядит  не совсем красиво с моей точки зрения.

Прошу совета.

Компьютер в компьютере, !*! KBAKEP, (Серверные платформы) 13-Янв-14, 19:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть "вычислительный" компьютер, но из него придётся сделать сервер "всего на свете". Поднять самбу для файлов, сервер печати, возможно веб-сервер, ещё что-нибудь типа точки доступа wifi. Очень не хочется засорять.
У меня возникла наивная идея: воткнуть в пустующий разъём PCI Express x16 плату с набортным маленьким компьютером, и пусть он всем этим занимается.
Вопросы:
1. Есть дешёвые аппаратные платформы (я наскоком не нашёл, много мусора в поиске или дорогие промышленные)? На плате есть несколько разных PCI Express разъёмов и один PCI. Или надо смотреть в сторону USB брелоков?
2. Как они взаимодействуют между собой? Можно ли обеспечить совместный доступ к дисковой подсистеме "родителя"?

Или ваши варианты.

Производительность канала., !*! BlackRat, (Разное) 13-Янв-14, 14:43  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть у меня клиент. Один офис в Москве, второй - в Кургане. В Москве стоит терминальный сервер для 1С, который обслуживает пользователей Москвы и Кургана. Выход в инет и создание IPSec-туннеля обеспечивают Микротики.
И вот какое чудо. Курганцы эдак с 09:30-10:00 по Москве жалуются на падение скорости доступа к терминальному серверу. Если мерять скорость с Московского сервера через спиднет, то download ~ 20 Mbps, upload ~30 Mbps (и это примерно то, что по тарифу). А вот если мерять iperf-ом из локалки в кургане до Московского сервера, получается порядка 1,9 - 2,6 Mb/s...
как всегда риторические вопросы: кто виноват и что делать?
Скорость от сервера к серверу в Москве (т.е. в Московской локалке) ~ 577 Mbps.
Если мерять скорость через такой-же IPSec-канал, но от Московского терминального сервера к московскому клиенту, трафик раза в два получше, чем у Курганских.
В Москве - Акадо. тестовый клиент в Москве ходит из Демоса. :)
 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру