The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Solaris 10 восстановление пароля., !*! Golem, (Solaris) 19-Фев-08, 16:31  (рейтинг 2,8) [ | | | ] [линейный вид] [смотреть все]
Добрый день.
Возможно ли восстановить root пароль на Solaris 10?
Есть физический доступ. (Serial console)
Есть доступ ввиде пользователя.
Но нету CDROM-а.
SunOS 5.10 Generic_120012-14 i86pc i386 i86pc

Пробовал различные (последние) эксплоиты...

Спасибо.

Подключение клавиатуры по RS232, !*! kandzuba, (Др. Unix) 02-Дек-13, 17:01  [ | | | ] [линейный вид] [смотреть все]
Имеется система. Работает под ОС QNX 4.25. Графический интерфейс на XWindow.
До текущего момента использовалась обыкновенная клавиатура с интерфейсом PS/2.
Сейчас надо использовать монитор с кнопочным обрамлением. У этого монитора клавиши выдаются по интерфейсу RS232.
Вопрос: что надо сделать в настройках системы, что бы XWindow стал принимать клавиатурный ввод по RS232.
Не в тему но ...., !*! RedD, (Разное) 17-Ноя-14, 21:52  [ | | | ] [линейный вид] [смотреть все]
Окошки от MS в песочницу...., !*! Solo_Wolf, (Разное) 25-Июл-09, 01:01  [ | | | ] [линейный вид] [смотреть все]
Поскольку приходится работать с АБС quorum, то приходится реализовывать много нестандартных схем/техпроцессов для пользователей. Давеча решил проблему работы пользователей в консольных приложениях quorum, но остался 1 пень, который решить не могу. А именно печать из консоли проприетарного wine http://www.etersoft.ru . Эта зараза считает, что консоль работает в той же кодировке, что и форточки. Правил ему реестр, *.ini файлы, но ничего не помогает.Все остальное работает. У кого есть мысли на этот счет?
Платные аналоги pacemaker и heartbeat., !*! obl, (Кластеры) 30-Мрт-14, 20:13  [ | | | ] [линейный вид] [смотреть все]
Всем привет! Я потратил несколько недель на освоение corosync +pacemaker, и понимаю насколько опасна эта связка. Поведение часто не предсказуемо, синхронизация может развалиться только потому что обновилось ядро системы, к примеру.
heartbeat - ведет себя стабильно, но не устраивает своей излишней простотой. Кроме как включить -выключить ноду - мало что можно от него добиться.

Поэтому ищу платные аналоги подобных продуктов, с квалифицированной поддержкой и соответствующим уровнем sla.

Компьютер в компьютере, !*! KBAKEP, (Серверные платформы) 13-Янв-14, 19:52  [ | | | ] [линейный вид] [смотреть все]
Есть "вычислительный" компьютер, но из него придётся сделать сервер "всего на свете". Поднять самбу для файлов, сервер печати, возможно веб-сервер, ещё что-нибудь типа точки доступа wifi. Очень не хочется засорять.
У меня возникла наивная идея: воткнуть в пустующий разъём PCI Express x16 плату с набортным маленьким компьютером, и пусть он всем этим занимается.
Вопросы:
1. Есть дешёвые аппаратные платформы (я наскоком не нашёл, много мусора в поиске или дорогие промышленные)? На плате есть несколько разных PCI Express разъёмов и один PCI. Или надо смотреть в сторону USB брелоков?
2. Как они взаимодействуют между собой? Можно ли обеспечить совместный доступ к дисковой подсистеме "родителя"?

Или ваши варианты.

  • https www virtualbox org Возможно, что придётся сделать наоборот - вычислител, !*! ACCA (ok), 21:17 , 13-Янв-14 (1) +1
    https://www.virtualbox.org/

    Возможно, что придётся сделать наоборот - "вычислительный" компьютер сделать виртуальным.

    сообщить модератору +1 +/ответить
  • Сам спросил, сам ответил Решил, что наиболее простым вариантом будет вынести фу, !*! KBAKEP (ok), 11:08 , 14-Янв-14 (2)
    > Есть "вычислительный" компьютер, но из него придётся сделать сервер "всего на свете".
    > Поднять самбу для файлов, сервер печати, возможно веб-сервер, ещё что-нибудь типа
    > точки доступа wifi. Очень не хочется засорять.
    > Или ваши варианты.

    Сам спросил, сам ответил. Решил, что наиболее простым вариантом будет вынести функции принт-сервера (это необходимо для USB МФУ) и Wi-Fi AP в отдельное устройство. Хорошо для этого подходит TP-LINK TL-MR3020 с прошивкой OpenWRT (~850 рублей). Минус - это лишний порт, что не проблема.

    сообщить модератору +/ответить
  • gt оверквотинг удален Добрый день Я бы поддержал уважаемого АССА и посоветовал, !*! edwin3d (ok), 10:08 , 08-Окт-14 (5) –1
    >[оверквотинг удален]
    > точки доступа wifi. Очень не хочется засорять.
    > У меня возникла наивная идея: воткнуть в пустующий разъём PCI Express x16
    > плату с набортным маленьким компьютером, и пусть он всем этим занимается.
    > Вопросы:
    > 1. Есть дешёвые аппаратные платформы (я наскоком не нашёл, много мусора в
    > поиске или дорогие промышленные)? На плате есть несколько разных PCI Express
    > разъёмов и один PCI. Или надо смотреть в сторону USB брелоков?
    > 2. Как они взаимодействуют между собой? Можно ли обеспечить совместный доступ к
    > дисковой подсистеме "родителя"?
    > Или ваши варианты.

    Добрый день.
    Я бы поддержал уважаемого АССА и посоветовал бы Вам разобраться с системами виртуализации, настроить для раздой роли свой виртуальный сервер и не волноваться. Суть в том, что платы - Вы можете упереться в производительность при расширении числа клиентов или круга решаемых задач.
    Ничего сложного нет - посмотрите к примеру на VirtualBox    

    сообщить модератору –1 +/ответить
  • raspberry-образную машинку можно подобрать, среди них есть вполне приемлемые по , !*! me (??), 16:10 , 08-Окт-14 (6)
    > Вопросы:
    > 1. Есть дешёвые аппаратные платформы (я наскоком не нашёл, много мусора в
    > поиске или дорогие промышленные)? На плате есть несколько разных PCI Express
    > разъёмов и один PCI. Или надо смотреть в сторону USB брелоков?

    raspberry-образную машинку можно подобрать, среди них есть вполне приемлемые по производительности. Не весь софт поддерживать могут, arm все-же, но то, что ты перечислил - вроде-бы да.

    сообщить модератору +/ответить
Выбор БД, !*! tsolodov, (Другие СУБД) 20-Янв-14, 12:02  [ | | | ] [линейный вид] [смотреть все]
Всем привет.

В данный момент планирую написание внутреннего тула, всетал вопрос в выборе БД. Трудность в том, что будет таблица с часто изменяемыми данными, размер которой в данный момент составил бы: 250 000 000 строк. Прошу совета с выбором СУБД. Рассматриваются как реляционные так и объектные БД.
В первую очередь рассматриваю использование mysql(с ним больше всего работал), но есть подозрение что на моем железе(это HP proliant G7) оно может работать медленно.

ЗЫ:
на ORACLE денег не дадут 100%.

Есть вариант разбить одну большую таблицу на много маленьких с одинаковой структурой но разным именем, но это выглядит  не совсем красиво с моей точки зрения.

Прошу совета.

  • gt оверквотинг удален Пока остановился на mysql partioning, !*! tsolodov (ok), 23:07 , 27-Янв-14 (1)
    >[оверквотинг удален]
    > совета с выбором СУБД. Рассматриваются как реляционные так и объектные БД.
    > В первую очередь рассматриваю использование mysql(с ним больше всего работал), но есть
    > подозрение что на моем железе(это HP proliant G7) оно может работать
    > медленно.
    > ЗЫ:
    > на ORACLE денег не дадут 100%.
    > Есть вариант разбить одну большую таблицу на много маленьких с одинаковой структурой
    > но разным именем, но это выглядит  не совсем красиво с
    > моей точки зрения.
    > Прошу совета.

    Пока остановился на mysql+partioning

    сообщить модератору +/ответить
  • Добрый день Если Вам не нужна мощь SQL - то очень симпатично будет смотреться Mo, !*! edwin3d (ok), 10:12 , 08-Окт-14 (3)
    > Всем привет.
    > В данный момент планирую написание внутреннего тула, всетал вопрос в выборе БД.
    > Трудность в том, что будет таблица с часто изменяемыми данными, размер
    > которой в данный момент составил бы: 250 000 000 строк. Прошу
    > совета с выбором СУБД. Рассматриваются как реляционные так и объектные БД.

    Добрый день.
    Если Вам не нужна мощь SQL - то очень симпатично будет смотреться MongoDB.
    Она на таких запросах работает шустро, а главное - можно разбить на Н серверов.

    Если нужен именно SQL, то как мне кажеться, Вам стоит обратить внимание на PostgreSQL. Но посидеть над тюнингом придется.

    В любом случае ставьте побольше памяти и не стесняйтесь ее занимать    

    сообщить модератору +/ответить
Построение сети., !*! BR, (Разное) 19-Сен-14, 13:55  [ | | | ] [линейный вид] [смотреть все]
Необходим совет от знающих людей.
Суть темы вот в чем:
Имеется трасса в 400км (топология-шина), через каждые 35-40 км стоят узловые пункты (всего 10), между ними проложена оптика, в пунктах будут установлены коммутаторы, от каждого пункта идет ответвление еще порядка 800м до передающего модуля с которого необходимо получать информацию.
Вопрос в следующем:
  С коммутаторами вроде понятно, на интерфейс 100Base FX подбираем SFP по расстоянию, и т.к. полный дуплекс о коллизиях волноваться не стоит. (Если есть какие-то особенности прошу о них написать)
  Проблема в том как пробить эти 800 метров от узлового пункта до передающего модуля. Пропускная способность на этом участке требуется порядка 10 Мбит. Проблема была бы решена использованием оптики, но по ряду причин необходимо использовать медь. На сколько я понимаю т.к. тут все тот же полный дуплекс вопрос ограничивается только затухание кабеля, но тут проблема в том, что на этом участке нет возможности ставить активное оборудование. Есть предложение использовать DSL модемы, один на стороне коммутатора, другой на стороне модуля, есть ли в этом смысл? Если есть какие-то предложения по более разумной реализации данной сети просьба описать их.
  • Используйте vdsl2, думаю выжмет мегабит 20, но все от линии зависит , !*! gfh (??), 23:31 , 19-Сен-14 (1)
    Используйте vdsl2, думаю выжмет мегабит 20, но все от линии зависит.
    сообщить модератору +/ответить
ищу книгу по ПО openview, !*! switchGS, (Коммерческие системы) 11-Янв-09, 11:20  (рейтинг 1,0) [ | | | ] [линейный вид] [смотреть все]
Занимаюсь администрированием openview operations.
Нужна такая книга HP OpenView System Administration Handbook . By Tammy Zitello, Deborah Williams, Paul Weber
Кто встречал, знает откуда можно скачать, выложате линки.
заранее благодарен!
mysql joins how it works, !*! tsolodov, (Другие СУБД) 18-Июл-14, 17:25  [ | | | ] [линейный вид] [смотреть все]
Всем привет.

Хочется понять как работает mysql:
допустим есть 2 таблицы по 6 000 000 записей.

a:
id (PK)
filed1
filed2
filed3


b:
id(PK)
filed1
filed2
filed3

select * from a
join b on a.filed2 = b.filed2

Если я буду делать join этих таблиц по НЕ индексированным полям,

Я правильно понимаю что будет работать примерно следующий алгоритм:
для каждого поля первой таблицы будет полный обход другой таблицы(full scan) на предмет сопоставления полей, и того получится 6 000 000 * 6 000 000 проходов внутри mysql server?


Iscsi-target-utils позволяет подключиться только одной ноде, !*! ADMIN14, (Хранилища данных) 12-Янв-14, 15:54  [ | | | ] [линейный вид] [смотреть все]
Система CentOS 6.5. Установлен iscsi-target-utils. На двух других серверах - iscsi-initiator-utils. Подключаюсь обоими инициаторами, но при попытке примонтировать блочное устройство (раздел на target`е с GFS2) оно монтируется только на первом устройстве, а на втором висит бесконечный процесс монтирования. Если сделать umount /раздел на первой ноде, то тогда происходит сразу же монтирование на второй.

Необходимо сделать чтобы устройство можно было монтировать одновременно на обоих нодах на rw. Кто-нибудь сталкивался с таким?

Raid1 по сети (iscsi + mdraid), !*! obl, (Хранилища данных) 16-Мрт-14, 17:41  [ | | | ] [линейный вид] [смотреть все]
Добрый день! настраиваю связку 2 сервера, на каждом iscsi target, на каждом сервер виртуальных машин. Получается полная резервная копия по сети, по принципу дрбд но заметно быстрее. Каждая машиа цепляется к обоим серверам, к себе и к соседу по iscsi. iblock разераются lvm.
По iscsitarget - LIO.

Но вот столкнулся с неприятностью каждый раз при загрузке mdadm цепляет устройство /dev/md-xx  и блокирует его,таким образом что оно перестает быть доступно таргету.
лун переходит в состояние [BROKEN STORAGE LINK].

А в /proc/mdstat появляется запись о деградировавшем рейде.

что можно сделать в такой ситуации?

Linux srvvps01-std 3.8.0-37-generic #53~precise1-Ubuntu SMP Wed Feb 19 21:37:54 UTC 2014 x86_64 x86_64 x86_64 GNU/Linux

No LSB modules are available.
Distributor ID: Ubuntu
Description:    Ubuntu 12.04.4 LTS
Release:        12.04
Codename:       precise

> ls /

o- / ..................................................................... [...]
  o- backstores .......................................................... [...]
  | o- fileio ............................................... [0 Storage Object]
  | o- iblock ............................................... [1 Storage Object]
  | | o- test .................................... [/dev/vps01/test deactivated]
  | o- pscsi ................................................ [0 Storage Object]
  | o- rd_dr ................................................ [0 Storage Object]
  | o- rd_mcp ............................................... [0 Storage Object]
  o- ib_srpt ........................................................ [0 Target]
  o- iscsi .......................................................... [1 Target]
  | o- iqn.2003-01.org.linux-iscsi.srvvps01-std.x8664:sn.ae1b14256e9a .. [1 TPG]
  |   o- tpgt1 ....................................................... [enabled]
  |     o- acls ........................................................ [0 ACL]
  |     o- luns ........................................................ [1 LUN]
  |     | o- lun1 ........................................ [BROKEN STORAGE LINK]
  |     o- portals .................................................. [1 Portal]
  |       o- 10.1.1.1:3260 ................................................ [OK]
  o- loopback ....................................................... [0 Target]
  o- qla2xxx ........................................................ [0 Target]
  o- tcm_fc ......................................................... [0 Target]


cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : active (auto-read-only) raid1 dm-4[1]
      20955008 blocks super 1.2 [2/1] [_U]

unused devices: <none>

Охранка на разрыв+фото по GPRS. Помогите в поиске гаджета, !*! Shib, (Разное) 09-Июн-14, 06:11  [ | | | ] [линейный вид] [смотреть все]
Всем хай!
вообщем жизненная ситуация...есть забор -хочу его под охрану поставить с целью, чтобы мародёры его не растащили(к сожалению воровство в Россиии ещё процветает)....на этом участке есть небольшое строение с сетью 220 В....периметр участка-получется длина 180 метров...забор металопрофильный...61 проём...

Собственно идея у меня возникла как можно её организовать эту охранку....да кстати хотел, чтобы ЧОП какой-нибудь взял под охрану-отказалсь...ол очень далёкая точка получается...так что охранку нужно как-то лоять по своему....


что придумал раз в такую ситуацию попал...

в одну из прожилин(профильная труба) запихать по периметру кабель....но так как длина общая 180 метров-то затухание большое...нужно 180 метров делить на 2 части...т.е. два кабеля по 90 метров с одной стороны участка в заборе(в проф.трубе)...и 90 метров с другой стороны....

завести эти два кабеля в строение, где есть 220 В....
строение временное, но запирающее....
теперь нужно как-то создать некое устройство, которое будет фиксировать факт разрыва кабеля(т.е. если начнут отрезать забор мародёры, то кабель порежут....значит есть тех.событие, которое можно обработать и оповестить меня)...есть GSM сигнал на той местности двух операторов МТС и Мегафон...

Цена естественно имеет значение...т.е. некое устройство должно стоить максимально мало!
Т.е. устройство должно реагировать на разрыв этих двух кабель и возможность оповестить меня о данном событии....

Делю задачу на две подзадачи:
1)реагирование на факт мародёрства
2)оповещение о данном факте

1-Я ПОДЗАДАЧА вполне анализируется...есть два кабель..значит нужно устройство, имеющая 2 шлейфа, куда эти кабель можно оконечить извещателями охраны (ИОшками магнитными-копейки стоит)+подобрать резистором на конце кабеля так чтобы было нужное сопротивление для того, чтобы устройство поняло, что встать на контроль...
2-я ПОДЗАДАЧА оповещение-путём SMS  и фото местности(есть возможность подключить какую-нибудь камерку и по наступлению события сфотографировать картинку и отправить допустим либо MMSкой или на E-mail(или сайт)....

Вот что я уведиел на рынке, что продают...
более или менее одходит охранная сигнализация Гранит-2,т.е. на 2 шлейфа(на них кабель на каждый шлейф с ИОшками и резисторами подобрать)....и имеет возможность подключения одной SIM карты...оповещает через SMS. Гранит-2 стоит 6500 руб в моем городе.
также увидел устройство Версет на 4 шлейфа-стоимость 7800 руб. в моём городе.
Заказывать по инету особо смысла не вижу, т.к. да дешевле по инету вытсавляют стоимость, но +доставка то на то и выходит цены...+этого устройства в том, что имеется возможность подключения двух SIMок(т.е. вероятность своевременного оповещения увеличивается в случае неисправности сети связи у операторов МТС или Мегафон).
Постановка и отключение с охраны путём через SMS у обоих

Ещё попала в моё зрение устройства КСИТАЛ на 4 шлейфа...тож стоимость около 7000 руб...есть у него магнитная розетка(постановка и отключение на охрану)


Но вот вроде с основными задачами увидел устройство, а вот чтобы +к этому ещё была возможность подключить к ним камерку(которая сфотографировала бы и сформированное фото отправляла по инету на почту или сайт)...вот кто-то может быть занимается этим или знает такие устройства, т.е. те, что и датчик на разрыв можно поставить(2 шлейфа) и оповестить через SMS и ещё возможность есть подцепить в виде датчика камеру-при срабатывании разрыва на датчике-активировать камеру и сфотографировать местность-отправить по GPRS картинку на почту или сайт или MMSкой...пока в поисках..не могу найти...был бы очень благодарен за примеры фирма модели таких устройств...

вопрос про модули ядра, !*! tsolodov, (Серверные платформы) 28-Ноя-13, 11:34  [ | | | ] [линейный вид] [смотреть все]
Добрый день, коллеги.
Система Centos 5.X
Прошу помощи в вопросе, не могу найти в доках как работает одна фича:
Есть девайс Fusion IO drive 2(SSD накопитель). Для подключения его в систему нужно собирать модули ядра из src.rpm.
Собираем модуль для версии 2.6.18-308.8.2.el5(система загружена с этим ядром), подгружаем, все работает, девайс виден в системе. Обновляем ядро допустим на 2.6.18-348.12.1.el5(через yum), перезагружаемся, девайс виден, хотя можуль мы не пересобирали для этого ядра. Но если допустим на ядро 2.6.18-348.12.1.el5 установить rpm собранное под ядро  2.6.18-308.8.2.el5 то девайс не появится в системе.


Такое же поведение замемечено для fake RAID контроллеров.

Как работает этот механизм?

Solaris настройка дополнительных ethernet-ов, !*! finem, (Solaris) 30-Апр-09, 10:04  [ | | | ] [линейный вид] [смотреть все]
Добрый день, посоветуйте на sunfire245 работают два ethernet при попытке подключить еще два успехом не увенчалось при том что разъемы есть...и по всей видимости сконфигурированы но на подключение ни как не реагирует..даже не мигает

# ifconfig -a
lo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
        inet 127.0.0.1 netmask ff000000
bge0: flags=1004843<UP,BROADCAST,RUNNING,MULTICAST,DHCP,IPv4> mtu 1500 index 2
        inet 192.168.2.9 netmask ffffff00 broadcast 192.168.2.255
        ether 0:14:4f:0:65:36
bge1: flags=1004843<UP,BROADCAST,RUNNING,MULTICAST,DHCP,IPv4> mtu 1500 index 3
        inet 10.253.2.32 netmask ffffff00 broadcast 10.253.2.255
        ether 0:14:4f:0:65:37
bge2: flags=1000803<UP,BROADCAST,MULTICAST,IPv4> mtu 1500 index 4
        inet 10.253.2.100 netmask ffffff00 broadcast 10.253.2.255
        ether 0:14:4f:0:65:38
bge3: flags=1000802<BROADCAST,MULTICAST,IPv4> mtu 1500 index 5
        inet 0.0.0.0 netmask 0
        ether 0:14:4f:0:65:39
# netstat -nr

Routing Table: IPv4
  Destination           Gateway           Flags  Ref   Use   Interface
-------------------- -------------------- ----- ----- ------ ---------
192.168.2.0          192.168.2.9          U         1     63  bge0
10.253.2.0           10.253.2.32          U         1 994705  bge1
10.253.2.0           10.253.2.100         U         1      2  bge2
default              10.253.2.1           UG        1     37  bge1
default              192.168.2.1          UG        1     35  bge0
default              10.253.2.128         UG        1      2  bge2
127.0.0.1            127.0.0.1            UH        63958872  lo0
#


bge2 это как раз новый..и но даже не мигает)

Менеджмент фермы тестовых вируталок с linux,windows&solaris, !*! Fry33, (Виртуализация) 25-Июн-14, 18:57  [ | | | ] [линейный вид] [смотреть все]
Всем привет!

Свалилась на меня поддержка фермы систем для тестирования, по роду деятельности я ни в вирутализации, ни в администрирование опыта не имею.

Как итог было поднято около 30 вируталок, но практически каждая виртуалка была поднята вручную, что было время затратно и поддерживать это тоже проблема.

Сейчас ищу решения как это можно всё автоматизировать.
Используются разношерстные системы: linux, windows & solaris.

Обычные сценарии использования:

Есть голд имейджи - системы конфигурируется, далее клонируется, загоняется в виртуал бокс и там уже настраивается сеть и запускается скрипыты разворачивающие демонов пускающие тесты.

Подправил gold image linux x32, далее убил все вируталки с linux x32 и пересоздал новые системы.

Создание и снепшотов и реверь систем к состояние которое было до запуска тестов( тесты иногда превращают систему в фраш ).

Виртуалки хостятся на двух серваках под oracle linux.

  • gt оверквотинг удален Ну Вам нужно, как я понимаю, управлялку поставить для эт, !*! lolshto (?), 11:36 , 26-Июн-14 (1)
    >[оверквотинг удален]
    > Используются разношерстные системы: linux, windows & solaris.
    > Обычные сценарии использования:
    > Есть голд имейджи - системы конфигурируется, далее клонируется, загоняется в виртуал бокс
    > и там уже настраивается сеть и запускается скрипыты разворачивающие демонов пускающие
    > тесты.
    > Подправил gold image linux x32, далее убил все вируталки с linux x32
    > и пересоздал новые системы.
    > Создание и снепшотов и реверь систем к состояние которое было до запуска
    > тестов( тесты иногда превращают систему в фраш ).
    > Виртуалки хостятся на двух серваках под oracle linux.

    Ну Вам нужно, как я понимаю, управлялку поставить для этих двух хостов на KVM. Их мого и они разные:
    http://www.linux-kvm.org/page/Management_Tools
    Вот эта очень простая в установке и использовании:
    https://www.webvirtmgr.net/screenshot/

    сообщить модератору +/ответить
Мониторинг GSM/UMTS сетей из радиоэфира, !*! Fly, (Разное) 18-Июн-14, 12:13  [ | | | ] [линейный вид] [смотреть все]
кто что посоветует что использовать...

вообщем жду изменений в одной местности...
должны там появится ряд операторов сотовой связи...
местность площадью 1-2 кв км...там на данный момент есть оператор к которому можно подключиться...
вообщем хотел бы сделать некое устройство, работающее на АКБ, которое мониторило бы состояние радиоэфира и могла анализировать полученные данные с эфира+отправить по GPRS/3G/LTE на E-mail сведения о результатах мониторинга...т.е. факт наличие нового оператора хотелось бы-вопрос тарифов...жду когда в той местности появится их сети и перейти на них...вот думаю как побыстрее узнать и заодно поразбираться.
результат должен быть примерно такой:
1)Наименование оператора
2)CELID
3)LAC
4)уровень сигнала
5)Частота приёма и передачи

вот думал что-то на Ardunio реализовать...но пока не могу найти конкретно какие платы...у кого какие мысли?

  • Раньше инженера рисовали структурные схемы У вас есть такая , !*! PavelR (??), 20:10 , 18-Июн-14 (1)
    > вот думал что-то на Ardunio реализовать...но пока не могу найти конкретно какие
    > платы...у кого какие мысли?

    Раньше инженера рисовали структурные схемы... У вас есть такая?

    сообщить модератору +/ответить
  • http stackoverflow com questions 13640205 gsm-modem-at-command-to-know-my-oper, !*! name (??), 20:41 , 19-Июн-14 (3)
    http://stackoverflow.com/questions/13640205/gsm-modem-at-com...
    думаю дальше сам придумаешь, взять б/у телефон и подключить к компу или городить огород с ардуинами
    сообщить модератору +/ответить
Шейпинг ESFQ/SRR, !*! SyCraft, (Аппаратное обеспечение) 13-Июн-09, 14:07  [ | | | ] [линейный вид] [смотреть все]
Попросы на засыпку.

1. Есть ли не комерческие дистрибутивы с поддержкой ESFQ ?
2. Есть ли хоть одно внятное пособие по использования SRR?

Собрал модуль SRR, собрал iproute с патчем.

Делаю

tc qdisc del dev eth0 root
tc qdisc add dev eth0 root srr slots 64 limit 1024 classify dst

далее

tc -s -d qdisc ls dev eth0

qdisc srr 8007: slots 64 used 0/64 qlimit 1024 classify IP_DST Sent 355115564 bytes 501763 pkts (dropped 0, overlimits 0)

Во первых смущает то что все время used 0/64, во вторых не шейпит.

Куда копать?

Долго грузится ОС AIX 6.1 TL 6100-07, !*! Сергей, (AIX) 28-Сен-13, 15:29  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте уважаемые спецы по Power системам , уже и незнаю к кому обратится с данной проблемой.
В тех. поддержке мне ничего дельного не подсказали и мало того для них это дремучий лес.

И так. Имеется у меня BladeCenter H , и лезвие PS701 . Установил на него AIX 6.1 , долго мучался с настройкой сети : т.к в smit assist их было 4 :

en0
en1
et0
et1

как нистранно в сторону свитча смотрел en0.

Я прописал на него IP ,сеть все видит но после перезагрузки система долго грузится минут 30
-------------------------------------------------------------------------------
Welcome to AIX.
boot image timestamp: 16:43:44 09/17/2013
The current time and date: 22:43:32 09/27/2013
processor count: 8; memory size: 7552MB; kernel size: 28583826
boot device: /pci@800000020000208/pci1014,02BD@1/sas/disk@20000:2
-------------------------------------------------------------------------------

В начале на этапе вот этой заставки вверху порядком минут (15)


Потом появляется ниже вот это:

Saving Base Customize Data to boot disk
Starting the sync daemon
Mounting the platform dump file system, /var/adm/ras/platform
Starting the error daemon
System initialization completed.
TE=OFF
CHKEXEC=OFF
CHKSHLIB=OFF
CHKSCRIPT=OFF
CHKKERNEXT=OFF
STOP_UNTRUSTD=OFF
STOP_ON_CHKFAIL=OFF
LOCK_KERN_POLICIES=OFF
TSD_FILES_LOCK=OFF
TSD_LOCK=OFF
TEP=OFF
TLP=OFF
Successfully updated the Kernel Authorization Table.
Successfully updated the Kernel Role Table.
Successfully updated the Kernel Command Table.
Successfully updated the Kernel Device Table.
Successfully updated the Kernel Object Domain Table.
Successfully updated the Kernel Domains Table.
Setting tunable parameters...complete
Starting Multi-user Initialization
Performing auto-varyon of Volume Groups
Activating all paging spaces
0517-075 swapon: Paging device /dev/hd6 is already active.

The current volume is: /dev/hd1
Primary superblock is valid.

The current volume is: /dev/hd10opt
Primary superblock is valid.
Performing all automatic mounts
Replaying log for /dev/lv00.
mount: 0506-324 Cannot mount /dev/cd0 on /cdrom: The device is not ready for operation.
Multi-user initialization completed
Checking for srcmstr active...complete
Starting tcpip daemons:
success
success
success
0513-059 The syslogd Subsystem has been started. Subsystem PID is 6488266.
0513-059 The sendmail Subsystem has been started. Subsystem PID is 6160580.
0513-029 The snmpd Subsystem is already active.
Multiple instances are not supported.
0513-059 The portmap Subsystem has been started. Subsystem PID is 5112024.
0513-059 The inetd Subsystem has been started. Subsystem PID is 6750416.
0513-059 The hostmibd Subsystem has been started. Subsystem PID is 6226124.
0513-059 The snmpmibd Subsystem has been started. Subsystem PID is 4522052.
0513-059 The aixmibd Subsystem has been started. Subsystem PID is 5767350.
Finished starting tcpip daemons.
nsmb0 Available

ДАЛЕЕ ПРИ СТАРТЕ СЛУЖБЫ NFS СТОИТ ЕЩЕ МИНУТ 10-15

Starting NFS services:
0513-059 The biod Subsystem has been started. Subsystem PID is 6947032.


и потом только появляется приглашение

Welcome to Aix 6.1

Login:
Password:

Смущает очень долгая загрузка , что я делаю потом :

Жду долгой загрузки AIXа , захожу в smit assist и через него удаляю все интерфейсы перезагружаюсь , AIX загружается за 3 - 4 минуты , но только как опять добавляю IP адрес к интерфейсу и опять ребутаюсь , система грузится долго.

Пробывал переустанавливать систему снуля , прописываю адресс все ок но после нескольких перезагрузок опять такая беда. В железе проблем однозначно нету . 8 гигов памяти , винт менять тоже пробывал ставил систему заново.


Подскажите пожайлуста как можно решить эту проблему , или повыключать половина служб которые ненужны мне чтоб загружалось быстрее

Перезагрузка Netra 20 при подключении к LOM, !*! _mag_, (Solaris) 16-Май-08, 13:29  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте всем.
Имею в наличии: Netra 20 + LOM.
Проблема такова: при попытке подключения (например бука) к интерфейсу LOM, сервер никак не реагирует, а через, примерно, 2-3 минуты Solaris 8 наглухо виснет и помогает только жесткий reset.
Также, если подключаться через терминальный сервер, то результат такой же - завис наглухо.

Может кто-нибудь сталкивался, помогите плз.
Буду благодарен, если кто-нить даст ссылку на доку по конфигурированию LOM или troubleshooting LOM.

Помогите с пониманием диплома, !*! elisey357, (Разное) 16-Фев-14, 16:58  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!
Я может пишу не совсем по адресу, но надежда как говорится последней :)
Ситуация следующая: есть помещение, может несколько, в которых понатыканы датчики, которые соединены в узлы. Так же есть центр (допустим главный комп или сервер), который по беспроводной связи подает сигнал в пространство, а ближайшие узлы его ловят и уже после передают в окружении, чтобы поймали остальные. Затем, когда пройдет N времени, центр посылает сигнал инициализации узлов, опять по схеме ближайшие ловят - передают дальше, пока все узлы не пройдут инициализацию на серваке. Вот собственно суть задачи, хотелось бы узнать у Вас как это выглядит в реале, на что похоже, с чего оттолкнуться в реализации (т.е. диплом написать), ну и вообще советы=)
P.S.: если не затруднит знающих, подскажите ресурсы или форумы, куда с этим вопросом актуальнее обратиться, спасибо.
Перманентный доступ на чтение логов Аудита, !*! Dionis80, (Solaris) 03-Мрт-14, 13:47  [ | | | ] [линейный вид] [смотреть все]
Добрый день.

Подскажите, пожалуйста, как решить следующую задачу:
Необходимо дать перманентный доступ на чтение, логов из папки /var/audit, для определенного пользователя.
Проблема в том, что если дать команду:

chown -R root:USER /var/audit
chmod -R g+r /var/audit

После подачи команды: audit -n
Либо после перезапуска службы: svcadm disable auditd
Либо после перезагрузки ОС

Права на доступ к логу "/var/audit/*not_terminated*" остаются только у привилегированного пользователя!

-bash-3.2# ls -l /var/audit/
total 1290
-rw-r-x---   1 root     USER      579355 Mar  3 14:48 20140303080818.20140303084821.unknown
-rw-------   1 root     USER         488 Mar  3 15:30 20140303084825.20140303093002.unknown
-rw-------   1 root     root        1291 Mar  3 15:36 20140303093006.not_terminated.unknown
-bash-3.2#

Заранее благодарю за ответ!

Данные о системе:
-bash-3.2# cat /etc/release
                    Oracle Solaris 10 1/13 s10x_u11wos_24a X86
  Copyright (c) 1983, 2013, Oracle and/or its affiliates. All rights reserved.
                            Assembled 17 January 2013
-bash-3.2#

  • Там захардкодено вот так newfd open newname, O_RDWR 124 O_APPEND 124 O_C, !*! exSun (?), 18:02 , 07-Мрт-14 (1)
    Там захардкодено вот так:

    newfd = open(newname, O_RDWR | O_APPEND | O_CREAT | O_EXCL, 0600);

    , т.ч. сходу предложить вариант не могу (ACL-и тоже не помогут, как мне кажется). Кстати, в опенсолярисе и дальше файл создаётся с правами 0640 - см. http://src.illumos.org/source/xref/illumos-gate/usr/src/lib/...

    сообщить модератору +/ответить
split brain pacemaker?, !*! Verf, (Высоконадежные кластеры) 28-Июн-12, 20:13  [ | | | ] [линейный вид] [смотреть все]
ДОбрый день!

вопрос к знатокам pacemaker, corosync.

Есть: CentOS 5, x86_64, подключены rpmforge, epel, pacemaker

установлены пакеты:
pacemaker-1.0.12-1.el5
corosync-1.2.7-1.1.el5

на двух серверах делаю простую конфигурацию, позволяющая перекидывать общий ip адрес:
# crm configure show
node server1
node server2
primitive TC2IP ocf:heartbeat:IPaddr2 \
        params ip="192.168.10.10" cidr_netmask="32" \
        op monitor interval="10s"
property $id="cib-bootstrap-options" \
        dc-version="1.0.12-unknown" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        no-quorum-policy="ignore" \
        stonith-enabled="false"

Если взять и перезагрузить один из серверов то видим следующую картину:

На сервере который остался:
============
Last updated: Thu Jun 28 20:01:58 2012
Stack: openais
Current DC: server1 - partition WITHOUT quorum
Version: 1.0.12-unknown
2 Nodes configured, 2 expected votes
1 Resources configured.
============

Online: [ server1 ]
OFFLINE: [ server2 ]

TC2IP        (ocf::heartbeat:IPaddr2):       Started server1


Загружается второй сервер, заходим на него, запускаем crm_mon и видим "зеркальную" картину

============
Last updated: Thu Jun 28 20:03:27 2012
Stack: openais
Current DC: server2 - partition WITHOUT quorum
Version: 1.0.12-unknown
2 Nodes configured, 2 expected votes
1 Resources configured.
============

Online: [ server2 ]
OFFLINE: [ server1 ]

TC2IP        (ocf::heartbeat:IPaddr2):       Started server2


при этом ip адрес 192.168.10.10 цепляется на интерфейсе на обоих серверах.
Где-то через 20 секунд, на втором сервере всё прочухивается и он убирает адрес с интерфейса и видит, что он закреплён на server1.

Что характерно, я поднимал pacemaker 1.1 на centos6 (он там ставится из официального родного репозитория) и никогда с такой проблемой не сталкивался, всё работало как надо.

Может быть дело в версии pacemaker и стоит поискать 1.1 для centos5?

Через LDAP аутентифицируется только локальный пользователь , !*! ldap_user, (Разное) 03-Мрт-14, 19:47  [ | | | ] [линейный вид] [смотреть все]
Коллеги, прошу объяснить (простую) вещь!

1 Имею сервер с Ubuntu 13.10 i386, на котором развернут LDAP.

2 Есть клиент (client1) , установленный на Ubuntu 12.04 ARM :
apt-get install ldap-auth-client без nscd (nscd отсутствует в репозитории).

3 В LDAP создана запись :

dn: uid=user1,ou=people,dc=example,dc=com
uid: user1
uidNumber: 7777
gidNumber: 200
passwd: 123

4 Когда я пытаюсь подключитьтся по ssh:
ssh user1&client1 с паролем 123, получаю в журнале запись :

pam_ldap : error trying to bind as uid=user1,ou=people,dc=example,dc=com,
Invalid credentials.

5 Как только на клиенте создается одноименный пользователь
adduser user1 с паролем 321, id=1001,gid=1001
я подключаюсь по ssh как user1 с любым паролем.
Причем в любом случае id=1001,gid=1001.

6 Имею еще одного клиента (client2) на Ubuntu 12.10 i386
apt-get install ldap-auth-client nscd

К этому клиенту по ssh подключаюсь сразу :
ssh user1&client2 с паролем 123,
id=7777,gid=200.

Создать пользователя на этом клиенте
adduser user1 не могу : такой пользователь уже существует.
Хотя в файле passwd его ( естественно) нет.


Сразу же говорю, что файлы  ldap.conf, nsswitch.conf  и остальные
в  /etc/pam.d на клиентах идентичны. Но поведение клиентов разное.

Что я не учел и где ощибся ?
Спасибо!


Как отличить sdd для сервера от простых ssd?, !*! dossd, (Хранилища данных) 26-Ноя-13, 16:49  [ | | | ] [линейный вид] [смотреть все]
Как отличить sdd для сервера от простых ssd? По каким ключевым словам искать? Что вообще можно купить в Питере из ssd для серверов (Если подскажите кому можно позвонить, было бы вообще идеально)
  • На сайте производителя Вашего сервера смотрите совместимые SSD-диски У большинст, !*! ReSeT (?), 19:58 , 26-Ноя-13 (1)
    > Как отличить sdd для сервера от простых ssd? По каким ключевым словам
    > искать? Что вообще можно купить в Питере из ssd для серверов
    > (Если подскажите кому можно позвонить, было бы вообще идеально)

    На сайте производителя Вашего сервера смотрите совместимые SSD-диски.
    У большинства производителей это будет 1-2 варианта на сервер.

    сообщить модератору +/ответить
  • По цене , !*! pavlinux (ok), 02:32 , 27-Ноя-13 (2)
    > Как отличить sdd для сервера от простых ssd?

    По цене. :)

    сообщить модератору +/ответить
  • FusionIO, !*! anonymous (??), 01:22 , 06-Мрт-14 (6)
    > Как отличить sdd для сервера от простых ssd? По каким ключевым словам
    > искать?

    FusionIO

    сообщить модератору +/ответить
Проблемы с дисковым хранилищем, !*! prazdnick, (Хранилища данных) 22-Янв-14, 17:52  [ | | | ] [линейный вид] [смотреть все]
Всем доброго времени суток.
Помогите разобраться с проблемой. Я не очень силен в вопросах FC HBA.
Есть дисковый массив EonStor A16F-G2422 и сервак HP 380e в который воткнута QLogic Fiber adapter QLE2464, в качестве оси выступает Windows Server 2008 R2, задача проста, как мне презентовать на сервак лун из массива?
Прошу отнестись со снизхождением к моим слабым знаниям в этой области, рыскания по гуглам нормального ответа не дали. Желательно описание как вы бы решили эту нетривиальную задачу, или отсылка на вменяемый мануал.
Заранее спасибо!
  • Куришь ман от EonStor A16F-G2422 до просветления Через RAIDWatch cоздаёшь в нём, !*! ACCA (ok), 19:36 , 22-Янв-14 (1)
    > Есть дисковый массив EonStor A16F-G2422 и сервак HP 380e в который воткнута
    > QLogic Fiber adapter QLE2464, в качестве оси выступает Windows Server 2008
    > R2, задача проста, как мне презентовать на сервак лун из массива?

    Куришь ман от EonStor A16F-G2422 до просветления. Через RAIDWatch cоздаёшь в нём LUN, разрешаешь к нему доступ для WWN своего QLE2464 (или не запрещаешь никому, если один массив - один сервер).

    Ставишь драйвера QLE2464. После этого видишь LUN, как SCSI диск.


    Как с него загрузить мастдай - вопрос совершенно иной.

    В комплекте с HP есть DVD с Linux. Грузишься с него, он попросит мастдайный дистрибутив, драйвера от QLE2464 и попробует собрать 2008 R2, которая умеет грузиться через FC. Прожигаешь его на болванку, грузишься. Если заглючило - звонишь в техподдержку HP. В этом процессе куча конфигов без мануалов вообще.

    сообщить модератору +/ответить
  • Ставишь на винду драйвер для твоей HBA-карточки, соединяешь систему хранения дан, !*! Аноним (-), 10:50 , 23-Янв-14 (2)
    > Всем доброго времени суток.
    > Помогите разобраться с проблемой. Я не очень силен в вопросах FC HBA.
    > Есть дисковый массив EonStor A16F-G2422 и сервак HP 380e в который воткнута
    > QLogic Fiber adapter QLE2464, в качестве оси выступает Windows Server 2008
    > R2, задача проста, как мне презентовать на сервак лун из массива?
    > Прошу отнестись со снизхождением к моим слабым знаниям в этой области, рыскания
    > по гуглам нормального ответа не дали. Желательно описание как вы бы
    > решили эту нетривиальную задачу, или отсылка на вменяемый мануал.
    > Заранее спасибо!

    Ставишь на винду драйвер для твоей HBA-карточки, соединяешь систему хранения данных и сервак оптическим патч-кордом. Всё, массив появится в "мой компьютер->управление дисками". Размечаешь, форматируешь.

    сообщить модератору +/ответить
  • Все стало понятно, очень странное хранилище, оказалось что его надо резетить пос, !*! prazdnick (??), 10:36 , 28-Янв-14 (6)
    > Всем доброго времени суток.
    > Помогите разобраться с проблемой. Я не очень силен в вопросах FC HBA.
    > Есть дисковый массив EonStor A16F-G2422 и сервак HP 380e в который воткнута
    > QLogic Fiber adapter QLE2464, в качестве оси выступает Windows Server 2008
    > R2, задача проста, как мне презентовать на сервак лун из массива?
    > Прошу отнестись со снизхождением к моим слабым знаниям в этой области, рыскания
    > по гуглам нормального ответа не дали. Желательно описание как вы бы
    > решили эту нетривиальную задачу, или отсылка на вменяемый мануал.
    > Заранее спасибо!

    Все стало понятно, очень странное хранилище, оказалось что его надо резетить после каких либо ощутимых изменений, причем само оно про это не скажет, однако мануал прозрачно намекает про это парой блок-схем алгоритма настройки, после резета линк пошел и диск на сервере появился без проблем.

    сообщить модератору +/ответить
вопрос по железкам (HDD), !*! 2ihi, (Хранилища данных) 26-Ноя-13, 09:48  [ | | | ] [линейный вид] [смотреть все]
Читая ПДФ по новым продуктам сегейта наткнулся на:

Standard OEM models are formatted to 512 bytes per block. The block size is selectable at format time. Supported block
sizes are 512, 520, 524, and 528. Users having the necessary
equipment may modify the data block size before issuing a
format command and obtain different formatted capacities than those listed.


Возник крайне корыстный вопрос, чем форматнуть SASный диск в 520 быйтный сектор?

Mysql 100% Disk io, !*! Аноним, (Разное) 30-Дек-13, 10:08  [ | | | ] [линейный вид] [смотреть все]
Друзья, я редко обращаюсь за помощью, сам привык все находить и делать, но тут что -то совсем худо, есть mysql сервер обслуживающий сайт с большим количеством запросов, ну все бы ничего, да только он есть 100% disk IO, a  SHOW PROCESSLIST ничего информативного не показывает, девелопер у нас дурак, может кто подсказать трюки по этому поводу, буду крайне благодарен.
GlusterFS split-brain possible как избежать и как бороться, !*! obl, (Увеличение наджности) 30-Ноя-13, 12:05  [ | | | ] [линейный вид] [смотреть все]
Добрый день!
тестирую два сервера в отказоустойчивом кластере на glusterfs, отправляю в перезагрузку один, создаю файл на втором.
После входа в строй обнаруживаю split-brain. новая синхронизация длится 2 часа - почти терабайт данных.
Подскажите что делать с этой бедой,

==> /var/log/glusterfs/storage-glusterfs-.log <==
[2013-11-30 11:51:07.57416] I [afr-self-heal-common.c:705:afr_mark_sources] 0-replicate: split-brain possible, no source detected
[2013-11-30 11:51:07.57518] W [fuse-bridge.c:419:fuse_attr_cbk] 0-glusterfs-fuse: 10: LOOKUP() / => -1 (Input/output error)
[2013-11-30 11:51:07.62235] I [afr-self-heal-common.c:705:afr_mark_sources] 0-replicate: split-brain possible, no source detected
[2013-11-30 11:51:07.515278] I [afr-self-heal-common.c:705:afr_mark_sources] 0-replicate: split-brain possible, no source detected

Конфиг glusterfsd:

volume SRV01-GLASTER
    type protocol/client
    option transport-type tcp
    option remote-host 10.1.1.1
    option remote-subvolume brick
end-volume

volume SRV02-GLASTER
    type protocol/client
    option transport-type tcp
    option remote-host 10.1.1.2
    option remote-subvolume brick
end-volume

volume replicate
    type cluster/replicate
    subvolumes SRV01-GLASTER SRV02-GLASTER
end-volume

volume writebehind
    type performance/write-behind
    option cache-size 1MB
    subvolumes replicate
end-volume

volume cache
    type performance/io-cache
    option cache-size 512MB
    subvolumes writebehind
end-volume


Конфиг клиентов:
volume SRV01-GLASTER
    type protocol/client
    option transport-type tcp
    option remote-host 10.1.1.1
    option remote-subvolume brick
end-volume

volume SRV02-GLASTER
    type protocol/client
    option transport-type tcp
    option remote-host 10.1.1.2
    option remote-subvolume brick
end-volume

volume replicate
    type cluster/replicate
    subvolumes SRV01-GLASTER SRV02-GLASTER
end-volume

volume writebehind
    type performance/write-behind
    option cache-size 1MB
    subvolumes replicate
end-volume

volume cache
    type performance/io-cache
    option cache-size 512MB
    subvolumes writebehind
end-volume

HP P2000 G3 MSA Array Systems Настройка, !*! pk.user, (Хранилища данных) 10-Ноя-11, 12:18  [ | | | ] [линейный вид] [смотреть все]
Подскажите где прочитать начальную настройку подключение СХД HP P2000 G3 MSA Array Systems к серверам НР (Win2003-2008).
  • однозначно на хулите http www hp com , !*! daun (??), 13:21 , 10-Ноя-11 (1)
    > Подскажите где прочитать начальную настройку подключение СХД HP P2000 G3 MSA Array
    > Systems к серверам НР (Win2003-2008).

    однозначно на хулите http://www.hp.com :)

    сообщить модератору +/ответить
  • на официальном сайте есть мануал 1110 ,также там есть неплохаю утилита с гафиче, !*! chunk41 (ok), 12:16 , 15-Авг-12 (2)
    > Подскажите где прочитать начальную настройку подключение СХД HP P2000 G3 MSA Array
    > Systems к серверам НР (Win2003-2008).

    на официальном сайте есть мануалі,также там есть неплохаю утилита с гафическим интефейсом настройки...если не оибаюсь она називается hpacucli    HP Array Configuration Utility

    сообщить модератору +/ответить
 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру