The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Присылайте удачные настройки в раздел примеров файлов конфигурации на WIKI.opennet.ru.
Форум Открытые системы на сервере
EXIM Пересылка одному из списка, !*! DeadMorose, (Почта / FreeBSD) 30-Июн-21, 15:45  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!

Появилась задача настроить Exim так, чтобы в одной группе письма распределялись получателям последовательно - первое письмо - первому в группе, второе - второму и т.д.
В БД создал таблицу - id(порядковый номер),address(e-mail),is_current(должен получить текущее письмо)

  • Попросите менеджера уточнить ТЗ и бюджет Разработка нового функционала почтовика, !*! universite (ok), 21:34 , 30-Июн-21 (1)
    Попросите менеджера уточнить ТЗ и бюджет.
    Разработка нового функционала почтовика может дорого обойтись.


    сообщить модератору +/ответить
  • Звучит как бред, поэтому может быть, объясните, чего именно желаете добиться так, !*! Аноним (2), 22:42 , 30-Июн-21 (2)
    > Появилась задача настроить Exim так, чтобы в одной группе письма распределялись получателям
    > последовательно - первое письмо - первому в группе, второе - второму
    > и т.д.

    Звучит как бред, поэтому может быть, объясните, чего именно желаете добиться таким странным способом?

    сообщить модератору +/ответить
  • DeadMorose не слушайте весь этот бред про доработку exim, или установку CRM Все, !*! Тот самый (?), 20:01 , 01-Июл-21 (9)
    DeadMorose не слушайте весь этот бред про доработку exim, или установку CRM. Все решается значительно проще - через конфиг exim (весь необходимый функционал уже есть)

    Детально прорабатывать команды я не буду (сами справитесь). Предлагаю общую идею.

    Таблица - id(порядковый номер),address(e-mail),is_current(должен получить текущее письмо) подойдет.

    сообщить модератору +/ответить
  • В Exim это делается элементарно в одностроковое выражение или в несколько строк , !*! xm (ok), 23:28 , 21-Авг-21 (17)
    > Появилась задача настроить Exim так, чтобы в одной группе письма распределялись получателям
    > последовательно - первое письмо - первому в группе, второе - второму
    > и т.д.
    > В БД создал таблицу - id(порядковый номер),address(e-mail),is_current(должен получить
    > текущее письмо)

    В Exim это делается элементарно в одностроковое выражение или в несколько строк роутером redirect.
    Всё таки Тьюринг-полный язык под капотом.

    сообщить модератору +/ответить


Не презапускается антиспам zimbra, !*! pehser, (Почта) 17-Авг-21, 09:34  [ | | | ] [линейный вид] [смотреть все]
перестала нормально презапускаться службы антивирус и антиспам в зибре

# su zimbra
$ zmamavisdctl restart

в ответ не хваткаправ

Starting amavisd...fetch_modules: error loading optional module Razor2/Client/Agent.pm:
  Can't locate Getopt/Long.pm:   lib/Getopt/Long.pm: Permission denied at /usr/share/perl5/Razor2/Client/Agent.pm line 15, <DATA> line 755.
  BEGIN failed--compilation aborted at /usr/share/perl5/Razor2/Client/Agent.pm line 15, <DATA> line 755.
  Compilation failed in require at /opt/zimbra/common/sbin/amavisd line 211, <DATA> line 755.
fetch_modules: error loading optional module Mail/DKIM.pm:
  Can't locate Mail/DKIM.pm:   lib/Mail/DKIM.pm: Permission denied at /opt/zimbra/common/sbin/amavisd line 211, <DATA> line 755.

....

Подскажите как права по фиксить?

keepalived (1.3.* vs 2.0.*), !*! igor, (Др. сетевые сервисы / Linux) 11-Авг-21, 17:35  [ | | | ] [линейный вид] [смотреть все]
В версии keepalived 1.3.2 сервер с ролью MASTER при старте сразу переходит в MASTER, указывая в логе
Entering MASTER state.

В версии keepalived 2.0.10 сервер с ролью MASTER при старте сначала переходит в BAXCKUP, а затем переходит в MASTER, указывая в логе
Entering BACKUP state (init).
Entering MASTER state.

Можно ли поведение версии 2.0 настроить как в версии 1.3 ?


  • https github com acassen keepalived issues 1100обновить до 2 0 11, !*! Ann None (?), 19:47 , 11-Авг-21 (1)
    > В версии keepalived 1.3.2 сервер с ролью MASTER при старте сразу переходит
    > в MASTER, указывая в логе
    > Entering MASTER state.
    > В версии keepalived 2.0.10 сервер с ролью MASTER при старте сначала переходит
    > в BAXCKUP, а затем переходит в MASTER, указывая в логе
    > Entering BACKUP state (init).
    > Entering MASTER state.
    > Можно ли поведение версии 2.0 настроить как в версии 1.3 ?

    https://github.com/acassen/keepalived/issues/1100
    обновить до 2.0.11

    сообщить модератору +/ответить
Не работает tcp в pptp-туннеле после nat, !*! kapunov81, (Маршрутизация, NAT / FreeBSD) 06-Июл-21, 14:06  [ | | | ] [линейный вид] [смотреть все]
Итак, на хосте есть две клетки, одна vpn (mpd5) с адресом 192.168.1.9, другая mail с адресом 192.168.1.4
К vpn-клетке через pptp подключается клиент, получающий адрес 192.168.0.130. Для того, чтобы он мог ходить по внутренним адресам 192.168.1.0/24, на хосте добавлено правило route add 192.168.0.0/24 192.168.1.9. На этом этапе все ок, win-клиент подключается по pptp к vpn-серверу, и имеет доступ к внутренней сети - нормально отрабатывают и udp (ping 192.168.1.4) и tcp (curl 192.168.1.4).
Поскольку идея состоит в том, чтобы пускать клиента напрямую в Инет (чертовы видеоконференции не работают нормально через прокси), то без nat не обойтись, и я моделирую ситуацию с nat-ом наружу - включаю ipfw kernel nat на vpn-сервере (eth1=192.168.1.9):

ipfw -q nat 1 config if eth1 reset
#NAT для входящих пакетов
ipfw -q add 00002 nat 1 ip4 from any to any in recv eth1
ipfw -q add 00010 check-state
ipfw add 00290 allow ip from any to any via lo0
#NAT для исходящих пакетов
ipfw -q add 00800 nat 1 ip4 from any to any out xmit eth1
#открываем все
ipfw add 00900 allow ip from any to any

Такая конфигурация nat точно рабочая, и на хосте подобный вариант пускает нужные клетки напрямую в Инет через белый ip. Теперь пакеты от клиента натятся внутренним адресом vpn-сервера и к 192.168.1.4 приходят будто-бы от 192.168.1.9. UDP-протокол работает без проблем, пинг отрабатывает, а вот tcp работать после nat не хочет. При этом пакеты ходят в обе стороны, но на клиенте команда curl 192.168.1.4 не выдает ответ, будто-бы сервер не отвечает, хотя tcpdump на крайнем к клиенту интерфейсе ng0 (создается при подключении) показывает что пакеты клиенту идут.
Подскажите, в чем заключается проблема? Я предполагаю, что pptp-туннель, после того как в его пакетах поковырялся nat, отказывается признавать приходящие пакеты своими, но что-то никак не найду схожий вариант с решением.

  • Хм Нихрена не понятно НАН на приватном интерфейсе Зачем в фаере чек стейт без , !*! Pahanivo пробегал (?), 23:14 , 06-Июл-21 (1)
    Хм. Нихрена не понятно.
    НАН на приватном интерфейсе?
    Зачем в фаере чек стейт без кипа?
    То про eth1, то про ng0.
    И шо за манера вместо текущих правил выкидывать командник их создания?

    сообщить модератору +/ответить
  • подключи модули ppptp_nat и другие, инет в руки, !*! BarS (??), 11:30 , 07-Июл-21 (3) –1
    подключи модули ppptp_nat и другие, инет в руки
    сообщить модератору –1 +/ответить
  • когда я последний раз подобное смотрел у меня tcp на связке jail ipfw nat не зар, !*! Ann None (?), 12:23 , 07-Июл-21 (4)
    когда я последний раз подобное смотрел у меня tcp на связке jail+ipfw nat не заработал. перенес nat в pf и забил.
    сообщить модератору +/ответить
  • Выглядит так, что вы забыли выключить TSO на eth1 , !*! butcher (ok), 15:29 , 11-Авг-21 (5)
    > клетки напрямую в Инет через белый ip. Теперь пакеты от клиента
    > натятся внутренним адресом vpn-сервера и к 192.168.1.4 приходят будто-бы от 192.168.1.9.
    > UDP-протокол работает без проблем, пинг отрабатывает, а вот tcp работать после
    > nat не хочет. При этом пакеты ходят в обе стороны, но
    > на клиенте команда curl 192.168.1.4 не выдает ответ, будто-бы сервер не
    > отвечает, хотя tcpdump на крайнем к клиенту интерфейсе ng0 (создается при
    > подключении) показывает что пакеты клиенту идут.

    Выглядит так, что вы забыли выключить TSO на eth1.

    сообщить модератору +/ответить
Помогите настроить ftp сервер, !*! RAIN, (FTP / Linux) 16-Июл-21, 09:35  [ | | | ] [линейный вид] [смотреть все]
Помогите с настройкой сервер .
Создал пользователя для ftp сервера , добавил в группу ftp .
Из локальной сети прекрасно заходит в указанный каталог .
Из внешней сети не подключается , посредник роутер MikroTik , нужный порт открыт , нестандартный .
Ошибка при входе :

failed to connect to /внешний ip (port 43994) from /10.157.181.181 (port 46000) after 15000ms: isConnected failed: ECONNREFUSED (Connection refused)

# vsftpd.conf
https://cloud.mail.ru/public/t2XE/eCbyKRHb7

Помогите правильно настроить .
Заранее благодарен .

Postfix медленно принимает письма, !*! vlad357500, (Почта / Другая система) 11-Июн-21, 15:57  [ | | | ] [линейный вид] [смотреть все]
Перешёл на Postfix + Kasрer 8.0 на Ubuntu 18.04
Отправка (MS Outlook 2016) письма с вложением 3 мегабайта занимает в среднем 30-40 секунд. (На sendmail - 2-3 секунды)
Включил дебаг, думал какие-то паузы в ожидании ответов по DNS и т.п. - нет.
Всё это время равномерно передаётся тело письма, без пауз. Фрагмент лога прилагается.
Есть идеи, что не так?


Jun 11 15:48:53 se postfix/smtpd[13824]: rec_put: type N len 76 data WEjwa1Y5hG
Jun 11 15:48:53 se postfix/smtpd[13824]: rec_put: type N len 76 data bmRvYmoNNT
Jun 11 15:48:53 se postfix/smtpd[13824]: rec_put: type N len 76 data MS9UeXBlL0
...
Jun 11 15:48:54 se postfix/smtpd[13824]: rec_put: type N len 76 data wzXqVlf0Vj
Jun 11 15:48:54 se postfix/smtpd[13824]: vstream_fflush_some: fd 29 flush 4096
Jun 11 15:48:54 se postfix/smtpd[13824]: rec_put: type N len 76 data Dzs+Yz/nKZ
...
Jun 11 15:48:57 se postfix/smtpd[13824]: rec_put: type N len 76 data Wke5iTPh3E
Jun 11 15:48:57 se postfix/smtpd[13824]: rec_put: type N len 76 data 8hZkVQvSU5
Jun 11 15:48:57 se postfix/smtpd[13824]: rec_put: type N len 76 data qVX32w1Pvf
Jun 11 15:48:57 se postfix/smtpd[13824]: vstream_buf_get_ready: fd 25 got 4096
...
Jun 11 15:49:19 se postfix/smtpd[13824]: rec_put: type N len 76 data cGXUqOHKqO
Jun 11 15:49:19 se postfix/smtpd[13824]: rec_put: type N len 40 data ZG9iag1zdG
Jun 11 15:49:19 se postfix/smtpd[13824]: rec_put: type N len 0 data
Jun 11 15:49:19 se postfix/smtpd[13824]: rec_put: type N len 45 data ------=_Ne
Jun 11 15:49:19 se postfix/smtpd[13824]: rec_put: type N len 0 data
Jun 11 15:49:19 se postfix/smtpd[13824]: rec_put: type X len 0 data
Jun 11 15:49:19 se postfix/smtpd[13824]: rec_put: type E len 0 data
Jun 11 15:49:19 se postfix/smtpd[13824]: vstream_fflush_some: fd 29 flush 3505
...
Jun 11 15:49:28 se postfix/smtpd[13824]: abort all milters
Jun 11 15:49:28 se postfix/smtpd[13824]: milter8_abort: abort milter unix:/klms/klms_milter_sock
Jun 11 15:49:28 se postfix/smtpd[13824]: disconnect event to all milters
Jun 11 15:49:28 se postfix/smtpd[13824]: milter8_disc_event: quit milter unix:/klms/klms_milter_sock
Jun 11 15:49:28 se postfix/smtpd[13824]: vstream_fflush_some: fd 26 flush 15
Jun 11 15:49:28 se postfix/smtpd[13824]: disconnect from vlad.ss.local[10.2.8.1] ehlo=1 mail=1 rcpt=1 data=1 quit=1 commands=5
Jun 11 15:49:28 se postfix/smtpd[13824]: free all milters
Jun 11 15:49:28 se postfix/smtpd[13824]: free milter unix:/klms/klms_milter_sock

(всего в логе более 50 000 строк на это сообщение с вложением 3М)

  • Стандартно - проверяй пути, права , !*! Аноним (1), 17:43 , 11-Июн-21 (1)
    > Есть идеи, что не так?

    Стандартно - проверяй пути, права...

    сообщить модератору +/ответить
  • Убери кашпировского из цепочки и сравни время Тогда будет более понятно кто вино, !*! муу (?), 19:02 , 11-Июн-21 (2) +1
    Убери кашпировского из цепочки и сравни время.
    Тогда будет более понятно кто виноват.
    сообщить модератору +1 +/ответить
  • gt оверквотинг удален Ну если гадать только по логам и описанию проблемы, то м, !*! Andrey (??), 22:27 , 14-Июн-21 (5)
    >[оверквотинг удален]
    > Jun 11 15:49:28 se postfix/smtpd[13824]: milter8_abort: abort milter unix:/klms/klms_milter_sock
    > Jun 11 15:49:28 se postfix/smtpd[13824]: disconnect event to all milters
    > Jun 11 15:49:28 se postfix/smtpd[13824]: milter8_disc_event: quit milter unix:/klms/klms_milter_sock
    > Jun 11 15:49:28 se postfix/smtpd[13824]: vstream_fflush_some: fd 26 flush 15
    > Jun 11 15:49:28 se postfix/smtpd[13824]: disconnect from vlad.ss.local[10.2.8.1] ehlo=1
    > mail=1 rcpt=1 data=1 quit=1 commands=5
    > Jun 11 15:49:28 se postfix/smtpd[13824]: free all milters
    > Jun 11 15:49:28 se postfix/smtpd[13824]: free milter unix:/klms/klms_milter_sock
    > (всего в логе более 50 000 строк на это сообщение с вложением
    > 3М)

    Ну если гадать только по логам и описанию проблемы, то можно посоветовать только http://www.postfix.org/TUNING_README.html
    Конфигурацию могли-бы показать. top можно посмотреть, количество сетевых подключений.

    DNS вносит проблемы только на этапе установления соединения. Дальше tcp держится только на IP.

    сообщить модератору +/ответить
  • это куски логов выдернутые из контекста подозрение может быть на milter, amavis, !*! eRIC (ok), 14:17 , 15-Июн-21 (13)
    это куски логов выдернутые из контекста. подозрение может быть на milter, amavis если используется, DNS запросы, LDAP запросы.

    в master.cf что творится?

    есть логи где есть пару событий где идет начало приема почты и отправки чтобы судить правильнее.

    >(всего в логе более 50 000 строк на это сообщение с вложением 3М)

    сохраните на pastebin и ссюда ссылку.
    а без вложения как ведется себя?

    сообщить модератору +/ответить


dovecot auth: fatal master service child 992 killed, !*! qecer321, (Почта / FreeBSD) 05-Июл-21, 12:13  [ | | | ] [линейный вид] [смотреть все]
Всем добрый день.
Была поставлена задача, увеличить место на почтовом сервере, а именно на диске, на котором находятся почтовые ящики. Почтовый сервер представляет собой виртуальную машину hyper-v.
После увеличения места на диске и растягивания фс, вылетела ошибка "dovecot auth: fatal master service child 992 killed". При этом dovecot работал. И после перезагрузки, сервер работает вроде нормально, служба dovecot запущена.
Может кто-нибудь подсказать, что это была за ошибка и является ли она критичной.

Работающая система Freebsd 11.0-RELEASE-p1

Sendmail ограничения для списков рассылки, !*! DustpaN, (Почта / Linux) 23-Окт-20, 14:00  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте уважаемый All!

Есть почтовый сервер Sendmail

Нужно сделать чтобы на определенные списки рассылки (mailing list), можно было отправлять почту только с локального домена.
Типа на all@domain.com можно отправлять только с *@domain.com

Подскажите куда копать, гугление ни к чему не привело или я как-то не так ищу.

Заранее спасибо!

FreeBSD как объединить несколько томов в один логический том., !*! sergetv, (Файловые системы, диски / FreeBSD) 22-Июн-21, 15:44  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте.
Есть 4 диска по 2Тb. Нужно их объединить в один логический диск 8Tb, но так, чтобы при выходе из строя любого из дисков файлы с остальных можно было без особых усилий восстановить (в идеале вообще сохранить целостность объединенного логического), а вышедший из строя диск заменить. Потерей файлов с вышедшего из строя можно пренебречь (предполагается резервная копия)
Что-то типа gconcat, но с желательным сохранением файловых систем исходных дисков.
Спасибо
  • Это из области фантастики , !*! Аноним (1), 17:19 , 22-Июн-21 (1) +1
    > Есть 4 диска по 2Тb. Нужно их объединить в один логический диск
    > 8Tb, но так, чтобы при выходе из строя любого из дисков
    > файлы с остальных можно было без особых усилий восстановить

    Это из области фантастики.

    сообщить модератору +1 +/ответить
  • mhddfs, unionfs, , !*! gfh (??), 08:24 , 23-Июн-21 (14)
    > Здравствуйте.
    > Есть 4 диска по 2Тb. Нужно их объединить в один логический диск
    > 8Tb, но так, чтобы при выходе из строя любого из дисков
    > файлы с остальных можно было без особых усилий восстановить (в идеале
    > вообще сохранить целостность объединенного логического), а вышедший из строя диск заменить.
    > Потерей файлов с вышедшего из строя можно пренебречь (предполагается резервная копия)
    > Что-то типа gconcat, но с желательным сохранением файловых систем исходных дисков.
    > Спасибо

    mhddfs, unionfs, ...

    сообщить модератору +/ответить
  • Столько ответов по файловой системе и ещё никто не предложил zfs, btrfs , !*! DeerFriend (?), 17:58 , 23-Июн-21 (19)
    Столько ответов по файловой системе и ещё никто не предложил zfs, btrfs?
    сообщить модератору +/ответить
  • Кто что добавит ещё про кластеризацию Выше прозвучали названия файловых систем , !*! Аноним (21), 08:59 , 29-Июн-21 (21)
    Кто что добавит ещё про кластеризацию? Выше прозвучали названия файловых систем.

    Каким решением лучше объединить в сетевую файловую систему, так, как будто каждый диск принадлежит независимому компу в сети. Тупо типа запустить серверов по числу дисков.

    Тогда по идее глюк одного процесса сервера, сбой одного диска независимы от остальных. Типа что-то получается похожее на ответ на вопрос - каждый диск независим, консистентность в рамках каждого диска - отслеживается независимым, несвязанным с др. процессом.

    На процессор сильна нагрузка?

    сообщить модератору +/ответить


openvpn не подключается на win10. на линукс все ок., !*! lotric, (VPN) 29-Мрт-21, 11:25  [ | | | ] [линейный вид] [смотреть все]
⏎06.02.2021, 7:58:56 Transport Error: socket_protect error (UDP)
⏎06.02.2021, 7:58:56 Client terminated, restarting in 2000 ms...
⏎06.02.2021, 7:58:58 EVENT: RECONNECTING ⏎06.02.2021, 7:58:58 EVENT: RESOLVE ⏎06.02.2021, 7:58:58 Contacting [2607:5300:61:111:7a::111]:52614 via UDP
⏎06.02.2021, 7:58:58 WinCommandAgent: transmitting bypass route to 2607:5300:61:111:7a::111
{
    "host" : "2607:5300:61:111:7a::111",
    "ipv6" : true
}
  • telnet по udp на этот порт коннектится , !*! qwertykma (ok), 12:10 , 29-Мрт-21 (1)
    telnet по udp на этот порт коннектится?

    сообщить модератору +/ответить
  • 1 ip6 работает, я могу через putty подключится к этому серверу2 логов сервера , !*! lotric (ok), 12:40 , 30-Мрт-21 (8)
    1. ip6 работает, я могу через putty подключится к этому серверу
    2. логов сервера нет от винды, от линукс есть
    3. установил на виртуалку винду без всего чистую посталив впн, там таже самая ошибка
    на реальном компе с виндой всю защиту отключал, добавлены все исключение по портам и ип
    4. на сервере только ip6 доступен

    5. лог полный клиента, не обрезанный с бесполезной инфой:
    30.03.2021, 12:50:36 OpenVPN core 3.git::662eae9a win x86_64 64-bit built on Oct 27 2020 12:49:07
    ⏎30.03.2021, 12:50:36 Frame=512/2048/512 mssfix-ctrl=1250
    ⏎30.03.2021, 12:50:36 UNUSED OPTIONS
    4 [resolv-retry] [infinite]
    5 [nobind]
    6 [persist-key]
    7 [persist-tun]
    9 [verify-x509-name] [server_Z6EBkGPcm1Do5rW7] [name]
    11 [auth-nocache]
    13 [tls-client]
    15 [tls-cipher] [TLS-ECDHE-ECDSA-WITH-AES-128-GCM-SHA256]
    16 [block-outside-dns]
    17 [verb] [3]
    ⏎30.03.2021, 12:50:36 EVENT: RESOLVE ⏎30.03.2021, 12:50:36 EVENT: WAIT ⏎30.03.2021, 12:50:36 Contacting [2607:5320:61:167:7a::c111]:53614 via UDP
    ⏎30.03.2021, 12:50:36 WinCommandAgent: transmitting bypass route to 2607:5320:61:167:7a::c111
    {
        "host" : "2607:5320:61:167:7a::c111",
        "ipv6" : true
    }

    ⏎30.03.2021, 12:50:36 Transport Error: socket_protect error (UDP)
    ⏎30.03.2021, 12:50:36 Client terminated, restarting in 2000 ms...
    ⏎30.03.2021, 12:50:38 EVENT: RECONNECTING ⏎30.03.2021, 12:50:38 EVENT: RESOLVE ⏎30.03.2021, 12:50:38 EVENT: WAIT ⏎30.03.2021, 12:50:38 Contacting [2607:5320:61:167:7a::c111]:53614 via UDP
    ⏎30.03.2021, 12:50:38 WinCommandAgent: transmitting bypass route to 2607:5320:61:167:7a::c111
    {
        "host" : "2607:5320:61:167:7a::c111",
        "ipv6" : true
    }

    сообщить модератору +/ответить
  • Удалить win10 и проблема решена , !*! Аноним (9), 02:24 , 31-Мрт-21 (9) +1
    > не подключается на win10. на линукс все ок.

    Удалить win10 и проблема решена.

    сообщить модератору +1 +/ответить
  • Строка proto в конфиге сервера и конфиге клиента точно совпадает А если заменит, !*! Аноним (13), 22:11 , 15-Май-21 (13)
    > ⏎06.02.2021, 7:58:56 Transport Error: socket_protect error (UDP)
    > ⏎06.02.2021, 7:58:56 Client terminated, restarting in 2000 ms...
    > ⏎06.02.2021, 7:58:58 EVENT: RECONNECTING ⏎06.02.2021, 7:58:58 EVENT: RESOLVE
    > ⏎06.02.2021, 7:58:58 Contacting [2607:5300:61:111:7a::111]:52614 via UDP
    > ⏎06.02.2021, 7:58:58 WinCommandAgent: transmitting bypass route to 2607:5300:61:111:7a::111
    > {
    >  "host" : "2607:5300:61:111:7a::111",
    >  "ipv6" : true
    > }

    Строка proto в конфиге сервера и конфиге клиента точно совпадает? А если заменить её в обоих конфигах на proto udp4? А на proto udp6? А порт на сервере точно открыт для UDP, не TCP?

    сообщить модератору +/ответить
  • Всё точно также Решили как-то , !*! дэнчик (?), 14:17 , 30-Июн-21 (14)
    > ⏎06.02.2021, 7:58:56 Transport Error: socket_protect error (UDP)
    > ⏎06.02.2021, 7:58:56 Client terminated, restarting in 2000 ms...
    > ⏎06.02.2021, 7:58:58 EVENT: RECONNECTING ⏎06.02.2021, 7:58:58 EVENT: RESOLVE
    > ⏎06.02.2021, 7:58:58 Contacting [2607:5300:61:111:7a::111]:52614 via UDP
    > ⏎06.02.2021, 7:58:58 WinCommandAgent: transmitting bypass route to 2607:5300:61:111:7a::111
    > {
    >  "host" : "2607:5300:61:111:7a::111",
    >  "ipv6" : true
    > }

    Всё точно также. Решили как-то?

    сообщить модератору +/ответить


Postfix header_checks правила для входящего письма, !*! хонгильдон, (Почта / Linux) 15-Июн-21, 09:51  [ | | | ] [линейный вид] [смотреть все]
Приветствуй, подскажите как в постфиксе сделать правило для входящих писем с определенного домен. Нужно входящие письмо сначала перенаправить на определенный адрес, а потом его же реджектнуть с ответом о том что письмо не может быть доставлено.
  • В постфикс - никак, только через какой-нибудь самопальный обработчик pre-queueНу, !*! Аноним (1), 12:21 , 15-Июн-21 (1)
    > Приветствуй, подскажите как в постфиксе сделать правило для входящих писем с определенного
    > домен. Нужно входящие письмо сначала перенаправить на определенный адрес, а потом
    > его же реджектнуть с ответом о том что письмо не может
    > быть доставлено.

    В постфикс - никак, только через какой-нибудь самопальный обработчик pre-queue

    Ну или хитровы...мученная конструкция из двух постфиксов, фронт делает bcc и релеит почту на бэк-энд, бэк-энд делает reject... но это чистая теория, что на практике из этого выйдет - без понятия и даже пробовать не хочу.

    Если это такая страховка от потери важной корреспонденции - значит, надо менять стратегию работы с почтой. Либо вы следуете путем минимизации спама, либо путем минимизации потерь легитимной почты, но в последнем случае режект вам не друг, только баллы/весовые коэффициенты и т.п...

    Кстати, какоq-нибудь amavis или spamassasin возможно справится с вашей задачей в том виде, в каком она поставлена.

    сообщить модератору +/ответить
  • fhgfu, !*! amantha (ok), 06:33 , 29-Июн-21 (3)
Проблема с разделом LVM и суперблоками, !*! Murano, (Файловые системы, диски / Linux) 17-Июл-20, 11:53  [ | | | ] [линейный вид] [смотреть все]
Коллеги, приветствую!

Срочно нужна помощь (не бесплатно для того, кто поможет решить!). Суть проблемы:

есть одна группа томов LVM. На ней своп, корень и var. Недавно закончилось место на var. Обычная проблема, которая решается расширением диска.

На одной из машин произошло что-то непонятное. При создании раздела через fdisk (который должен был стать sda4) похерился sda3, который как раз физический том для vg1-varfs (/var). В итоге последний после ребута просто вывалился и не отображался в /dev/mapper/. Эту проблему я решил. Тут просто сбился по непонятным причинам uuid диска.

В в /dev/mapper/ появился varfs. Но он не хочет монтироваться, выдавая это: "wrong fs type, bad option, bad superblock on /dev/mapper/vg1-varfs".

fsck оказался бесполезен. Через DD сняли образ с проблемного раздела. Если кто может помочь достать оттуда данные, готов предоставить доступ к нему.

  • Есть мнение, что похерилась-таки partition table Теперь dev sda3 показывает в , !*! ACCA (ok), 15:55 , 17-Июл-20 (1)
    > и не отображался в /dev/mapper/. Эту проблему я решил. Тут просто
    > сбился по непонятным причинам uuid диска.

    Есть мнение, что похерилась-таки partition table. Теперь /dev/sda3 показывает в какое-то другое место.
    Потом ты обманул devmapper, но не mount.

    > fsck оказался бесполезен. Через DD сняли образ с проблемного раздела. Если кто
    > может помочь достать оттуда данные, готов предоставить доступ к нему.

    Данных там нет, они где-то в другом месте. Нужен dd всего физического диска. Если они ещё где-то остались.

    сообщить модератору +/ответить
  • gt оверквотинг удален Хотя бы листинг старой разметки есть Если пересоздать р, !*! Павел Отредиез (?), 11:14 , 18-Июл-20 (2)
    >[оверквотинг удален]
    > закончилось место на var. Обычная проблема, которая решается расширением диска.
    > На одной из машин произошло что-то непонятное. При создании раздела через fdisk
    > (который должен был стать sda4) похерился sda3, который как раз физический
    > том для vg1-varfs (/var). В итоге последний после ребута просто вывалился
    > и не отображался в /dev/mapper/. Эту проблему я решил. Тут просто
    > сбился по непонятным причинам uuid диска.
    > В в /dev/mapper/ появился varfs. Но он не хочет монтироваться, выдавая это:
    > "wrong fs type, bad option, bad superblock on /dev/mapper/vg1-varfs".
    > fsck оказался бесполезен. Через DD сняли образ с проблемного раздела. Если кто
    > может помочь достать оттуда данные, готов предоставить доступ к нему.

    Хотя бы листинг старой разметки есть? Если пересоздать разделы как было, есть шанс. Uuid раздела изменился потому что он изменился.

    сообщить модератору +/ответить
  • Обычная проблема закончилось место решается расширением конкретного раздела, l, !*! Licha Morada (ok), 07:07 , 20-Июл-20 (3)
    > есть одна группа томов LVM. На ней своп, корень и var. Недавно
    > закончилось место на var. Обычная проблема, которая решается расширением диска.

    Обычная проблема "закончилось место" решается расширением конкретного раздела, lvresize.
    Не наезд, просто чтобы понять что там было. У вас закончилось место на Volume Group, но было неразмеченное место на sda, и вы решили его заюзать в качестве дополнительного Phisical Volume?

    > На одной из машин произошло что-то непонятное.

    А машин что, несколько? Одинаковых? Если так, то посмотрите на соседней, где на самом деле начинаются и заканчиваются разделы.

    > При создании раздела через fdisk
    > (который должен был стать sda4) похерился sda3, который как раз физический
    > том для vg1-varfs (/var).

    Или ищите начало и конец своего sda3 с помощью tesdisk-а.
    https://www.cgsecurity.org/wiki/TestDisk

    > В итоге последний после ребута просто вывалился
    > и не отображался в /dev/mapper/. Эту проблему я решил. Тут просто
    > сбился по непонятным причинам uuid диска.

    Уже выше написали. Имеет смысл предположить, что не "просто сбился" и не решил, а теперь там не блочное устройство со слегка побитой файловой системой, а полное недоразумение. И откатиться обратно, до состояния "похерился sda3", чтобы диагностировать и испарвлять правильно.

    сообщить модератору +/ответить
  • gt оверквотинг удален Коллеги, спасибо большое всем, кто присоединился к теме , !*! Murano (ok), 07:15 , 20-Июл-20 (4)
    >[оверквотинг удален]
    > закончилось место на var. Обычная проблема, которая решается расширением диска.
    > На одной из машин произошло что-то непонятное. При создании раздела через fdisk
    > (который должен был стать sda4) похерился sda3, который как раз физический
    > том для vg1-varfs (/var). В итоге последний после ребута просто вывалился
    > и не отображался в /dev/mapper/. Эту проблему я решил. Тут просто
    > сбился по непонятным причинам uuid диска.
    > В в /dev/mapper/ появился varfs. Но он не хочет монтироваться, выдавая это:
    > "wrong fs type, bad option, bad superblock on /dev/mapper/vg1-varfs".
    > fsck оказался бесполезен. Через DD сняли образ с проблемного раздела. Если кто
    > может помочь достать оттуда данные, готов предоставить доступ к нему.

    Коллеги, спасибо большое всем, кто присоединился к теме и ответил. Проблему я решил. Если кому интересно как, то отвечаю:

    Через DD сделал дамп всего раздела, который не монтировался. После этого установил testdisk, через него подключился к образу и увидел все файлы, которые нас интересовали. Затем уже просто их скопировал на нормальный диск средствами testdisk.

    Все данные в полном порядке. Кроме того, tesdisk еще и кучу удаленных файлов помог увидеть. Вообще, в этом не было необходимости, просто оказалось приятным бонусом:)

    сообщить модератору +/ответить
  • R-Studio и - сам , !*! Анто Нимно (?), 20:04 , 14-Июн-21 (6)


Где взять asterisk-gui FreeBSD 11, !*! cray, (VoIP / FreeBSD) 20-Июн-21, 12:25  [ | | | ] [линейный вид] [смотреть все]
Добрый всем день!

Собственно сабж, кинулся поставить вэб интерфейс, и не нашёл его на стандартном месте, вообще ни где нет. Обновление портов делал.
Может кто подскажет где его взять?

  • ХЗ Из портов выпилили, svn asterisk org svn asterisk-gui branches 2 0 лично у , !*! Аноним (1), 15:10 , 20-Июн-21 (1)

    > Собственно сабж, кинулся поставить вэб интерфейс, и не нашёл его на стандартном
    > месте, вообще ни где нет. Обновление портов делал.
    > Может кто подскажет где его взять?

    ХЗ. Из портов выпилили, svn.asterisk.org/svn/asterisk-gui/branches/2.0/ лично у меня недоступен.
    Может, где какое зеркало и завалялось, да нафиг такое щастье. А чо, без гуя никак?


    сообщить модератору +/ответить
  • Для ленивых есть FreePBX Для менее ленивых можно использовать самописные скрипты, !*! Andrey (??), 11:35 , 21-Июн-21 (8)
    > Добрый всем день!
    > Собственно сабж, кинулся поставить вэб интерфейс, и не нашёл его на стандартном
    > месте, вообще ни где нет. Обновление портов делал.
    > Может кто подскажет где его взять?

    Для ленивых есть FreePBX.
    Для менее ленивых можно использовать самописные скрипты. Но все не заскриптуешь.

    В любом случае проверки, дебаги SIP, просмотр логов и т.д. будете делать из SSH консоли.

    сообщить модератору +/ответить


Postfix от некоторых доменов долго приходит почта, !*! bear_cho, (Почта / Linux) 18-Июн-21, 09:18  [ | | | ] [линейный вид] [смотреть все]
Добрый день! Прошу помочь разобраться

От нескольких доменов долго приходит почта содержащая вложения(предположительно), в логах :

Jun 18 09:09:05 PostMan postfix/postscreen[7397]: PASS OLD [54.240.3.19]:48855
Jun 18 09:09:05 PostMan postfix/smtpd[7452]: connect from a3-19.smtp-out.eu-west-1.amazonses.com[54.240.3.19]
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "request=smtpd_access_policy"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "protocol_state=RCPT"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "protocol_name=ESMTP"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "client_address=54.240.3.19"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "client_name=a3-19.smtp-out.eu-west-1.amazonses.com"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "reverse_client_name=a3-19.smtp-out.eu-west-1.amazonses.com"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "helo_name=a3-19.smtp-out.eu-west-1.amazonses.com"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "sender=0102017a1d8ada0c-bdd8e45b-08b2-4319-b04e-8b317f419c40-000000@mail.3dexperience.3ds.com"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "recipient=lda@gcvep.ru"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "recipient_count=0"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "queue_id="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "instance=1d1c.60cc2a72.6129.0"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "size=0"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "etrn_domain="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "stress="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "sasl_method="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "sasl_username="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "sasl_sender="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "ccert_subject="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "ccert_issuer="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "ccert_fingerprint="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "ccert_pubkey_fingerprint="
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "encryption_protocol=TLSv1.2"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "encryption_cipher=ECDHE-RSA-AES128-SHA256"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: "encryption_keysize=128"
Jun 18 09:09:06 PostMan policyd-spf[7461]: Read line: ""
Jun 18 09:09:06 PostMan policyd-spf[7461]: Found the end of entry
Jun 18 09:09:06 PostMan policyd-spf[7461]: Config: {'SPF_Enhanced_Status_Codes': 'Yes', 'Domain_Whitelist': '', 'TempError_Defer': 'False', 'Void_Limit': 2, 'Mail_From_reject': 'No_Check', 'Whitelist_Lookup_Time': 10, 'Mock': False, 'de$
Jun 18 09:09:06 PostMan policyd-spf[7461]: Cached data for this instance: []
Jun 18 09:09:06 PostMan policyd-spf[7461]: skip_addresses enabled.
Jun 18 09:09:06 PostMan policyd-spf[7461]: Action: None: Text: None Reject action: 550 5.7.23
Jun 18 09:09:06 PostMan postfix/smtpd[7452]: 4DBAA1A1DD5: client=a3-19.smtp-out.eu-west-1.amazonses.com[54.240.3.19]

И такой лог проходит несколько раз и примерно через 40мин приходит почта. Что интересно, иногда почта приходит достаточно быстро от тех же доменов. Прошу помочь

  • Попробуйте временно отключить проверку SPF, кажется она у вас как-то криво работ, !*! Аноним (1), 11:14 , 18-Июн-21 (1)
    > Jun 18 09:09:06 PostMan policyd-spf[7461]: Action: None: Text: None Reject action: 550
    > 5.7.23

    Попробуйте временно отключить проверку SPF, кажется она у вас как-то криво работает.

    сообщить модератору +/ответить
  • Найми нормального админа Не благодари Подсказка с таким куском лога без контекс, !*! муу (?), 19:44 , 18-Июн-21 (2)
    > Прошу помочь

    Найми нормального админа.
    Не благодари.

    Подсказка: с таким куском лога без контекста и конфигов всего что ты или кто-то-там по бложикам понастраивал - тебя могут только послать, в лучшем случае в гугл.

    сообщить модератору +/ответить
  • nslookup -q TXT amazonses com 8 8 8 8 amazonses com text v spf1 ip4 , !*! ipmanyak (ok), 14:25 , 21-Июн-21 (4)
    > Jun 18 09:09:05 PostMan postfix/smtpd[7452]: connect from a3-19.smtp-out.eu-west-1.amazonses.com[54.240.3.19]

    nslookup -q=TXT amazonses.com 8.8.8.8

    amazonses.com   text =

            "v=spf1 ip4:199.255.192.0/22 ip4:199.127.232.0/22 ip4:54.240.0.0/18 ip4:69.169.224.0/20 ip4:23.249.208.0/20 ip4:23.251.224.0/19 ip4:76.223.176.0/20 ip4:54.240.64.0/19 ip4:54.240.96.0/19 -all"

    54.240.3.19  входит в пул, указанный в spf - в 54.240.0.0/18  
    но ты выдаешь код Action: None: Text: None Reject action: 550 5.7.23 , за которым обычно еще идет текст , подобный этому:
    550 5.7.23 Message rejected due to: SPF fail - not authorized.

    То есть ты отшиваешь хост 54.240.3.19  по SPF, хотя  требования удовлетворены.
    Какой нэймсервер используешь для postfix?  Если это сервер прова, то они часто глючат. Попробуй сменить на серверы гугля 8.8.8.8  8.8.4.4  или яндекса  77.88.8.8, 77.88.8.1  

    сообщить модератору +/ответить
Очистка места на диске после удаления писем из почтового ящика, !*! Jonny_10101, (Файловые системы, диски / FreeBSD) 24-Май-21, 10:22  [ | | | ] [линейный вид] [смотреть все]
Проблема - после удаления писем из почтового ящика на postfix не увеличивается место на диске.

Freebsd 12.0-RELEASE-p3

Удалил письма в почтовом ящике (настройкой mboxconfig user/log@XXXXX.ru expire 30), по lq user/log@XXXXX.ru уменьшился на 100 Гб, а свободное место на диске не увеличилось. Куда копать?

сборка rpm (nginx+modsecurity), !*! vanyadog, (Системное и пользовательское ПО / Linux) 14-Июн-21, 13:25  [ | | | ] [линейный вид] [смотреть все]
Добрый день.
Хочу собрать nginx с модулем modsecutity

Ставил руками - все ОК, но мне нужен именно пакет чтобы на других хостах не компилировать снова
https://habr.com/ru/post/437032/


Скачал с офф сайта исходники и файл спецификации, с гита клонировал исходники модуля

в файл спецификации добавил
опцию конфигурирования
--add-dynamic-module=/tmp/mods/ModSecurity-nginx

в секцию  %description

###ModSecurity-nginx
%package ModSecurity-nginx
Summary: nginx ModSecurity-nginx
%description ModSecurity-nginx
Dynamic ModSecurity-nginx
###ModSecurity-nginx

в секцию %install
###ModSecurity-nginx copy libs
%{__mkdir} -p $RPM_BUILD_ROOT/usr/lib64
cp -a /tmp/modsecurity/lib/libmodsecurity.so $RPM_BUILD_ROOT/usr/lib64/
###ModSecurity-nginx

и файлы
###ModSecurity-nginx files
%files ModSecurity-nginx
%{_libdir}/nginx/modules/ngx_http_modsecurity_module.so
%{_libdir}/libmodsecurity.so
###ModSecurity-nginx

положил все файлы в SOURCE
далее rpmbuild -bb ~/rpmbuild/SPECS/nginx.spec

пакеты собрались

[bac-dl@localhost /home/bac-dl]$ ll /home/bac-dl/rpmbuild/RPMS/x86_64/*
-rw-rw-r-- 1 bac-dl bac-dl   808544 Jun 14 12:23 /home/bac-dl/rpmbuild/RPMS/x86_64/nginx-1.20.1-1.el7.ngx.x86_64.rpm
-rw-rw-r-- 1 bac-dl bac-dl  1873004 Jun 14 12:23 /home/bac-dl/rpmbuild/RPMS/x86_64/nginx-debuginfo-1.20.1-1.el7.ngx.x86_64.rpm
-rw-rw-r-- 1 bac-dl bac-dl 10771920 Jun 14 12:23 /home/bac-dl/rpmbuild/RPMS/x86_64/nginx-ModSecurity-nginx-1.20.1-1.el7.ngx.x86_64.rpm


но при установке требуется библиотека libmodsecurity.so.3 (хотя в файлах она есть)

[bac-dl@localhost /home/bac-dl]$ sudo yum localinstall /home/bac-dl/rpmbuild/RPMS/x86_64/nginx-ModSecurity-nginx-1.20.1-1.el7.ngx.x86_64.rpm
Loaded plugins: langpacks, product-id, search-disabled-repos, subscription-manager

This system is not registered with an entitlement server. You can use subscription-manager to register.

Examining /home/bac-dl/rpmbuild/RPMS/x86_64/nginx-ModSecurity-nginx-1.20.1-1.el7.ngx.x86_64.rpm: 1:nginx-ModSecurity-nginx-1.20.1-1.el7.ngx.x86_64
Marking /home/bac-dl/rpmbuild/RPMS/x86_64/nginx-ModSecurity-nginx-1.20.1-1.el7.ngx.x86_64.rpm to be installed
Resolving Dependencies
--> Running transaction check
---> Package nginx-ModSecurity-nginx.x86_64 1:1.20.1-1.el7.ngx will be installed
--> Processing Dependency: libmodsecurity.so.3()(64bit) for package: 1:nginx-ModSecurity-nginx-1.20.1-1.el7.ngx.x86_64
--> Finished Dependency Resolution
Error: Package: 1:nginx-ModSecurity-nginx-1.20.1-1.el7.ngx.x86_64 (/nginx-ModSecurity-nginx-1.20.1-1.el7.ngx.x86_64)
           Requires: libmodsecurity.so.3()(64bit)
You could try using --skip-broken to work around the problem
You could try running: rpm -Va --nofiles --nodigest

Подскажите, пожалуйста, где я ошибся в nginx.spec

ниже сам файл

#
%define nginx_home %{_localstatedir}/cache/nginx
%define nginx_user nginx
%define nginx_group nginx
%define nginx_loggroup adm

BuildRequires: systemd
Requires(post): systemd
Requires(preun): systemd
Requires(postun): systemd

%if 0%{?rhel}
%define _group System Environment/Daemons
%endif

%if (0%{?rhel} == 7) && (0%{?amzn} == 0)
%define epoch 1
Epoch: %{epoch}
Requires(pre): shadow-utils
Requires: openssl >= 1.0.2
BuildRequires: openssl-devel >= 1.0.2
%define dist .el7
%endif

%if (0%{?rhel} == 7) && (0%{?amzn} == 2)
%define epoch 1
Epoch: %{epoch}
Requires(pre): shadow-utils
Requires: openssl11 >= 1.1.1
BuildRequires: openssl11-devel >= 1.1.1
%endif

%if 0%{?rhel} == 8
%define epoch 1
Epoch: %{epoch}
Requires(pre): shadow-utils
BuildRequires: openssl-devel >= 1.1.1
%define _debugsource_template %{nil}
%endif

%if 0%{?suse_version} >= 1315
%define _group Productivity/Networking/Web/Servers
%define nginx_loggroup trusted
Requires(pre): shadow
BuildRequires: libopenssl-devel
%define _debugsource_template %{nil}
%endif

%if 0%{?fedora}
%define _debugsource_template %{nil}
%global _hardened_build 1
%define _group System Environment/Daemons
BuildRequires: openssl-devel
Requires(pre): shadow-utils
%endif

# end of distribution specific definitions

%define base_version 1.20.1
%define base_release 1%{?dist}.ngx

%define bdir %{_builddir}/%{name}-%{base_version}

%define WITH_CC_OPT $(echo %{optflags} $(pcre-config --cflags)) -fPIC
%define WITH_LD_OPT -Wl,-z,relro -Wl,-z,now -pie

%define BASE_CONFIGURE_ARGS $(echo "--prefix=%{_sysconfdir}/nginx --sbin-path=%{_sbindir}/nginx --modules-path=%{_libdir}/nginx/modules --conf-path=%{_sysconfdir}/nginx/nginx.conf --error-log-path=%{_localstatedir}/log/nginx/error.log --http-log-path=%{_localstatedir}/log/nginx/access.log --pid-path=%{_localstatedir}/run/nginx.pid --lock-path=%{_localstatedir}/run/nginx.lock --http-client-body-temp-path=%{_localstatedir}/cache/nginx/client_temp --http-proxy-temp-path=%{_localstatedir}/cache/nginx/proxy_temp --http-fastcgi-temp-path=%{_localstatedir}/cache/nginx/fastcgi_temp --http-uwsgi-temp-path=%{_localstatedir}/cache/nginx/uwsgi_temp --http-scgi-temp-path=%{_localstatedir}/cache/nginx/scgi_temp --user=%{nginx_user} --group=%{nginx_group} --with-compat --with-file-aio --with-threads --with-http_addition_module --with-http_auth_request_module --with-http_dav_module --with-http_flv_module --with-http_gunzip_module --with-http_gzip_static_module --with-http_mp4_module --with-http_random_index_module --with-http_realip_module --with-http_secure_link_module --with-http_slice_module --with-http_ssl_module --with-http_stub_status_module --with-http_sub_module --with-http_v2_module --with-mail --with-mail_ssl_module --with-stream --with-stream_realip_module --with-stream_ssl_module --with-stream_ssl_preread_module --add-dynamic-module=/tmp/mods/ModSecurity-nginx")

Summary: High performance web server
Name: nginx
Version: %{base_version}
Release: %{base_release}
Vendor: NGINX Packaging <nginx-packaging@f5.com>
URL: https://nginx.org/
Group: %{_group}

Source0: https://nginx.org/download/%{name}-% ...
Source1: logrotate
Source2: nginx.conf
Source3: nginx.default.conf
Source4: nginx.service
Source5: nginx.upgrade.sh
Source6: nginx.suse.logrotate
Source7: nginx-debug.service
Source8: nginx.copyright
Source9: nginx.check-reload.sh

License: 2-clause BSD-like license

BuildRoot: %{_tmppath}/%{name}-%{base_version}-%{base_release}-root
BuildRequires: zlib-devel
BuildRequires: pcre-devel

Provides: webserver
Provides: nginx-r%{base_version}

%description
###ModSecurity-nginx
%package ModSecurity-nginx
Summary: nginx ModSecurity-nginx
%description ModSecurity-nginx
Dynamic ModSecurity-nginx
###ModSecurity-nginx

nginx [engine x] is an HTTP and reverse proxy server, as well as
a mail proxy server.

%if 0%{?suse_version} >= 1315
%debug_package
%endif

%prep
%autosetup -p1

%build

./configure %{BASE_CONFIGURE_ARGS} \
    --with-cc-opt="%{WITH_CC_OPT}" \
    --with-ld-opt="%{WITH_LD_OPT}" \
    --with-debug
make %{?_smp_mflags}
%{__mv} %{bdir}/objs/nginx \
    %{bdir}/objs/nginx-debug
./configure %{BASE_CONFIGURE_ARGS} \
    --with-cc-opt="%{WITH_CC_OPT}" \
    --with-ld-opt="%{WITH_LD_OPT}"
make %{?_smp_mflags}

%install
%{__rm} -rf $RPM_BUILD_ROOT
%{__make} DESTDIR=$RPM_BUILD_ROOT INSTALLDIRS=vendor install

%{__mkdir} -p $RPM_BUILD_ROOT%{_datadir}/nginx
%{__mv} $RPM_BUILD_ROOT%{_sysconfdir}/nginx/html $RPM_BUILD_ROOT%{_datadir}/nginx/

%{__rm} -f $RPM_BUILD_ROOT%{_sysconfdir}/nginx/*.default
%{__rm} -f $RPM_BUILD_ROOT%{_sysconfdir}/nginx/fastcgi.conf

%{__mkdir} -p $RPM_BUILD_ROOT%{_localstatedir}/log/nginx
%{__mkdir} -p $RPM_BUILD_ROOT%{_localstatedir}/run/nginx
%{__mkdir} -p $RPM_BUILD_ROOT%{_localstatedir}/cache/nginx

%{__mkdir} -p $RPM_BUILD_ROOT%{_libdir}/nginx/modules
cd $RPM_BUILD_ROOT%{_sysconfdir}/nginx && \
    %{__ln_s} ../..%{_libdir}/nginx/modules modules && cd -

%{__mkdir} -p $RPM_BUILD_ROOT%{_datadir}/doc/%{name}-%{base_version}
%{__install} -m 644 -p %{SOURCE8} \
    $RPM_BUILD_ROOT%{_datadir}/doc/%{name}-%{base_version}/COPYRIGHT

%{__mkdir} -p $RPM_BUILD_ROOT%{_sysconfdir}/nginx/conf.d
%{__rm} $RPM_BUILD_ROOT%{_sysconfdir}/nginx/nginx.conf
%{__install} -m 644 -p %{SOURCE2} \
    $RPM_BUILD_ROOT%{_sysconfdir}/nginx/nginx.conf
%{__install} -m 644 -p %{SOURCE3} \
    $RPM_BUILD_ROOT%{_sysconfdir}/nginx/conf.d/default.conf

%{__install} -p -D -m 0644 %{bdir}/objs/nginx.8 \
    $RPM_BUILD_ROOT%{_mandir}/man8/nginx.8

%{__mkdir} -p $RPM_BUILD_ROOT%{_unitdir}
%{__install} -m644 %SOURCE4 \
    $RPM_BUILD_ROOT%{_unitdir}/nginx.service
%{__install} -m644 %SOURCE7 \
    $RPM_BUILD_ROOT%{_unitdir}/nginx-debug.service
%{__mkdir} -p $RPM_BUILD_ROOT%{_libexecdir}/initscripts/legacy-actions/nginx
%{__install} -m755 %SOURCE5 \
    $RPM_BUILD_ROOT%{_libexecdir}/initscripts/legacy-actions/nginx/upgrade
%{__install} -m755 %SOURCE9 \
    $RPM_BUILD_ROOT%{_libexecdir}/initscripts/legacy-actions/nginx/check-reload

# install log rotation stuff
%{__mkdir} -p $RPM_BUILD_ROOT%{_sysconfdir}/logrotate.d
%if 0%{?suse_version}
%{__install} -m 644 -p %{SOURCE6} \
    $RPM_BUILD_ROOT%{_sysconfdir}/logrotate.d/nginx
%else
%{__install} -m 644 -p %{SOURCE1} \
    $RPM_BUILD_ROOT%{_sysconfdir}/logrotate.d/nginx
%endif

%{__install} -m755 %{bdir}/objs/nginx-debug \
    $RPM_BUILD_ROOT%{_sbindir}/nginx-debug

%{__rm} $RPM_BUILD_ROOT%{_sysconfdir}/nginx/koi-utf
%{__rm} $RPM_BUILD_ROOT%{_sysconfdir}/nginx/koi-win
%{__rm} $RPM_BUILD_ROOT%{_sysconfdir}/nginx/win-utf

###ModSecurity-nginx copy libs
%{__mkdir} -p $RPM_BUILD_ROOT/usr/lib64
cp -a /tmp/modsecurity/lib/libmodsecurity.so $RPM_BUILD_ROOT/usr/lib64/
###ModSecurity-nginx

%check
%{__rm} -rf $RPM_BUILD_ROOT/usr/src
cd %{bdir}
grep -v 'usr/src' debugfiles.list > debugfiles.list.new && mv debugfiles.list.new debugfiles.list
cat /dev/null > debugsources.list
%if 0%{?suse_version} >= 1500
cat /dev/null > debugsourcefiles.list
%endif

%clean
%{__rm} -rf $RPM_BUILD_ROOT

%files
%defattr(-,root,root)

%{_sbindir}/nginx
%{_sbindir}/nginx-debug

%dir %{_sysconfdir}/nginx
%dir %{_sysconfdir}/nginx/conf.d
%{_sysconfdir}/nginx/modules

%config(noreplace) %{_sysconfdir}/nginx/nginx.conf
%config(noreplace) %{_sysconfdir}/nginx/conf.d/default.conf
%config(noreplace) %{_sysconfdir}/nginx/mime.types
%config(noreplace) %{_sysconfdir}/nginx/fastcgi_params
%config(noreplace) %{_sysconfdir}/nginx/scgi_params
%config(noreplace) %{_sysconfdir}/nginx/uwsgi_params

%config(noreplace) %{_sysconfdir}/logrotate.d/nginx
%{_unitdir}/nginx.service
%{_unitdir}/nginx-debug.service
%dir %{_libexecdir}/initscripts/legacy-actions/nginx
%{_libexecdir}/initscripts/legacy-actions/nginx/*

%attr(0755,root,root) %dir %{_libdir}/nginx
%attr(0755,root,root) %dir %{_libdir}/nginx/modules
%dir %{_datadir}/nginx
%dir %{_datadir}/nginx/html
%{_datadir}/nginx/html/*

%attr(0755,root,root) %dir %{_localstatedir}/cache/nginx
%attr(0755,root,root) %dir %{_localstatedir}/log/nginx

%dir %{_datadir}/doc/%{name}-%{base_version}
%doc %{_datadir}/doc/%{name}-%{base_version}/COPYRIGHT
%{_mandir}/man8/nginx.8*

###ModSecurity-nginx files
%files ModSecurity-nginx
%{_libdir}/nginx/modules/ngx_http_modsecurity_module.so
%{_libdir}/libmodsecurity.so
###ModSecurity-nginx

%pre
# Add the "nginx" user
getent group %{nginx_group} >/dev/null || groupadd -r %{nginx_group}
getent passwd %{nginx_user} >/dev/null || \
    useradd -r -g %{nginx_group} -s /sbin/nologin \
    -d %{nginx_home} -c "nginx user"  %{nginx_user}
exit 0

%post
# Register the nginx service
if [ $1 -eq 1 ]; then
    /usr/bin/systemctl preset nginx.service >/dev/null 2>&1 ||:
    /usr/bin/systemctl preset nginx-debug.service >/dev/null 2>&1 ||:
    # print site info
    cat <<BANNER
----------------------------------------------------------------------

Thanks for using nginx!

Please find the official documentation for nginx here:
* https://nginx.org/en/docs/

Please subscribe to nginx-announce mailing list to get
the most important news about nginx:
* https://nginx.org/en/support.html

Commercial subscriptions for nginx are available on:
* https://nginx.com/products/

----------------------------------------------------------------------
BANNER

    # Touch and set permisions on default log files on installation

    if [ -d %{_localstatedir}/log/nginx ]; then
        if [ ! -e %{_localstatedir}/log/nginx/access.log ]; then
            touch %{_localstatedir}/log/nginx/access.log
            %{__chmod} 640 %{_localstatedir}/log/nginx/access.log
            %{__chown} nginx:%{nginx_loggroup} %{_localstatedir}/log/nginx/access.log
        fi

        if [ ! -e %{_localstatedir}/log/nginx/error.log ]; then
            touch %{_localstatedir}/log/nginx/error.log
            %{__chmod} 640 %{_localstatedir}/log/nginx/error.log
            %{__chown} nginx:%{nginx_loggroup} %{_localstatedir}/log/nginx/error.log
        fi
    fi
fi

%preun
if [ $1 -eq 0 ]; then
    /usr/bin/systemctl --no-reload disable nginx.service >/dev/null 2>&1 ||:
    /usr/bin/systemctl stop nginx.service >/dev/null 2>&1 ||:
fi

%postun
/usr/bin/systemctl daemon-reload >/dev/null 2>&1 ||:
if [ $1 -ge 1 ]; then
    /sbin/service nginx status  >/dev/null 2>&1 || exit 0
    /sbin/service nginx upgrade >/dev/null 2>&1 || echo \
        "Binary upgrade failed, please check nginx's error.log"
fi

%changelog
* Tue May 25 2021 Konstantin Pavlov <thresh@nginx.com> - 1.20.1-1%{?dist}.ngx
- 1.20.1-1

* Tue Apr 20 2021 Konstantin Pavlov <thresh@nginx.com> - 1.20.0-1%{?dist}.ngx
- 1.20.0-1
- Changed the default number of worker processes to auto
- Changed the default error log level to notice
- Dropped charset-related data from packages and default configuration

* Tue Apr 13 2021 Andrei Belov <defan@nginx.com> - 1.19.10-1%{?dist}.ngx
- 1.19.10-1

* Tue Mar 30 2021 Konstantin Pavlov <thresh@nginx.com> - 1.19.9-1%{?dist}.ngx
- 1.19.9-1

* Tue Mar  9 2021 Konstantin Pavlov <thresh@nginx.com> - 1.19.8-1%{?dist}.ngx
- 1.19.8-1

* Tue Feb 16 2021 Konstantin Pavlov <thresh@nginx.com> - 1.19.7-1%{?dist}.ngx
- 1.19.7-1

* Tue Dec 15 2020 Konstantin Pavlov <thresh@nginx.com> - 1.19.6-1%{?dist}.ngx
- 1.19.6-1

* Tue Nov 24 2020 Konstantin Pavlov <thresh@nginx.com> - 1.19.5-1%{?dist}.ngx
- 1.19.5-1

* Tue Oct 27 2020 Andrei Belov <defan@nginx.com> - 1.19.4-1%{?dist}.ngx
- 1.19.4-1

* Tue Sep 29 2020 Konstantin Pavlov <thresh@nginx.com> - 1.19.3-1%{?dist}.ngx
- 1.19.3

* Tue Aug 11 2020 Konstantin Pavlov <thresh@nginx.com> - 1.19.2-1%{?dist}.ngx
- 1.19.2

* Tue Jul  7 2020 Konstantin Pavlov <thresh@nginx.com> - 1.19.1-1%{?dist}.ngx
- 1.19.1

* Tue May 26 2020 Konstantin Pavlov <thresh@nginx.com> - 1.19.0-1%{?dist}.ngx
- 1.19.0

* Tue Apr 14 2020 Konstantin Pavlov <thresh@nginx.com> - 1.17.10-1%{?dist}.ngx
- 1.17.10

* Tue Mar  3 2020 Konstantin Pavlov <thresh@nginx.com> - 1.17.9-1%{?dist}.ngx
- 1.17.9

* Tue Jan 21 2020 Konstantin Pavlov <thresh@nginx.com> - 1.17.8-1%{?dist}.ngx
- 1.17.8

* Tue Dec 24 2019 Konstantin Pavlov <thresh@nginx.com> - 1.17.7-1%{?dist}.ngx
- 1.17.7

* Tue Nov 19 2019 Konstantin Pavlov <thresh@nginx.com> - 1.17.6-1%{?dist}.ngx
- 1.17.6

* Tue Oct 22 2019 Andrei Belov <defan@nginx.com> - 1.17.5-1%{?dist}.ngx
- 1.17.5

* Tue Sep 24 2019 Konstantin Pavlov <thresh@nginx.com> - 1.17.4-1%{?dist}.ngx
- 1.17.4

* Tue Aug 13 2019 Andrei Belov <defan@nginx.com> - 1.17.3-1%{?dist}.ngx
- 1.17.3

* Tue Jul 23 2019 Konstantin Pavlov <thresh@nginx.com> - 1.17.2-1%{?dist}.ngx
- 1.17.2

* Tue Jun 25 2019 Andrei Belov <defan@nginx.com> - 1.17.1-1%{?dist}.ngx
- 1.17.1

* Tue May 21 2019 Konstantin Pavlov <thresh@nginx.com> - 1.17.0-1%{?dist}.ngx
- 1.17.0

* Tue Apr 16 2019 Konstantin Pavlov <thresh@nginx.com> - 1.15.12-1%{?dist}.ngx
- 1.15.12

* Tue Apr  9 2019 Konstantin Pavlov <thresh@nginx.com> - 1.15.11-1%{?dist}.ngx
- 1.15.11

* Tue Mar 26 2019 Konstantin Pavlov <thresh@nginx.com> - 1.15.10-1%{?dist}.ngx
- 1.15.10

* Tue Feb 26 2019 Konstantin Pavlov <thresh@nginx.com> - 1.15.9-1%{?dist}.ngx
- 1.15.9

* Tue Dec 25 2018 Konstantin Pavlov <thresh@nginx.com> - 1.15.8-1%{?dist}.ngx
- 1.15.8

* Tue Nov 27 2018 Konstantin Pavlov <thresh@nginx.com> - 1.15.7-1%{?dist}.ngx
- 1.15.7

* Tue Nov  6 2018 Konstantin Pavlov <thresh@nginx.com> - 1.15.6-1%{?dist}.ngx
- 1.15.6
- Security: fixes CVE-2018-16843.
- Security: fixes CVE-2018-16844.
- Security: fixes CVE-2018-16845.

* Tue Oct  2 2018 Konstantin Pavlov <thresh@nginx.com> - 1.15.5-1%{?dist}.ngx
- 1.15.5

* Tue Sep 25 2018 Konstantin Pavlov <thresh@nginx.com> - 1.15.4-1%{?dist}.ngx
- 1.15.4

* Tue Aug 28 2018 Konstantin Pavlov <thresh@nginx.com> - 1.15.3-1%{?dist}.ngx
- 1.15.3

* Tue Jul 24 2018 Konstantin Pavlov <thresh@nginx.com> - 1.15.2-1%{?dist}.ngx
- 1.15.2

* Tue Jul  3 2018 Konstantin Pavlov <thresh@nginx.com> - 1.15.1-1%{?dist}.ngx
- 1.15.1

* Tue Jun  5 2018 Konstantin Pavlov <thresh@nginx.com> - 1.15.0-1%{?dist}.ngx
- 1.15.0

* Mon Apr  9 2018 Konstantin Pavlov <thresh@nginx.com> - 1.13.12-1%{?dist}.ngx
- 1.13.12

* Tue Apr  3 2018 Konstantin Pavlov <thresh@nginx.com> - 1.13.11-1%{?dist}.ngx
- 1.13.11

* Tue Mar 20 2018 Konstantin Pavlov <thresh@nginx.com> - 1.13.10-1%{?dist}.ngx
- 1.13.10

* Tue Feb 20 2018 Konstantin Pavlov <thresh@nginx.com> - 1.13.9-1%{?dist}.ngx
- 1.13.9

* Tue Dec 26 2017 Konstantin Pavlov <thresh@nginx.com> - 1.13.8-1%{?dist}.ngx
- 1.13.8

* Tue Nov 21 2017 Konstantin Pavlov <thresh@nginx.com> - 1.13.7-1%{?dist}.ngx
- 1.13.7

* Thu Sep 14 2017 Konstantin Pavlov <thresh@nginx.com> - 1.13.6-1%{?dist}.ngx
- 1.13.6
- Bugfix: in systemd service support
  (https://trac.nginx.org/nginx/ticket/1380).

* Thu Sep 14 2017 Konstantin Pavlov <thresh@nginx.com> - 1.13.5-1%{?dist}.ngx
- 1.13.5

* Tue Aug  8 2017 Sergey Budnevitch <sb@nginx.com> - 1.13.4-1%{?dist}.ngx
- 1.13.4

* Tue Jul 11 2017 Konstantin Pavlov <thresh@nginx.com> - 1.13.3-1%{?dist}.ngx
- 1.13.3
- Security: fixes CVE-2017-7529.

* Tue Jun 27 2017 Konstantin Pavlov <thresh@nginx.com> - 1.13.2-1%{?dist}.ngx
- 1.13.2

* Tue May 30 2017 Konstantin Pavlov <thresh@nginx.com> - 1.13.1-1%{?dist}.ngx
- 1.13.1

* Tue Apr 25 2017 Konstantin Pavlov <thresh@nginx.com> - 1.13.0-1%{?dist}.ngx
- 1.13.0

* Tue Apr  4 2017 Konstantin Pavlov <thresh@nginx.com> - 1.11.13-1%{?dist}.ngx
- 1.11.13
- Made upgrade loops/timeouts configurable via /etc/defaults/nginx.

* Fri Mar 24 2017 Konstantin Pavlov <thresh@nginx.com> - 1.11.12-1%{?dist}.ngx
- 1.11.12

* Tue Mar 21 2017 Konstantin Pavlov <thresh@nginx.com> - 1.11.11-1%{?dist}.ngx
- 1.11.11

* Tue Feb 14 2017 Konstantin Pavlov <thresh@nginx.com> - 1.11.10-1%{?dist}.ngx
- 1.11.10

* Tue Jan 24 2017 Konstantin Pavlov <thresh@nginx.com> - 1.11.9-1%{?dist}.ngx
- 1.11.9
- Extended hardening build flags.
- Added check-reload target to init script / systemd service.

* Tue Dec 27 2016 Konstantin Pavlov <thresh@nginx.com> - 1.11.8-1%{?dist}.ngx
- 1.11.8

* Tue Dec 13 2016 Konstantin Pavlov <thresh@nginx.com> - 1.11.7-1%{?dist}.ngx
- 1.11.7

* Fri Nov 25 2016 Konstantin Pavlov <thresh@nginx.com> - 1.11.6-1%{?dist}.ngx
- 1.11.6

* Mon Oct 10 2016 Andrei Belov <defan@nginx.com> - 1.11.5-1%{?dist}.ngx
- 1.11.5

* Tue Sep 13 2016 Konstantin Pavlov <thresh@nginx.com> - 1.11.4-1%{?dist}.ngx
- 1.11.4
- njs updated to 0.1.2.

* Tue Jul 26 2016 Konstantin Pavlov <thresh@nginx.com> - 1.11.3-1%{?dist}.ngx
- 1.11.3
- njs updated to 0.1.0.
- njs stream dynamic module added to nginx-module-njs package.
- geoip stream dynamic module added to nginx-module-geoip package.

* Tue Jul  5 2016 Konstantin Pavlov <thresh@nginx.com> - 1.11.2-1%{?dist}.ngx
- 1.11.2
- njs updated to ef2b708510b1.

* Tue May 31 2016 Konstantin Pavlov <thresh@nginx.com> - 1.11.1-1%{?dist}.ngx
- 1.11.1

* Tue May 24 2016 Sergey Budnevitch <sb@nginx.com> - 1.11.0-1%{?dist}.ngx
- 1.11.0
- Bugfix: fixed logrotate error if nginx is not running.

* Tue Apr 19 2016 Konstantin Pavlov <thresh@nginx.com> - 1.9.15-1%{?dist}.ngx
- 1.9.15
- njs updated to 1c50334fbea6.

* Tue Apr  5 2016 Konstantin Pavlov <thresh@nginx.com> - 1.9.14-1%{?dist}.ngx
- 1.9.14

* Tue Mar 29 2016 Konstantin Pavlov <thresh@nginx.com> - 1.9.13-1%{?dist}.ngx
- 1.9.13
- Fixed modules path
- Added perl and njs dynamic modules subpackages

* Wed Feb 24 2016 Sergey Budnevitch <sb@nginx.com> - 1.9.12-1%{?dist}.ngx
- 1.9.12
- common configure args are now in variable
- xslt, image-filter and geoip dynamic modules added

* Tue Feb  9 2016 Sergey Budnevitch <sb@nginx.com> - 1.9.11-1%{?dist}.ngx
- 1.9.11
- dynamic modules path and symlink in /etc/nginx added

* Tue Jan 26 2016 Konstantin Pavlov <thresh@nginx.com> - 1.9.10-1%{?dist}.ngx
- 1.9.10

* Wed Dec  9 2015 Konstantin Pavlov <thresh@nginx.com> - 1.9.9-1%{?dist}.ngx
- 1.9.9

* Tue Dec  8 2015 Konstantin Pavlov <thresh@nginx.com> - 1.9.8-1%{?dist}.ngx
- 1.9.8
- http_slice module enabled

* Tue Nov 17 2015 Konstantin Pavlov <thresh@nginx.com> - 1.9.7-1%{?dist}.ngx
- 1.9.7

* Tue Oct 27 2015 Sergey Budnevitch <sb@nginx.com> - 1.9.6-1%{?dist}.ngx
- 1.9.6

* Tue Sep 22 2015 Andrei Belov <defan@nginx.com> - 1.9.5-1%{?dist}.ngx
- 1.9.5
- http_spdy module replaced with http_v2 module

* Tue Aug 18 2015 Konstantin Pavlov <thresh@nginx.com> - 1.9.4-1%{?dist}.ngx
- 1.9.4

* Tue Jul 14 2015 Sergey Budnevitch <sb@nginx.com> - 1.9.3-1%{?dist}.ngx
- 1.9.3

* Tue Jun 16 2015 Sergey Budnevitch <sb@nginx.com> - 1.9.2-1%{?dist}.ngx
- 1.9.2

* Tue May 26 2015 Sergey Budnevitch <sb@nginx.com> - 1.9.1-1%{?dist}.ngx
- 1.9.1

* Tue Apr 28 2015 Sergey Budnevitch <sb@nginx.com> - 1.9.0-1%{?dist}.ngx
- 1.9.0
- thread pool support added
- stream module added
- example_ssl.conf removed

* Tue Apr  7 2015 Sergey Budnevitch <sb@nginx.com> - 1.7.12-1%{?dist}.ngx
- 1.7.12

* Tue Mar 24 2015 Sergey Budnevitch <sb@nginx.com> - 1.7.11-1%{?dist}.ngx
- 1.7.11

* Tue Feb 10 2015 Sergey Budnevitch <sb@nginx.com> - 1.7.10-1%{?dist}.ngx
- 1.7.10

* Tue Dec 23 2014 Sergey Budnevitch <sb@nginx.com> - 1.7.9-1%{?dist}.ngx
- 1.7.9
- init-script now sends signal only to the PID derived from pidfile

* Tue Dec  2 2014 Sergey Budnevitch <sb@nginx.com> - 1.7.8-1%{?dist}.ngx
- 1.7.8
- package with debug symbols added

* Tue Oct 28 2014 Sergey Budnevitch <sb@nginx.com> - 1.7.7-1%{?dist}.ngx
- 1.7.7

* Tue Sep 30 2014 Sergey Budnevitch <sb@nginx.com> - 1.7.6-1%{?dist}.ngx
- 1.7.6

* Tue Sep 16 2014 Sergey Budnevitch <sb@nginx.com> - 1.7.5-1%{?dist}.ngx
- 1.7.5

* Tue Aug  5 2014 Sergey Budnevitch <sb@nginx.com> - 1.7.4-1%{?dist}.ngx
- 1.7.4
- init-script now returns 0 on stop command if nginx is not running

* Tue Jul  8 2014 Sergey Budnevitch <sb@nginx.com> - 1.7.3-1%{?dist}.ngx
- 1.7.3

* Tue Jun 17 2014 Sergey Budnevitch <sb@nginx.com> - 1.7.2-1%{?dist}.ngx
- 1.7.2

* Tue May 27 2014 Sergey Budnevitch <sb@nginx.com> - 1.7.1-1%{?dist}.ngx
- 1.7.1

* Thu Apr 24 2014 Konstantin Pavlov <thresh@nginx.com> - 1.7.0-1%{?dist}.ngx
- 1.7.0

* Tue Apr  8 2014 Sergey Budnevitch <sb@nginx.com> - 1.5.13-1%{?dist}.ngx
- 1.5.13

* Tue Mar 18 2014 Sergey Budnevitch <sb@nginx.com> - 1.5.12-1%{?dist}.ngx
- 1.5.12
- warning added when binary upgrade returns non-zero exit code

* Tue Mar  4 2014 Sergey Budnevitch <sb@nginx.com> - 1.5.11-1%{?dist}.ngx
- 1.5.11

* Tue Feb  4 2014 Sergey Budnevitch <sb@nginx.com> - 1.5.10-1%{?dist}.ngx
- 1.5.10

* Wed Jan 22 2014 Sergey Budnevitch <sb@nginx.com> - 1.5.9-1%{?dist}.ngx
- 1.5.9

* Tue Dec 17 2013 Sergey Budnevitch <sb@nginx.com> - 1.5.8-1%{?dist}.ngx
- 1.5.8

* Fri Nov 29 2013 Sergey Budnevitch <sb@nginx.com> - 1.5.7-1%{?dist}.ngx
- 1.5.7
- init script now honours additional options sourced from /etc/default/nginx

* Tue Oct  1 2013 Sergey Budnevitch <sb@nginx.com> - 1.5.6-1%{?dist}.ngx
- 1.5.6

* Tue Sep 17 2013 Andrei Belov <defan@nginx.com> - 1.5.5-1%{?dist}.ngx
- 1.5.5

* Tue Aug 27 2013 Sergey Budnevitch <sb@nginx.com> - 1.5.4-1%{?dist}.ngx
- 1.5.4
- auth request module added

* Tue Jul 30 2013 Sergey Budnevitch <sb@nginx.com> - 1.5.3-1%{?dist}.ngx
- 1.5.3

* Tue Jul  2 2013 Sergey Budnevitch <sb@nginx.com> - 1.5.2-1%{?dist}.ngx
- 1.5.2

* Tue Jun  4 2013 Sergey Budnevitch <sb@nginx.com> - 1.5.1-1%{?dist}.ngx
- 1.5.1
- dpkg-buildflags options now passed by --with-{cc,ld}-opt

* Mon May  6 2013 Sergey Budnevitch <sb@nginx.com> - 1.5.0-1%{?dist}.ngx
- 1.5.0
- fixed openssl version detection with dash as /bin/sh

* Tue Apr 16 2013 Sergey Budnevitch <sb@nginx.com> - 1.3.16-1%{?dist}.ngx
- 1.3.16

* Tue Mar 26 2013 Sergey Budnevitch <sb@nginx.com> - 1.3.15-1%{?dist}.ngx
- 1.3.15
- gunzip module added
- spdy module added if openssl version >= 1.0.1
- set permissions on default log files at installation



tc не видит маркированные пакеты, !*! a7lan, (Квоты, ограничения, QoS) 06-Июн-21, 19:47  [ | | | ] [линейный вид] [смотреть все]
Есть сервер на Ubunut 18.04 (ядро 4.15). Два интерфейса объединены в мост. br_netfilter и xt_mark загружены.

Делаю
_____________________________________________
tc qdisc delete dev enp3s0f1 root
tc qdisc add dev enp3s0f1 root handle 1: htb
tc class add dev enp3s0f1 parent 1:0 classid 1:1 htb rate 10000mbit burst 15k  mtu 1470 quantum 1470
tc class add dev enp3s0f1 parent 1:1 classid 1:20 htb rate 10000mbit prio 00  quantum 1470
tc class add dev enp3s0f1 parent 1:20 classid 1:201 htb rate 100mbit ceil 3000mbit prio 1 burst 15k
tc qdisc add dev enp3s0f1 parent 1:201 handle 201: sfq limit 256 perturb 10 quantum 1470
tc filter add dev enp3s0f1 protocol ip parent 1:0 prio 1 handle 21 fw flowid 1:201


iptables -t mangle -F
iptables -t mangle -A POSTROUTING -m physdev --physdev-out  enp3s0f1 -m ndpi  --ssl  -j MARK --set-mark 21
__________________________________________________________


Выхлопы.

root@server:~# iptables -t mangle -L POSTROUTING -vn
Chain POSTROUTING (policy ACCEPT 286M packets, 306G bytes)
pkts bytes target     prot opt in     out     source               destination
  31M   34G MARK       all  --  *      *       0.0.0.0/0            0.0.0.0/0            PHYSDEV match --physdev-out enp3s0f1 ndpi protocol ssl MARK set 0x15


root@server:~# tc -s -d -r filter show dev enp3s0f1
filter parent 1: protocol ip pref 1 fw chain 0
filter parent 1: protocol ip pref 1 fw chain 0 handle 0x15 classid 1:201

но в нужный класс трафик не попадает.
_____________________________________
tc -s class show dev enp3s0f1                                                                                                          

class htb 1:1 root rate 10Gbit ceil 10Gbit burst 13750b cburst 0b
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
lended: 0 borrowed: 0 giants: 0
tokens: 187 ctokens: 15

class htb 1:20 parent 1:1 rate 10Gbit ceil 10Gbit burst 0b cburst 0b
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
lended: 0 borrowed: 0 giants: 0
tokens: 15 ctokens: 15

class htb 1:201 parent 1:20 leaf 10: prio rate 100Mbit ceil 3Gbit burst 15337b cburst 1125b
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
lended: 0 borrowed: 0 giants: 0
tokens: 19187 ctokens: 62
_______________________________________________


Второй день голову ломаю. Что ему не нравится?

UPD. Только что обнаружилось, что tc не видит вообще никакой трафик. Iptables не причем. То есть добавление

tc filter add dev enp3s0f1 parent 1:0 protocol ip u32 match ip sport 443 0xffff flowid 1:201

так же не дает результата.

Samba4.11 и WindowsXP не может зайти на сервер., !*! MCLXXV, (Samba, выделена в отдельный форум / FreeBSD) 04-Июн-21, 22:21  [ | | | ] [линейный вид] [смотреть все]
Доброго всем времени суток.

Установил из пакетов на FreeBSD 4 Samba server 4.11
В сетевом окружении на виндовс- машинах он виден, но вот при попытки зайти Windows выкидывает сообщение:
У вас якобы нет прав доступа и ругается что дополнительные подключения невозможны, потому что число подключений достигло предела.

При том что логи все пустые.

мой базовый конфиг

[global]
        dos charset = cp866
        server role = standalone
        security = user
        map to guest = Bad Password
        max log size = 500
        server string = Samba Server
        workgroup = STM
        socket options = TCP_NODELAY
        log file = /var/log/samba4/log.%m
        os level = 1

Заранее буду благодарен за подсказку где искать проблему.

Настройка лога в exim-е, !*! korbnik, (Почта / Linux) 28-Май-21, 11:26  [ | | | ] [линейный вид] [смотреть все]
Добрый день!

Подскажите, пожалуйста, как настроить exim, чтобы эти сообщени
не записывались в лог exim-а?

2021-05-28 08:30:55.085 [1315523] cwd=/ 2 args: /usr/sbin/exim -bpc
2021-05-28 08:31:54.164 [1315548] cwd=/ 2 args: /usr/sbin/exim -bpc
2021-05-28 08:32:54.471 [1315573] cwd=/ 2 args: /usr/sbin/exim -bpc
2021-05-28 08:33:54.793 [1315597] cwd=/ 2 args: /usr/sbin/exim -bpc
2021-05-28 08:34:54.258 [1315621] cwd=/ 2 args: /usr/sbin/exim -bpc

Короче команды exim-а выполненные в shell-е не записывать в лог.

Заранее спасибо. Борис.

  • Обычно путь к этому прописывается в конфигах Я не сталкивался с этой программой, !*! Ilugar (ok), 10:34 , 31-Май-21 (1)
    > Добрый день!
    > Подскажите, пожалуйста, как настроить exim, чтобы эти сообщени
    > не записывались в лог exim-а?
    > 2021-05-28 08:30:55.085 [1315523] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:31:54.164 [1315548] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:32:54.471 [1315573] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:33:54.793 [1315597] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:34:54.258 [1315621] cwd=/ 2 args: /usr/sbin/exim -bpc
    > Короче команды exim-а выполненные в shell-е не записывать в лог.
    > Заранее спасибо. Борис.

    Обычно путь к этому прописывается в конфигах. Я не сталкивался с этой программой, но думаю что и даже практически уверен, что есть какой то основной конфиг, где описана запись в логи

    сообщить модератору +/ответить
  • man 8 exim и искать ключи -bpc , зачем они, кем используются Видимо надо запре, !*! Andrey (??), 09:16 , 01-Июн-21 (2)
    > Добрый день!
    > Подскажите, пожалуйста, как настроить exim, чтобы эти сообщени
    > не записывались в лог exim-а?
    > 2021-05-28 08:30:55.085 [1315523] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:31:54.164 [1315548] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:32:54.471 [1315573] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:33:54.793 [1315597] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:34:54.258 [1315621] cwd=/ 2 args: /usr/sbin/exim -bpc
    > Короче команды exim-а выполненные в shell-е не записывать в лог.
    > Заранее спасибо. Борис.

    man 8 exim
    и искать ключи "-bpc", зачем они, кем используются.
    Видимо надо запретить запускать exim с такими ключами.

    Вообще плохая практика задавать вопрос "почему в логах вот это" не приложив конфиг.

    сообщить модератору +/ответить
  • См https www exim org exim-html-current doc html spec_html ch-log_files htmla, !*! Licha Morada (ok), 21:08 , 02-Июн-21 (3)
    > чтобы эти сообщени не записывались в лог exim-а?
    > 2021-05-28 08:30:55.085 [1315523] cwd=/ 2 args: /usr/sbin/exim -bpc

    См. https://www.exim.org/exim-html-current/doc/html/spec_html/ch...

    arguments: This causes Exim to write the arguments with which it was called to the main log, preceded by the current working directory. This is a debugging feature...

    The logging does not happen if Exim has given up root privilege because it was called with the -C or -D options.

    сообщить модератору +/ответить
PFSense. Маршрутизация в удаленную сеть. Routed IPSec в PFSense, !*! _John_, (Маршрутизация, NAT / FreeBSD) 27-Май-21, 14:04  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!

Нужно подключиться к удаленному ресурсу через IPSec туннель.
Есть компьютер с установленной PFSense, создал туннель (Routed VTI):

Удаленный пир - 10.179.10.10
локальная подсеть - 10.209.10.10/29
удаленная подсеть - 10.176.40.0/24

туннель создался, ошибок нет.

Потом назначил интерфейс к созданному туннелю - OPT2 и включил его.

В файерволе IPSec разрешил все протоколы.

Могу пропинговать с машины с PFSense с интерфейса OPT2 ресурсы в удаленной сети.

Теперь добавляю статический маршрут - 10.176.40.0 -> OPT2_VTIV4-10.179.10.10

Но из локальной сети (и любых других интерфейсов кроме OPT2 на PFSense) не могу пропинговать ничего в удаленной подсети...

В файрволе в IPSec счетчики по нулям.

Подскажите кто настраивал такое, что еще нужно для корректной работы?

  • NAT , !*! Аноним (1), 14:32 , 27-Май-21 (1)
    > Подскажите кто настраивал такое, что еще нужно для корректной работы?

    NAT?

    сообщить модератору +/ответить


Postfix не принимает письма от одного адресата, что делать?, !*! semus, (Почта / Linux) 01-Июн-21, 12:46  [ | | | ] [линейный вид] [смотреть все]
Доброго времени суток, Подскажите пжлста, в какую сторону копать по вот этому логу.
May 28 09:45:30 mail postfix/postscreen[39860]: CONNECT from [81.177.99.17]:41824 to [10.24.2.50]:25
May 28 09:45:36 mail postfix/postscreen[39860]: PASS OLD [81.177.99.17]:41824
May 28 09:45:36 mail postfix/smtpd[39861]: warning: hostname mail.is-mis.ru does not resolve to address 81.177.99.17: Name or service not known
May 28 09:45:36 mail postfix/smtpd[39861]: connect from unknown[81.177.99.17]
May 28 09:45:36 mail postfix/smtpd[39861]: NOQUEUE: reject: RCPT from unknown[81.177.99.17]: 450 4.7.1 <mail.is-mis.ru>: Helo command rejected: Host not found; from=<rmis-admin@is-mis.ru> to=<demyanova@dob.kaluga.ru> proto=ESMTP helo=<mail.is-mis.ru>
May 28 09:45:36 mail postfix/smtpd[39861]: disconnect from unknown[81.177.99.17]
May 28 09:46:36 mail postfix/postscreen[39860]: CONNECT from [81.177.99.17]:41826 to [10.24.2.50]:25
May 28 09:46:36 mail postfix/postscreen[39860]: PASS OLD [81.177.99.17]:41826
May 28 09:46:36 mail postfix/smtpd[39861]: warning: hostname mail.is-mis.ru does not resolve to address 81.177.99.17: Name or service not known
May 28 09:46:36 mail postfix/smtpd[39861]: connect from unknown[81.177.99.17]
May 28 09:46:36 mail postfix/smtpd[39861]: NOQUEUE: reject: RCPT from unknown[81.177.99.17]: 450 4.7.1 <mail.is-mis.ru>: Helo command rejected: Host not found; from=<rmis-admin@is-mis.ru> to=<demyanova@dob.kaluga.ru> proto=ESMTP helo=<mail.is-mis.ru>
May 28 09:46:36 mail postfix/smtpd[39861]: disconnect from unknown[81.177.99.17]
  • Это с их стороны10 09 06 001 5 SMTP-090261 dob kaluga ru processing10 09 06 061, !*! semus (ok), 12:48 , 01-Июн-21 (1)
    Это с их стороны

    10:09:06.001 5 SMTP-090261(dob.kaluga.ru) processing
    10:09:06.061 5 SMTP-090261(dob.kaluga.ru) 1 relay(s) found:dob.kaluga.ru
    10:09:06.061 4 SMTP-090261(dob.kaluga.ru) resolving 'dob.kaluga.ru'
    10:09:06.120 4 SMTP-090261(dob.kaluga.ru) connecting [0.0.0.0]:0 -> [62.148.148.92]:25
    10:09:06.174 3 SMTP-090261(dob.kaluga.ru) failed to connect to dob.kaluga.ru: [0.0.0.0]:0 -> [62.148.148.92]:25. Error Code=connection refused
    10:09:06.174 4 SMTP(dob.kaluga.ru) re-enqueue
    10:09:06.174 5 SMTP waiting: dob.kaluga.ru   active:
    10:09:06.174 5 SMTP(dob.kaluga.ru) is first in queue with 30 second(s) delay
    10:09:06.174 4 SMTP-090261(dob.kaluga.ru) releasing stream
    10:09:06.174 5 SMTP waiting(get): dob.kaluga.ru   active:
    10:09:06.174 5 SMTP(dob.kaluga.ru) is first in queue with 30 second(s) delay

    [root@mail SystemLogs]$ dig dob.kaluga.ru mx

    ; <<>> DiG 9.11.20-RedHat-9.11.20-5.el8_3.1 <<>> dob.kaluga.ru mx
    ;; global options: +cmd
    ;; Got answer:
    ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 65253
    ;; flags: qr rd ra; QUERY: 1, ANSWER: 1, AUTHORITY: 0, ADDITIONAL: 1

    ;; OPT PSEUDOSECTION:
    ; EDNS: version: 0, flags:; udp: 512
    ;; QUESTION SECTION:
    ;dob.kaluga.ru.                 IN      MX

    ;; ANSWER SECTION:
    dob.kaluga.ru.          3599    IN      MX      10 dob.kaluga.ru.

    ;; Query time: 156 msec
    ;; SERVER: 8.8.8.8#53(8.8.8.8)
    ;; WHEN: Fri May 28 10:29:16 MSK 2021
    ;; MSG SIZE  rcvd: 58

    [root@mail SystemLogs]$ telnet dob.kaluga.ru 25
    Trying 62.148.148.92...
    telnet: connect to address 62.148.148.92: Connection refused
    [root@mail SystemLogs]$ nslookup dob.kaluga.ru
    Server:         8.8.8.8
    Address:        8.8.8.8#53

    Non-authoritative answer:
    Name:   dob.kaluga.ru
    Address: 62.148.148.92


    сообщить модератору +/ответить
  • Ваш сервер отбивает с сообщением, что не может отрезолвить DNS имя в IP Копайте, !*! Andrey (??), 13:02 , 01-Июн-21 (2)
    > Доброго времени суток, Подскажите пжлста, в какую сторону копать по вот этому
    > логу.
    > May 28 09:46:36 mail postfix/smtpd[39861]: warning: hostname mail.is-mis.ru does not resolve
    > to address 81.177.99.17: Name or service not known
    > May 28 09:46:36 mail postfix/smtpd[39861]: connect from unknown[81.177.99.17]

    Ваш сервер отбивает с сообщением, что не может отрезолвить DNS имя в IP.
    Копайте.

    сообщить модератору +/ответить
Помогите разобраться с pf, !*! resus, (Firewall, Фильтрация пакетов / FreeBSD) 30-Янв-21, 00:44  [ | | | ] [линейный вид] [смотреть все]
Доброе время суток всем!

Помогите разобраться с pf: произошло слияние двух географически разнесённых контор. У каждой была (и осталась своя сетка), был настроен канал обмена данными через openvpn. В каждом филиале (теперь) был свой админ. Недавно админ смежного филиала уволился и мне поручили следить за вторым филиалом, пока туда не возьмут нового человека. На той стороне, к счастью, тоже стоит FreeBSD. Я привык к ipfw, а с той стороны - pf. Ещё одна проблема в том, что основные рабочие сетки у нас одинаковые - 192.168.0.0/24.

Пытаюсь настроить мониторилку состояния серверов/шлюзов той сети. Адреса openvpn: 192.168.5.1 - сервер с той стороны, 192.168.5.22 - мой; 192.168.0.8 - один из объектов мониторинга на той стороне (напоминаю, что и у меня сетка 192.168.0.0/24)

На той стороне добавляю в pf.ctl
rdr log on ovpn_if inet proto tcp from 192.168.5.22 to 192.168.10.8 ->192.168.0.8
pass log quick proto udp from 192.168.5.22 to 192.168.0.8
pass log quick proto udp from 192.168.5.22 to 192.168.10.8

ping на 192.168.10.8 отбивается с ответом from 192.168.5.1: Destination Host Unreachable
В pflog ничего не попадает. :( man pf курю уже по третьему кругу, но пока не понимаю, где я не прав.
pf.ctl:

int_if="re0"
int_ip="192.168.0.1"
vid_ip="10.0.0.112"
ext_if="fxp0"
ovpn_if="tun0"

srv="{192.168.0.2, 192.168.0.29, 192.168.0.155}"

1c_otch="{31.13.60.76, 89.188.115.186, 91.239.5.33}"
1c_port="{110, 465}"
mail_port="{25, 110, 465, 993, 995}"
mail_nic_ru="{194.85.88.224/27, 91.189.116.32/28}"
smtp_mail_ru="{94.100.180.160, 217.69.139.160}"

localnet="{192.168.0.0/24, 192.168.1.0/24, 192.168.2.0/24, 192.168.3.0/24, 192.168.5.0/24, 192.168.33.0/24, 192.168.7.242/32, 192.168.7.239/32}"
client_out="{ssh, domain, http, https, 8000, 3128, 8080, ntp}"
udp_services="{domain, ntp, 32769}"
icmp_types="{echoreq, unreach}"

table <1c_ruser> persist file "/etc/1c_ruser"

set skip on lo0
set block-policy drop
set ruleset-optimization basic
set loginterface re0
scrub in all

### mail nic.ru ###
nat on $int_if from $localnet to $mail_nic_ru port $mail_port ->$int_ip
nat on $int_if from 192.168.0.30 to $smtp_mail_ru port {25,465} ->$int_ip

# RDP 1C
nat on $ovpn_if from <1c_ruser> to 192.168.5.22 ->192.168.5.1
# 2 old buserver
nat on $ovpn_if from {192.168.0.2, 192.168.0.46, 192.168.0.65} to 192.168.4.10 ->192.168.5.1
nat on $ovpn_if from {192.168.0.2, 192.168.0.46, 192.168.0.65} to 192.168.4.106 ->192.168.5.1
nat on $ovpn_if from {192.168.0.2, 192.168.0.46, 192.168.0.65} to 192.168.4.165 ->192.168.5.1

###
nat on $int_if from 192.168.2.0/24 to any port 5190 ->$int_ip
### for security scan
nat on vlan3 from 192.168.0.29 to 192.168.2.0/24 -> 192.168.2.154
###

rdr log on ovpn_if inet proto tcp from 192.168.5.22 to 192.168.10.8 ->192.168.0.8

block log all
block quick proto ipv6
block quick proto icmp6 all

pass quick from $localnet to any
pass on $int_if inet proto udp from any to any port $udp_services
pass on $int_if inet proto tcp from any to 192.168.0.1 port 47365
pass in quick on $int_if inet proto tcp from any port 8000 to 192.168.0.1
pass in on $int_if inet proto tcp from any to any port 22
pass in on $int_if inet from 192.168.7.0/24 to 192.168.0.1
pass out quick on $ext_if from $ext_if to any
pass from 192.168.0.164 to any

pass quick proto tcp from 192.168.0.46 to 192.168.4.10 port 3389

pass log quick proto udp from 192.168.5.22 to 192.168.0.8
pass log quick proto udp from 192.168.5.22 to 192.168.10.8

pass quick proto udp from any to 192.168.0.1 port {22, 53, 67}

### Agent ###
pass quick proto tcp from 192.168.15.0/28 to any port {22,53,80,443,4244,5242,8000,8080,8081,8082,8083,8084,8085,8086,8087,8088,8089,8090,8291}
pass quick proto udp from 192.168.15.0/28 to any port {53,123,5243,7987,7985,9785}
pass quick proto tcp from 192.168.15.0/28 to 81.24.214.144 port 10058
pass quick proto icmp from any to 192.168.15.0/28
pass quick proto icmp from 192.168.15.0/28 to any
block in on $ext_if  inet proto icmp all

pass quick proto tcp from 192.168.50.0/30 to any port {22,53,80,443,4244,5242,8000,8080,8081,8082,8083,8084,8085,8086,8087,8088,8089,8090}
pass quick proto udp from 192.168.50.0/30 to any port {53,123,5243,7987,7985,9785}
pass quick proto icmp from any to 192.168.50.0/30
pass quick proto icmp from 192.168.50.0/30 to any
block in on $ext_if  inet proto icmp all

  • Ничего хорошего из этого не получится У вас не одинаковые сетки 192 168 0 0 24, !*! ACCA (ok), 20:06 , 02-Фев-21 (1) +1
    Ничего хорошего из этого не получится. У вас не "одинаковые сетки 192.168.0.0/24", у вас одна сетка 192.168.0.0/24. См. RFC7020.

    Пока не уйдёте от неё, так и придётся заниматься глупостями с каждым адресом хоста.

    Дешёвое решение - поставь tinc и сделай VPN на 2 уровне OSI. "Корпоративное" решение - MPLS и гонять Ethernet через него.

    сообщить модератору +1 +/ответить
Настройка router в exim, !*! korbnik, (Почта / Linux) 21-Май-21, 11:12  [ | | | ] [линейный вид] [смотреть все]
Добрый день!

Подскажите, пожалуйста, правильно ли здесь настроен роутер для
переотправки всей исходящей почты от user@domain.com на хост 192.168.1.14

Установлен exim на Oracle Linux 8.

router_alt:
  driver = manualroute
  transport = remote_smtp
  senders = user@domain.com
  host_find_failed = pass
  route_list = * 192.168.1.14
  no_more
  
Если будут замечания, то буду вам очень благодарен.
  
С уважением, Борис.

Не завершаются imapd процессы на FreeBSD, !*! Jonny_10101, (Почта / FreeBSD) 19-Май-21, 19:39  [ | | | ] [линейный вид] [смотреть все]
Есть проблема на почтовом сервере под freebsd.
Быстро заканчивается память.

При просмотре  ps -axum:


cyrus      352  0.0  0.4  39528 15156  -  I    15:53      0:00.51 imapd: imaps: 110.mcs.mail.ru [WWW.ZZZ.YYY.XXX] user1
cyrus      525  0.0  0.4  39420 14772  -  I    15:55      0:00.58 imapd: imaps: 110.mcs.mail.ru [WWW.ZZZ.YYY.XXX] user2
cyrus      654  0.0  0.4  39968 15872  -  S    15:58      0:06.66 imapd: imaps: 110.mcs.mail.ru [WWW.ZZZ.YYY.XXX] user3
cyrus      891  0.0  0.3  39248 13192  -  I    Sat09      0:22.05 imapd: imaps: picker31.m.smailru.net [WWW.ZZZ.YYY.XXX] user4
cyrus      892  0.0  0.3  39280 13284  -  I    Sat09      0:24.29 imapd: imaps: picker21.m.smailru.net [WWW.ZZZ.YYY.XXX] user5
cyrus      893  0.0  0.3  39556 13440  -  S    Sat09      0:23.66 imapd: imaps: instant44.my.com [WWW.ZZZ.YYY.XXX] user6
cyrus      894  0.0  0.3  39528 13456  -  I    Sat09      0:44.92 imapd: imaps: picker32.m.smailru.net [WWW.ZZZ.YYY.XXX] user7

И так далее, всего более 400 imapd процессов, которые в итоге почти подвешивают систему.
IP и пользователи заменены на YYY и user
Перезагрузка помогает, но ненадолго.
Система досталась "в наследство", в FreeBSD новичок. Подскажите, куда копать?

  • Тебя не побили еще Копать в сторону изучения принципа работы imap в первую очере, !*! Аноним (1), 20:10 , 19-Май-21 (1)
    > Перезагрузка помогает, но ненадолго.

    Тебя не побили еще?

    > Система досталась "в наследство", в FreeBSD новичок. Подскажите, куда копать?

    Копать в сторону изучения принципа работы imap в первую очередь.


    сообщить модератору +/ответить
  • gt оверквотинг удален ps -auxw 124 grep imap 124 wc 518 9181 9252, !*! Денис (??), 08:17 , 20-Май-21 (3)
    >[оверквотинг удален]
    > 39556 13440  -  S    Sat09  
    >     0:23.66 imapd: imaps: instant44.my.com [WWW.ZZZ.YYY.XXX] user6
    > cyrus      894  0.0  0.3  
    > 39528 13456  -  I    Sat09  
    >     0:44.92 imapd: imaps: picker32.m.smailru.net [WWW.ZZZ.YYY.XXX] user7
    > И так далее, всего более 400 imapd процессов, которые в итоге почти
    > подвешивают систему.
    > IP и пользователи заменены на YYY и user
    > Перезагрузка помогает, но ненадолго.
    > Система досталась "в наследство", в FreeBSD новичок. Подскажите, куда копать?

    ps -auxw | grep imap|wc
         518    9181   92525
    16 гб памяти на сервере полет нормальный

    сообщить модератору +/ответить
  • Прежде чем лезть немытыми лапами куда не надо не мешало бы знать чем модель расп, !*! Ann None (?), 12:27 , 20-Май-21 (6)
    Прежде чем лезть немытыми лапами куда не надо не мешало бы знать чем модель распределения памяти FreeBSD отличается от Linux. Тогда меньше глупых вопросов возникает.
    сообщить модератору +/ответить
Последняя версия exim для 6 версии CentOS., !*! korbnik, (Почта / Linux) 14-Май-21, 18:28  [ | | | ] [линейный вид] [смотреть все]
Добрый день!

В связи с уязвимостью exim, подскажите, пожалуйста, где можно скачать exim самой
последней версии для CentOS 6 версии, в которой этой уязвимости нет?

Заранее благодарен.

Борис.

qemu в консольном режиме как?, !*! semen_pochtalion, (Виртуализация) 21-Май-19, 18:01  [ | | | ] [линейный вид] [смотреть все]
не понимаю как заставить qemu работать в консольном режиме, без графики вообще.

есть сервер без монитора, доступен по ssh, надо на нем создать виртуалку в qemu и установить debian7\8\9.

пробую просто запустить qemu пока без диска,

qemu-system-x86_64 -smp 2 -cpu core2duo -enable-kvm -m 4096 -boot d -net "nic,vlan=0,model=pcnet" -net "user,vlan=0" -rtc base=localtime -nographic -curses -cdrom disk.iso

запускается но на экране "800х600 Graphic mode" и все, CTRL+Z CTRL+C не работают, висит сообщение 800х600 и все.

нашел в сети:

apt install sgabios  
Затем, когда вы запускаете QEMU использовать опцию -device сказать virtural машины использовать SGA выхода
qemu-system-i386 -nographic -device sga discimage.bin

но работает оно через опу, на экран выводит нечитаемые символы, не экра а каша.


так-то не проблема сделать все на машине с иксами и закачать образ на сервер, но может есть вариант сделать все без иксов?



pf, rdp и я чего-то не понимаю, !*! Алдр Бов, (Firewall, Фильтрация пакетов / FreeBSD) 20-Апр-21, 20:53  [ | | | ] [линейный вид] [смотреть все]
Доброе время суток всем!

Есть у нас шлюз на FreeBSD 11.1-RELEASE-p15, за которым прячется сетка. В связи с карантинными событиями было дано высочайшее "добро" на работу сотрудникам удалённо, кто может. Для бухгалтерии сделали такой проброс:
1C="192.168.0.164"
rdr on $ext_if inet proto tcp from <rdp_1C> to $ext_IP port = 64128 -> $1C port 3389
pass in on $ext_if inet proto tcp from <rdp_1C> to $ext_IP port = 64128 keep state
pass in on $ext_if inet proto tcp from <rdp_1C> to $1C port = 3389 keep state

Всё вполне нормально работало. Под этот шумок, решили мы немного оптимизировать конфигурацию сети, согласно давно намеченного плана: добавили алиас на сервере 1С и поменяли в pf.conf одну строчку:
1С="192.168.10.164"
Заглянули "снаружи" - залогинились на сервер, повозили мышкой, поклацали на кнопочки - вроде, работает нормально. А утром народ начал жаловаться: пользователь логинится, несколько секунд (от 2 до 5) всё работает нормально, после чего всё замирает, какое-то время циферки на экране ещё меняются, но на мышку/кнопки реакция пропадает и, наконец, появляется сообщение: "Соединение восстанавливается". Да, оно почти тут же восстанавливается, но выпадающие менюшки в формах 1С возвращаются в первоначальное положение, что очень огорчает работающих со справочниками номенклатуры, т.к. через 2-5 секунд это всё опять повторяется.

tcpdump показывает следующее:
[вначале трафик адекватен движениям мышки/нажатию клавиш...]
20:30:43.769503 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [.], seq 98514
:99974, ack 66821, win 63232, length 1460
20:30:43.769592 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [P.], seq 9997
4:100255, ack 66821, win 63232, length 281
20:30:43.779127 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [.], ack 10025
5, win 65535, length 0
20:30:43.814635 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6682
1:66922, ack 100255, win 65535, length 101
20:30:43.863212 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [P.], seq 1002
55:100852, ack 66922, win 63131, length 597
20:30:43.916366 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6692
2:67015, ack 100852, win 64938, length 93
20:30:43.956927 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [P.], seq 1008
52:101017, ack 67015, win 63038, length 165
20:30:44.028054 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6701
5:67116, ack 101017, win 64773, length 101
20:30:44.142358 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6711
6:67161, ack 101017, win 64773, length 45
20:30:44.144013 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [P.], seq 1010
17:101070, ack 67015, win 63038, length 53
20:30:44.244216 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6716
1:67254, ack 101070, win 64720, length 93
20:30:44.267978 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [P.], seq 1008
52:101070, ack 67015, win 63038, length 218

[А вот с этого момента начинается "затык"]
20:30:44.276902 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [.], ack 10107
0, win 64720, length 0
20:30:44.357360 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6725
4:67355, ack 101070, win 64720, length 101
20:30:44.469446 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6735
5:67456, ack 101070, win 64720, length 101
20:30:44.521517 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6701
5:67456, ack 101070, win 64720, length 441
20:30:44.581601 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6745
6:67557, ack 101070, win 64720, length 101
20:30:44.682457 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6755
7:67650, ack 101070, win 64720, length 93
20:30:44.812509 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6765
0:67735, ack 101070, win 64720, length 85
20:30:44.833082 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [.], seq 10107
0:102530, ack 67015, win 63038, length 1460
20:30:44.925610 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6773
5:67836, ack 102530, win 65535, length 101
20:30:45.025510 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6783
6:67929, ack 102530, win 65535, length 93
20:30:45.138049 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6792
9:68030, ack 102530, win 65535, length 101
20:30:45.250429 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6803
0:68131, ack 102530, win 65535, length 101
20:30:45.352424 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6813
1:68224, ack 102530, win 65535, length 93
20:30:45.465986 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6822
4:68325, ack 102530, win 65535, length 101
20:30:45.527680 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 6701
5:68325, ack 102530, win 65535, length 1310

[А дальше пошло переподключение клиента]
20:30:45.577157 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [P.], seq 68325:68426, ack 102530, win 65535, length 101
20:30:45.737120 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [.], seq 101070:102530, ack 67015, win 63038, length 1460
20:30:45.746649 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [.], ack 102530, win 65535, length 0
20:30:45.747201 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [.], seq 102530:103990, ack 67015, win 63038, length 1460
20:30:45.747323 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [P.], seq 103990:105450, ack 67015, win 63038, length 1460
20:30:45.756988 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [.], ack 105450, win 65535, length 0
20:30:45.757377 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [P.], seq 105450:106269, ack 67015, win 63038, length 819
20:30:45.929894 IP $rdp_client_IP.4463 > 192.168.10.164.3389: Flags [.], ack 106269, win 64716, length 0
20:30:46.113430 IP 192.168.10.164.3389 > $rdp_client_IP.4463: Flags [P.], seq 106269:106378, ack 67015, win 63038, length 109

На Фре:
# netstat -rn
Routing tables

Internet:
Destination        Gateway            Flags     Netif Expire
default            188.191.24.1       UGS        fxp0
127.0.0.1          link#3             UH          lo0
хх.хх.хх.0/24      link#2             U          fxp0
$ext_IP            link#2             UHS         lo0
192.168.0.0/24     link#1             U           re0
192.168.0.8        link#1             UHS         lo0
192.168.10.0/24    192.168.0.1        UGS         re0

# ifconfig
re0: flags=88843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST,STATICARP> metric 0 mtu 1500
        options=8209b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,WOL_MAGIC,LINKSTATE>
        ether 20:cf:30:b3:27:46
        hwaddr 20:cf:30:b3:27:46
        inet 192.168.0.8 netmask 0xffffff00 broadcast 192.168.0.255
        nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>
        media: Ethernet autoselect (100baseTX <full-duplex>)
        status: active
fxp0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500
        options=4219b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,TSO4,WOL_MAGIC,VLAN_HWTSO>
        ether 00:02:b3:2d:83:42
        hwaddr 00:02:b3:2d:83:42
        inet $ext_IP netmask 0xffffff00 broadcast $ext_network.255
        nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>
        media: Ethernet autoselect (100baseTX <full-duplex>)
        status: active
lo0: flags=8049<UP,LOOPBACK,RUNNING,MULTICAST> metric 0 mtu 16384
        options=600003<RXCSUM,TXCSUM,RXCSUM_IPV6,TXCSUM_IPV6>
        inet6 ::1 prefixlen 128
        inet6 fe80::1%lo0 prefixlen 64 scopeid 0x3
        inet 127.0.0.1 netmask 0xff000000
        nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL>
        groups: lo

На винде:
Настройка протокола IP для Windows

Ethernet adapter:

   DNS-суффикс подключения . . . . . :
   IPv4-адрес. . . . . . . . . . . . : 192.168.0.164
   Маска подсети . . . . . . . . . . : 255.255.255.0
   IPv4-адрес. . . . . . . . . . . . : 192.168.10.164
   Маска подсети . . . . . . . . . . : 255.255.255.0
   Основной шлюз. . . . . . . . . : 192.168.0.1

Активные маршруты:
Сетевой адрес           Маска сети      Адрес шлюза       Интерфейс  Метрика
          0.0.0.0          0.0.0.0      192.168.0.1    192.168.0.164    266
        127.0.0.0        255.0.0.0         On-link         127.0.0.1    306
        127.0.0.1  255.255.255.255         On-link         127.0.0.1    306
  127.255.255.255  255.255.255.255         On-link         127.0.0.1    306
      192.168.0.0    255.255.255.0         On-link     192.168.0.164    266
    192.168.0.164  255.255.255.255         On-link     192.168.0.164    266
    192.168.0.255  255.255.255.255         On-link     192.168.0.164    266
      192.168.3.0    255.255.255.0     192.168.0.30    192.168.0.164     11
      192.168.5.0    255.255.255.0     192.168.10.1    192.168.0.164     13
     192.168.10.0    255.255.255.0         On-link     192.168.0.164    266
   192.168.10.164  255.255.255.255         On-link     192.168.0.164    266
   192.168.10.255  255.255.255.255         On-link     192.168.0.164    266
        224.0.0.0        240.0.0.0         On-link         127.0.0.1    306
        224.0.0.0        240.0.0.0         On-link     192.168.0.164    266
  255.255.255.255  255.255.255.255         On-link         127.0.0.1    306
  255.255.255.255  255.255.255.255         On-link     192.168.0.164    266
===========================================================================
Постоянные маршруты:
  Сетевой адрес            Маска    Адрес шлюза      Метрика
      192.168.5.0    255.255.255.0     192.168.10.1       3
          0.0.0.0          0.0.0.0     192.168.0.1   По умолчанию
===========================================================================

Кто сталкивался? Что это может быть и как с этим бороться? Спасибо всем заранее за умные мысли!

драйвер raid контроллер LSI megaraid 9341-8i, !*! alekseyrnd, (Файловые системы, диски) 04-Май-21, 18:29  [ | | | ] [линейный вид] [смотреть все]
Доброго времени суток

немогу запустить raid контроллер 9341-8i в proxmox 6.4 (Debian 10.9) в биосе UEFI выключено, так же пробовал ставить Debian 10.9

драйвер последний скачал установил, прошивка контроллера тож актуальная

подскажите где капать


May 4 11:39:45 pve1 kernel: [ 1.654216] megaraid_sas: loading out-of-tree module taints kernel.

May 4 11:39:45 pve1 kernel: [ 1.654809] megaraid_sas 0000:07:00.0: BAR:0x1 BAR’s base_addr(phys):0x0x00000000fcd00000 mapped virt_addr:0x0000000082b0d74c

May 4 11:39:45 pve1 kernel: [ 1.654811] megaraid_sas 0000:07:00.0: FW now in Ready state

May 4 11:39:45 pve1 kernel: [ 1.654813] megaraid_sas 0000:07:00.0: 63 bit DMA mask and 32 bit consistent mask

May 4 11:39:45 pve1 kernel: [ 1.655012] megaraid_sas 0000:07:00.0: firmware supports msix : (96)

May 4 11:39:45 pve1 kernel: [ 1.655573] megaraid_sas 0000:07:00.0: requested/available msix 17/17

May 4 11:39:45 pve1 kernel: [ 1.655573] megaraid_sas 0000:07:00.0: current msix/online cpus : (17/16)

May 4 11:39:45 pve1 kernel: [ 1.655574] megaraid_sas 0000:07:00.0: RDPQ mode : (disabled)

May 4 11:39:45 pve1 kernel: [ 1.655578] megaraid_sas 0000:07:00.0: Current firmware supports maximum commands: 272 LDIO threshold: 237

May 4 11:39:45 pve1 kernel: [ 1.655623] megaraid_sas 0000:07:00.0: Configured max firmware commands: 271

May 4 11:39:45 pve1 kernel: [ 1.655778] megaraid_sas 0000:07:00.0: Performance mode :Latency

May 4 11:39:45 pve1 kernel: [ 1.655778] megaraid_sas 0000:07:00.0: FW supports sync cache : Yes

May 4 11:39:45 pve1 kernel: [ 1.655781] megaraid_sas 0000:07:00.0: megasas_disable_intr_fusion is called outbound_intr_mask:0x40000009

May 4 11:39:45 pve1 kernel: [ 1.677080] megaraid_sas 0000:07:00.0: Init cmd return status FAILED for SCSI host 5

May 4 11:39:45 pve1 kernel: [ 1.677661] megaraid_sas 0000:07:00.0: Failed from megasas_init_fw 6694

DHCP не отдает static-routes клиентам vpn, !*! Аноним, (DHCP / FreeBSD) 27-Апр-21, 09:15  [ | | | ] [линейный вид] [смотреть все]
имеется работающий сервер softether + ISC-DHCP для раздачи адресов и маршрутов клиентам.
Сервер с двумя сетевыми + tap-интерфейс softether:
# ifconfig
bge0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500
        options=c019b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,TSO4,VLAN_HWTSO,LINKSTATE>
        ether 08:02:ef:29:a6:94
        inet xx.xx.xx.xx netmask 0xffffff00 broadcast xx.xx.xx.xx
        media: Ethernet autoselect (1000baseT <full-duplex>)
        status: active
        nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>
bge1: flags=8943<UP,BROADCAST,RUNNING,PROMISC,SIMPLEX,MULTICAST> metric 0 mtu 1500
        options=c0099<RXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,VLAN_HWTSO,LINKSTATE>
        ether 08:02:ef:29:a6:95
        inet 10.0.9.3 netmask 0xff000000 broadcast 10.255.255.255
        media: Ethernet autoselect (1000baseT <full-duplex>)
        status: active
        nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>
lo0: flags=8049<UP,LOOPBACK,RUNNING,MULTICAST> metric 0 mtu 16384
        options=680003<RXCSUM,TXCSUM,LINKSTATE,RXCSUM_IPV6,TXCSUM_IPV6>
        inet 127.0.0.1 netmask 0xff000000
        groups: lo
        nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL>
ue0: flags=8802<BROADCAST,SIMPLEX,MULTICAST> metric 0 mtu 1500
        ether 0a:94:ef:29:e6:9b
        nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>
pflog0: flags=141<UP,RUNNING,PROMISC> metric 0 mtu 33160
        groups: pflog
tap_vpn: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500
        options=80000<LINKSTATE>
        ether 5e:ac:ef:ce:9b:60
        hwaddr 58:96:fc:10:11:09
        inet 172.16.0.1 netmask 0xffff0000 broadcast 172.16.255.255
        groups: tap
        media: Ethernet autoselect
        status: active
        nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL>
        Opened by PID 1281

DHCP сконфигурирован следующим образом:

# less /etc/rc.conf| grep dhcp
dhcpd_enable="YES"
dhcpd_flags="-4"
dhcpd_conf="/usr/local/etc/dhcpd.conf"
dhcpd_ifaces="tap_vpn bge1"

# less /usr/local/etc/dhcpd.conf
ddns-update-style none;
log-facility local7;

option ms-static-routes code 249 = array of unsigned integer 8;
option rfc-static-routes code 121 = array of unsigned integer 8;

subnet 172.16.0.0 netmask 255.255.0.0 {
  authoritative;
  range 172.16.0.10 172.16.255.254;
  option domain-name-servers 10.0.1.2, 10.0.1.4;
  option netbios-node-type 8;
  option routers 172.16.0.1;
  option broadcast-address 172.16.255.255;
  option ms-static-routes 8,10, 172,16,0,1, 24,192,168,30, 172,16,0,1;
  option rfc-static-routes 8,10, 172,16,0,1, 24,192,168,30, 172,16,0,1;
  default-lease-time 600;
  max-lease-time 7200;
}

Это работает, клиент по vpn подключается, получает адрес из сети 172.16.0.0 и маршруты для 10.0.0.0/8 и 192.168.30.0/24:

IPv4 таблица маршрута
===========================================================================
Активные маршруты:
Сетевой адрес           Маска сети      Адрес шлюза       Интерфейс  Метрика
          0.0.0.0          0.0.0.0      192.168.1.1    192.168.1.216   4250
          0.0.0.0          0.0.0.0         On-link       172.16.0.20     26
         10.0.0.0        255.0.0.0         On-link       172.16.0.20     26
   10.255.255.255  255.255.255.255         On-link       172.16.0.20    281
        127.0.0.0        255.0.0.0         On-link         127.0.0.1   4556
        127.0.0.1  255.255.255.255         On-link         127.0.0.1   4556
  127.255.255.255  255.255.255.255         On-link         127.0.0.1   4556
       172.16.0.0      255.255.0.0         On-link       172.16.0.20     26
      172.16.0.20  255.255.255.255         On-link       172.16.0.20    281
   172.16.255.255  255.255.255.255         On-link       172.16.0.20    281
      192.168.1.0    255.255.255.0         On-link     192.168.1.216   4506
    192.168.1.216  255.255.255.255         On-link     192.168.1.216   4506
    192.168.1.255  255.255.255.255         On-link     192.168.1.216   4506
     192.168.30.0    255.255.255.0         On-link       172.16.0.20     26
   192.168.30.255  255.255.255.255         On-link       172.16.0.20    281
        224.0.0.0        240.0.0.0         On-link         127.0.0.1   4556
        224.0.0.0        240.0.0.0         On-link     192.168.1.216   4506
        224.0.0.0        240.0.0.0         On-link       172.16.0.20     26
  255.255.255.255  255.255.255.255         On-link         127.0.0.1   4556
  255.255.255.255  255.255.255.255         On-link     192.168.1.216   4506
  255.255.255.255  255.255.255.255         On-link       172.16.0.20    281
===========================================================================

Но с недавних пор группа товарищей кровь из носу захотела получать адреса непременно из внутренней сети 10.0.9.х. Дописал в конфиг dhcp subnet по аналогии

subnet 10.0.9.0 netmask 255.255.255.0 {
  authoritative;
  range 10.0.9.240 10.0.9.254;
  option domain-name-servers 10.0.1.2, 10.0.1.4;
  option netbios-node-type 8;
  option routers 10.0.9.1;
  option broadcast-address 10.0.9.255;
  option ms-static-routes  24,192,168,30, 10,0,9,1;
  option rfc-static-routes 24,192,168,30, 10,0,9,1;
  default-lease-time 600;
  max-lease-time 7200;
}

В softether, соответственно, добавил второй бридж к внутренней сетевой карте bge1

VPN Server/HUB0-LOCAL>BridgeList
BridgeList command - Get List of Local Bridge Connection
Number|Virtual Hub Name|Network Adapter or Tap Device Name|Status
------+----------------+----------------------------------+---------
1     |HUB0            |vpn                               |Operating
2     |HUB0-LOCAL      |bge1                              |Operating
The command completed successfully.

Клиент подключается, получает адрес из подсети 10.0.9.х, а вот маршрут к закрытой сетке 192.168.30.0/24 - почему-то не хочет передаваться:

IPv4 таблица маршрута
===========================================================================
Активные маршруты:
Сетевой адрес           Маска сети      Адрес шлюза       Интерфейс  Метрика
          0.0.0.0          0.0.0.0      192.168.1.1    192.168.1.216   4250
          0.0.0.0          0.0.0.0         On-link        10.0.9.250     26
       10.0.9.250  255.255.255.255         On-link        10.0.9.250    281
        127.0.0.0        255.0.0.0         On-link         127.0.0.1   4556
        127.0.0.1  255.255.255.255         On-link         127.0.0.1   4556
  127.255.255.255  255.255.255.255         On-link         127.0.0.1   4556
      192.168.1.0    255.255.255.0         On-link     192.168.1.216   4506
    192.168.1.216  255.255.255.255         On-link     192.168.1.216   4506
    192.168.1.255  255.255.255.255         On-link     192.168.1.216   4506
        224.0.0.0        240.0.0.0         On-link         127.0.0.1   4556
        224.0.0.0        240.0.0.0         On-link     192.168.1.216   4506
        224.0.0.0        240.0.0.0         On-link        10.0.9.250     26
  255.255.255.255  255.255.255.255         On-link         127.0.0.1   4556
  255.255.255.255  255.255.255.255         On-link     192.168.1.216   4506
  255.255.255.255  255.255.255.255         On-link        10.0.9.250    281
===========================================================================

Пока вышли из положения прописыванием маршрута на клиенте вручную.
Но вопрос "почему так" и "что делать" - остался. Почему в одном случае маршруты отсылаются клиенту, а в другом - нет? И как это поправить?

  • gt оверквотинг удален выкинуть ICS и поставить dnsmasq, !*! pavel_simple. (?), 16:19 , 28-Апр-21 (1)
    >[оверквотинг удален]
    >   255.255.255.255  255.255.255.255        
    >  On-link     192.168.1.216   4506
    >   255.255.255.255  255.255.255.255        
    >  On-link        10.0.9.250  
    >   281
    > ===========================================================================
    > Пока вышли из положения прописыванием маршрута на клиенте вручную.
    > Но вопрос "почему так" и "что делать" - остался. Почему в одном
    > случае маршруты отсылаются клиенту, а в другом - нет? И как
    > это поправить?

    выкинуть ICS и поставить dnsmasq

    сообщить модератору +/ответить
  • ВПН При чём тут dhcp Информацию о маршрутах клиенту впн обычно передаёт впн-се, !*! Алдр Бов (?), 13:14 , 29-Апр-21 (3) –1
    > Это работает, клиент по vpn подключается, получает адрес из сети 172.16.0.0 и маршруты для 10.0.0.0/8 и 192.168.30.0/24:

    ВПН? При чём тут dhcp? Информацию о маршрутах клиенту впн обычно передаёт впн-сервер. Из тех, что мне известны. Не исключаю, что есть какие-то ещё реализации впн, которые пользуются для настроек клиента dhcp-сервером, но я с такими пока не работал.

    Вас, кстати, совсем не смущает разница в настройках dhcpd и получаемыми клиентом? Меня - сильно. Что-то вы нам не договариваете или сами сильно не понимаете.

    >  option routers 10.0.9.1;
    >          0.0.0.0          0.0.0.0         On-link       172.16.0.20     26
    >         10.0.0.0        255.0.0.0         On-link       172.16.0.20     26

                                                                        ^^^^^^^^^^^^^^^^^^^^^
    Здесь глаз совсем ни за что не цепляется?

    >   range 10.0.9.240 10.0.9.254;
    >   option domain-name-servers 10.0.1.2, 10.0.1.4;
    >   option netbios-node-type 8;
    >   option routers 10.0.9.1;
    >   option broadcast-address 10.0.9.255;
    >   option ms-static-routes  24,192,168,30, 10,0,9,1;
    >   option rfc-static-routes 24,192,168,30, 10,0,9,1;
    >   default-lease-time 600;
    >   max-lease-time 7200;
    > }

    Может, я чего-то не понимаю, но какой смысл прописывать клиентам отдельный маршрут на defaultgw? Клиенты - M$? Если да - у них своя особая логика и маршрут, поглощаемый основным вполне может отбрасываться. Но!...

    Во втором диапазоне тоже есть очень странные расхождения:
    >  option routers 10.0.9.1;
    >          0.0.0.0          0.0.0.0         On-link        10.0.9.250     26

    Очень похоже, что Вы пользуете openvpn, но тогда и настройки надо ковырять не в несчастном dhcpd, а в впн-сервере. "Мухи - отдельно, котлеты - отдельно" - не надо всё смешивать в одну кучу.

    сообщить модератору –1 +/ответить
  • gt оверквотинг удален 1 На клиенте wireshark-ок слушаете интерфейс и смотрите, !*! fantom (??), 15:38 , 29-Апр-21 (6)
    >[оверквотинг удален]
    >   255.255.255.255  255.255.255.255        
    >  On-link     192.168.1.216   4506
    >   255.255.255.255  255.255.255.255        
    >  On-link        10.0.9.250  
    >   281
    > ===========================================================================
    > Пока вышли из положения прописыванием маршрута на клиенте вручную.
    > Но вопрос "почему так" и "что делать" - остался. Почему в одном
    > случае маршруты отсылаются клиенту, а в другом - нет? И как
    > это поправить?

    1. На клиенте wireshark-ок слушаете интерфейс и смотрите содержимое пакета -- есть ваши опции или нет.
    2. Логи никто не отменял.

    сообщить модератору +/ответить
Самба убивает файлы, !*! pavlinux, (Samba, выделена в отдельный форум / Linux) 04-Май-21, 02:09  [ | | | ] [линейный вид] [смотреть все]
Если отправляю со смарта видео файлы *.MP4, *.MOV,*.HEIC, то
после завершения передачи они удаляются. Когда передаю фотки, то всё нормально.

Вот лог при передаче видео.


...
...
smb2: fnum 2771293725, file camvideo_408844ac.MP4, length=65536 offset=0 wrote=65536
smb2: fnum 2771293725, file camvideo_408844ac.MP4, length=65536 offset=0 wrote=65536
smb2: fnum 2771293725, file camvideo_408844ac.MP4, length=65536 offset=0 wrote=65536
smb2: fnum 2771293725, file camvideo_408844ac.MP4, length=65536 offset=0 wrote=65536
smb2: fnum 2771293725, file camvideo_408844ac.MP4, length=46489 offset=0 wrote=46489
root closed file camvideo_408844ac.MP4 (numopen=0) NT_STATUS_OK
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[camvideo_408844ac.MP4] found camvideo_408844ac.MP4 fname=camvideo_408844ac.MP4 (camvideo_408844ac.MP4)
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[camvideo_408844ac.MP4] found camvideo_408844ac.MP4 fname=camvideo_408844ac.MP4 (camvideo_408844ac.MP4)
root opened file camvideo_408844ac.MP4 read=No write=No (numopen=1)
root closed file camvideo_408844ac.MP4 (numopen=0) NT_STATUS_OK
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[camvideo_408844ac.MP4] found camvideo_408844ac.MP4 fname=camvideo_408844ac.MP4 (camvideo_408844ac.MP4)
smbd_do_qfsinfo: level = 1003
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[camvideo_408844ac.MP4] found camvideo_408844ac.MP4 fname=camvideo_408844ac.MP4 (camvideo_408844ac.MP4)
root opened file camvideo_408844ac.MP4 read=Yes write=No (numopen=1)
root opened file camvideo_408844ac.MP4 read=No write=No (numopen=2)
root closed file camvideo_408844ac.MP4 (numopen=1) NT_STATUS_OK
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[1] status[NT_STATUS_OBJECT_NAME_NOT_FOUND] || at ../source3/smbd/smb2_create.c:296
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[5] status[NT_STATUS_FILE_CLOSED] || at ../source3/smbd/smb2_server.c:2599
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[9] status[NT_STATUS_FILE_CLOSED] || at ../source3/smbd/smb2_server.c:2599
creating new dirptr 0 for path ., expect_close = 0
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[5] status[NT_STATUS_NO_SUCH_FILE] || at ../source3/smbd/smb2_query_directory.c:158
root opened file camvideo_408844ac.MP4 read=No write=No (numopen=2)
smbd_do_setfilepathinfo: camvideo_408844ac.MP4 (fnum 3692989460) info_level=65290 totdata=60
rename_internals_fsp: succeeded doing rename on camvideo_408844ac.MP4 -> .nfs.20051031.00f7
root closed file .nfs.20051031.00f7 (numopen=1) NT_STATUS_OK
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[.nfs.20051031.00f7] found .nfs.20051031.00f7 fname=.nfs.20051031.00f7 (.nfs.20051031.00f7)
root closed file .nfs.20051031.00f7 (numopen=0) NT_STATUS_OK
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[.nfs.20051031.00f7] found .nfs.20051031.00f7 fname=.nfs.20051031.00f7 (.nfs.20051031.00f7)
root opened file .nfs.20051031.00f7 read=No write=No (numopen=1)
smbd_do_setfilepathinfo: .nfs.20051031.00f7 (fnum 2787744222) info_level=1013 totdata=1
root closed file .nfs.20051031.00f7 (numopen=0) NT_STATUS_OK


Фотка


smb2: fnum 3022153035, file IMG_4583.jpg, length=65536 offset=0 wrote=65536
smb2: fnum 3022153035, file IMG_4583.jpg, length=26433 offset=0 wrote=26433
smb2: fnum 3022153035, file IMG_4583.jpg, length=65536 offset=0 wrote=65536
root closed file IMG_4583.jpg (numopen=0) NT_STATUS_OK
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
smbd_do_qfsinfo: level = 1003
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
root opened file IMG_4583.jpg read=Yes write=No (numopen=1)
root opened file IMG_4583.jpg read=No write=No (numopen=2)
root closed file IMG_4583.jpg (numopen=1) NT_STATUS_OK
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
root opened file IMG_4583.jpg read=No write=Yes (numopen=2)
smbd_do_setfilepathinfo: IMG_4583.jpg (fnum 2414260208) info_level=1004 totdata=40
root closed file IMG_4583.jpg (numopen=1) NT_STATUS_OK
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
root opened file IMG_4583.jpg read=Yes write=Yes (numopen=2)
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[1] status[NT_STATUS_OBJECT_NAME_NOT_FOUND] || at ../source3/smbd/smb2_create.c:296
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[5] status[NT_STATUS_FILE_CLOSED] || at ../source3/smbd/smb2_server.c:2599
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[9] status[NT_STATUS_FILE_CLOSED] || at ../source3/smbd/smb2_server.c:2599
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[1] status[NT_STATUS_OBJECT_NAME_NOT_FOUND] || at ../source3/smbd/smb2_create.c:296
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[5] status[NT_STATUS_FILE_CLOSED] || at ../source3/smbd/smb2_server.c:2599
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[9] status[NT_STATUS_FILE_CLOSED] || at ../source3/smbd/smb2_server.c:2599
root closed file IMG_4583.jpg (numopen=1) NT_STATUS_OK
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)
root opened file IMG_4583.jpg read=Yes write=Yes (numopen=2)
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[1] status[NT_STATUS_OBJECT_NAME_NOT_FOUND] || at ../source3/smbd/smb2_create.c:296
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[5] status[NT_STATUS_FILE_CLOSED] || at ../source3/smbd/smb2_server.c:2599
smbd_smb2_request_error_ex: smbd_smb2_request_error_ex: idx[9] status[NT_STATUS_FILE_CLOSED] || at ../source3/smbd/smb2_server.c:2599
root closed file IMG_4583.jpg (numopen=1) NT_STATUS_OK
root closed file IMG_4583.jpg (numopen=0) NT_STATUS_OK
creating new dirptr 0 for path ., expect_close = 0
smbd_dirptr_get_entry mask=[IMG_4583.jpg] found IMG_4583.jpg fname=IMG_4583.jpg (IMG_4583.jpg)

Видосы пытается переименовать в какие-то файлы типа .nfs.20051031.00f7




 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру