The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Присылайте удачные настройки в раздел примеров файлов конфигурации на WIKI.opennet.ru.
Форум Открытые системы на сервере
Помогите запустить sendmail, !*! simonflex, (Почта / Linux) 25-Фев-21, 16:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Уважаемые Гуру подскажите как запустить sendmail в качестве внешнего smtp. Не могу осилить.
Поставил из коропки (Debian 10). Создал юзера info c групой mail. C локального хоста MSG улетают нормально, проблем нет.

senmail.mc

FEATURE(`no_default_msa')dnl
dnl DAEMON_OPTIONS(`Family=inet6, Name=MTA-v6, Port=smtp, Addr=::1')dnl
DAEMON_OPTIONS(`Family=inet,  Name=MTA-v4, Port=smtp, Addr=0.0.0.0')dnl
dnl DAEMON_OPTIONS(`Family=inet6, Name=MSP-v6, Port=submission, M=Ea, Addr=::1')dnl
DAEMON_OPTIONS(`Family=inet,  Name=MSP-v4, Port=submission, M=Ea, Addr=0.0.0.0')dnl

dnl #
dnl # Be somewhat anal in what we allow
define(`confPRIVACY_FLAGS',dnl
`needmailhelo,needexpnhelo,needvrfyhelo,restrictqrun,restrictexpand,nobodyreturn,authwarnings')dnl
dnl #
dnl # Define connection throttling and window length
define(`confCONNECTION_RATE_THROTTLE', `15')dnl
define(`confCONNECTION_RATE_WINDOW_SIZE',`10m')dnl
dnl #
dnl # Features
dnl #
dnl # use /etc/mail/local-host-names
FEATURE(`use_cw_file')dnl
dnl #
dnl # The access db is the basis for most of sendmail's checking
FEATURE(`access_db', , `skip')dnl
dnl #
dnl # The greet_pause feature stops some automail bots - but check the
dnl # provided access db for details on excluding localhosts...
FEATURE(`greet_pause', `1000')dnl 1 seconds
dnl #
dnl # Delay_checks allows sender<->recipient checking
FEATURE(`delay_checks', `friend', `n')dnl
dnl #
dnl # If we get too many bad recipients, slow things down...
define(`confBAD_RCPT_THROTTLE',`3')dnl
dnl #
dnl # Stop connections that overflow our concurrent and time connection rates
FEATURE(`conncontrol', `nodelay', `terminate')dnl
FEATURE(`ratecontrol', `nodelay', `terminate')dnl
dnl #
dnl # If you're on a dialup link, you should enable this - so sendmail
dnl # will not bring up the link (it will queue mail for later)
dnl define(`confCON_EXPENSIVE',`True')dnl
dnl #
dnl # Dialup/LAN connection overrides
dnl #
include(`/etc/mail/m4/dialup.m4')dnl
include(`/etc/mail/m4/provider.m4')dnl
dnl #
dnl # Default Mailer setup
MAILER_DEFINITIONS
MAILER(`local')dnl
MAILER(`smtp')dnl

--------------------
lsof -inP

sendmail- 26821     root    4u  IPv4 21300391      0t0  TCP *:25 (LISTEN)
sendmail- 26821     root    5u  IPv4 21300392      0t0  TCP *:587 (LISTEN)

C микротика пытаюсь отправить msg. в ответ
Error sending e-mail <TEST>: AUTH method not supported

на стороне хоста
domain.zx [XXX.XX.XX.XX] did not issue MAIL/EXPN/VRFY/ETRN during connection to MTA-v4

Помогите плз



mysql. пользователи и бд, !*! Bolek, (Разное / Linux) 23-Фев-21, 01:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
добрый день.
есть mariadb
mysql -V
mysql  Ver 15.1 Distrib 5.5.68-MariaDB, for Linux (x86_64) using readline 5.1

создал бд
MariaDB [none]> create database testdb;

создал пользователя
MariaDB [none]> create user testuser identified by 'testpass';

дал пользователю права на бд
MariaDB [none]> grant all privileges on testdb.* to testuser;
MariaDB [none]> flush privileges;

возможно ли сделать так, чтобы пользователь при вводе
mysql -u testuser -p подключался только к "своей" базе?
в какую сторону копать?



Помогите выполнить порядок создания само подписанного сертифика, !*! simonflex, (Почта / Linux) 21-Фев-21, 14:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем доброго времени суток.

Имеется рэлей sendmail на внешнем хосте. С него локально можно слать служебные сообщения. Хотел его использовать в качестве SMTP для отправки служебных сообщений с микротиков. Но вот не задача, что-то проблемы с отправкой. Решил прикрутить TLS сертификаты, может в этом проблема. Но вот столкнулся как правильно сгенерить само подписанный сертификат. Куча манов и всюду по разному. Помогите с этим как правильно сделать.

freeradius 3, подмена user-name, !*! masz, (Авторизация и аутентификация, LDAP) 20-Фев-21, 15:22  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!

Может кто поможет побороть или направить в нужное направление.
Имеем сеть с авторизацией по option82(vlan+port):
- option82
- option82+mac
сейчас пытаюсь внедрить ipv6, потому добавляем авторизацию по:
- option37

Freeradius mysql + files, так как username в mysql уникальное значение, а за портом может быть больше одго dhcp-client их пишем в файлы с дополнительным параметром calling-station-id(то есть МАС-адрес). На данный момент, без option37 все работает, в радиус подменяем username на DHCP-RelayCircuitId. И можно было бы закрыть глаза на небольшие костыли в виде mysql + files, но так как хочеться еще внедрить ipv6, надо иметь username = DHCPv6-RelayCircuitId.

Вот собственно и вопрос, как сделать подмену username на нужный параметр в запросе? Если есть option82 то (username=dhcp-relaycircuitid), если есть option37 то (username=dhcpv6-relaycircuitid), если нет ничего то (username).

Спасибо!

CentOS 8 на Hyper-v кластере, !*! coolaggregator2020, (Разное) 03-Фев-21, 17:41  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый вечер.
Проблема с установкой CentOS 8.x на кластер Hyper-v:
- во втором поколении - чёрный экран с немигающим курсором
- в первом поколении - сразу же Kernel Panic
Troubleshooting ничего не даёт: при попытке теста iso-шника или запуска rescue, тоже kernel panic.
С CentOS <8 таких проблем не было, вставали влёт.
Заранее благодарен за любую помощь.
Libreswan - пакеты с хостов сети не идут в туннель , !*! Skif, (VPN / Linux) 30-Янв-21, 08:11  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
есть поднятый туннель между подсетью 192.168.250.0/24 и 192.168.2.0/24. В целом туннель работает данные между маршрутизатором в сети 192.168.250.0/24 и хостами в 192.168.2.0/24 - бегают. а вот к хостам в сети 192.168.250.0/24 из 192.168.2.0/24 - не достучаться.

Сеть 192.168.2.0/24 - спрятана за NSX Edge
Сеть 192.168.250.0/24 - поднят Libreswan на сервер в локалке и этот сервер находится за NAT.

Сервер:
$ lsb_release -a
No LSB modules are available.
Distributor ID:    Ubuntu
Description:    Ubuntu 18.04.5 LTS
Release:    18.04
Codename:    bionic


$ ifconfig
ens160: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.250.2  netmask 255.255.255.0  broadcast 192.168.250.255
        inet6 fe80::250:56ff:fea1:997d  prefixlen 64  scopeid 0x20<link>
        ether 00:50:56:a1:99:7d  txqueuelen 1000  (Ethernet)
        RX packets 68679538  bytes 18707430743 (18.7 GB)
        RX errors 0  dropped 8  overruns 0  frame 0
        TX packets 50187520  bytes 5291809224 (5.2 GB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10<host>
        loop  txqueuelen 1000  (Local Loopback)
        RX packets 23503072  bytes 1881838589 (1.8 GB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 23503072  bytes 1881838589 (1.8 GB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0


таблица маршрутов

$ sudo netstat -rn
Kernel IP routing table
Destination     Gateway         Genmask         Flags   MSS Window  irtt Iface
0.0.0.0         192.168.250.1   0.0.0.0         UG        0 0          0 ens160
10.77.45.21     192.168.250.1   255.255.255.255 UGH       0 0          0 ens160
10.160.35.41    192.168.250.1   255.255.255.255 UGH       0 0          0 ens160
10.160.35.42    192.168.250.1   255.255.255.255 UGH       0 0          0 ens160
10.160.35.43    192.168.250.1   255.255.255.255 UGH       0 0          0 ens160
10.160.35.44    192.168.250.1   255.255.255.255 UGH       0 0          0 ens160
10.236.20.1     192.168.250.1   255.255.255.255 UGH       0 0          0 ens160
172.19.7.5      192.168.250.1   255.255.255.255 UGH       0 0          0 ens160
a.a.a.a         192.168.250.1   255.255.255.255 UGH       0 0          0 ens160
192.168.1.0     192.168.250.1   255.255.255.0   UG        0 0          0 ens160
192.168.2.0     0.0.0.0         255.255.255.0   U         0 0          0 ens160
192.168.250.0   0.0.0.0         255.255.255.0   U         0 0          0 ens160
b.b.b.b         192.168.250.1   255.255.255.255 UGH       0 0          0 ens160
c.c.c.c         192.168.250.1   255.255.255.240 UG        0 0          0 ens160

Версия либры
$ dpkg -l | grep libreswan| awk '{print $2,$3}'
libreswan 3.23-4

Конфиг:
conn dtln2
        type=           tunnel
        authby=         secret

        left=           192.168.250.2
        leftid=         x.x.x.x
        leftsubnet=     192.168.250.0/24
        leftnexthop=    %defaultroute
        leftsourceip=   192.168.250.2

        right=          y.y.y.y
        rightsubnet=    192.168.2.0/24
        rightnexthop=   %defaultroute

        ike=            aes256-sha1-modp1536
        ikelifetime=    28800
        salifetime=     3600
        pfs=            yes
        rekey=          yes
        keyingtries=    %forever
        phase2alg=      aes256-sha1;modp1536
        auto=           start

        dpddelay=       3
        dpdtimeout=     10
        dpdaction=      restart_by_peer

        keyexchange=ike
        ikev2=insist

$ sudo ip xfrm state
...
src y.y.y.y dst 192.168.250.2
    proto esp spi 0x928bcbae reqid 16393 mode tunnel
    replay-window 32 flag af-unspec
    auth-trunc hmac(sha1) 0xf46e08a..... 96
    enc cbc(aes) 0xd5d8....
    encap type espinudp sport 4500 dport 4500 addr 0.0.0.0
    anti-replay context: seq 0x1369, oseq 0x0, bitmap 0xffffffff
src 192.168.250.2 dst y.y.y.y
    proto esp spi 0xcee160c8 reqid 16393 mode tunnel
    replay-window 32 flag af-unspec
    auth-trunc hmac(sha1) 0x37a6626..... 96
    enc cbc(aes) 0x12789....
    encap type espinudp sport 4500 dport 4500 addr 0.0.0.0
    anti-replay context: seq 0x0, oseq 0xddd, bitmap 0x00000000
...

$ sudo ip xfrm policy
...
src 192.168.250.0/24 dst 192.168.2.0/24
    dir out priority 2344
    tmpl src 192.168.250.2 dst y.y.y.y
        proto esp reqid 16393 mode tunnel
src 192.168.2.0/24 dst 192.168.250.0/24
    dir fwd priority 2344
    tmpl src y.y.y.y dst 192.168.250.2
        proto esp reqid 16393 mode tunnel
src 192.168.2.0/24 dst 192.168.250.0/24
    dir in priority 2344
    tmpl src y.y.y.y dst 192.168.250.2
        proto esp reqid 16393 mode tunnel
...
src ::/0 dst ::/0
    socket out priority 0
src ::/0 dst ::/0
    socket in priority 0
src 0.0.0.0/0 dst 0.0.0.0/0
    socket out priority 0
src 0.0.0.0/0 dst 0.0.0.0/0
    socket in priority 0
src 0.0.0.0/0 dst 0.0.0.0/0
    socket out priority 0
src 0.0.0.0/0 dst 0.0.0.0/0
    socket in priority 0
src 0.0.0.0/0 dst 0.0.0.0/0
    socket out priority 0
src 0.0.0.0/0 dst 0.0.0.0/0
    socket in priority 0
src 0.0.0.0/0 dst 0.0.0.0/0
    socket out priority 0
src 0.0.0.0/0 dst 0.0.0.0/0
    socket in priority 0
src ::/0 dst ::/0 proto ipv6-icmp type 135
    dir out priority 1
src ::/0 dst ::/0 proto ipv6-icmp type 135
    dir fwd priority 1
src ::/0 dst ::/0 proto ipv6-icmp type 135
    dir in priority 1
src ::/0 dst ::/0 proto ipv6-icmp type 136
    dir out priority 1
src ::/0 dst ::/0 proto ipv6-icmp type 136
    dir fwd priority 1
src ::/0 dst ::/0 proto ipv6-icmp type 136
    dir in priority 1

$ sudo iptables -L
Chain INPUT (policy ACCEPT)
target     prot opt source               destination        
f2b-sshd   tcp  --  anywhere             anywhere             multiport dports ssh

Chain FORWARD (policy ACCEPT)
target     prot opt source               destination        
ACCEPT     all  --  192.168.250.0/24     192.168.2.0/24      
ACCEPT     all  --  192.168.2.0/24       192.168.250.0/24    

Chain OUTPUT (policy ACCEPT)
target     prot opt source               destination        

Chain f2b-sshd (1 references)
target     prot opt source               destination        
...


Вот как ведёт себя хост из сети 192.168.2.0/24 (192.168.2.19)
Проверяем доступность маршрутизатора:

ist@mdp-tfk-2:~$ ping 192.168.250.2
PING 192.168.250.2 (192.168.250.2) 56(84) bytes of data.
64 bytes from 192.168.250.2: icmp_seq=1 ttl=63 time=1.80 ms
64 bytes from 192.168.250.2: icmp_seq=2 ttl=63 time=1.98 ms
^C
--- 192.168.250.2 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1002ms
rtt min/avg/max/mdev = 1.806/1.897/1.988/0.091 ms

Все пакеты прошли
Проверяем доступ к хосту за маршрутизатором

ist@mdp-tfk-2:~$ ping 192.168.250.20
PING 192.168.250.20 (192.168.250.20) 56(84) bytes of data.
64 bytes from 192.168.250.20: icmp_seq=1 ttl=62 time=2.15 ms
^C
--- 192.168.250.20 ping statistics ---
3 packets transmitted, 1 received, 66% packet loss, time 2016ms
rtt min/avg/max/mdev = 2.159/2.159/2.159/0.000 ms
ist@mdp-tfk-2:~$

Проскакивает первый пакет , а потом тишина.

Со стороны сети 192.168.250.0/24.
С маршрутизатора (192.168.250.2)
$ ping 192.168.2.19
PING 192.168.2.19 (192.168.2.19) 56(84) bytes of data.
64 bytes from 192.168.2.19: icmp_seq=1 ttl=63 time=2.26 ms
64 bytes from 192.168.2.19: icmp_seq=2 ttl=63 time=2.12 ms
64 bytes from 192.168.2.19: icmp_seq=3 ttl=63 time=2.05 ms
^C
--- 192.168.2.19 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2002ms
rtt min/avg/max/mdev = 2.058/2.151/2.269/0.102 ms

С хоста в сети (192.168.250.222)
$ ping 192.168.2.19
PING 192.168.2.19 (192.168.2.19) 56(84) bytes of data.
From 192.168.250.2 icmp_seq=1 Redirect Host(New nexthop: 192.168.2.19)
From 192.168.250.2: icmp_seq=1 Redirect Host(New nexthop: 192.168.2.19)
64 bytes from 192.168.2.19: icmp_seq=1 ttl=62 time=2.56 ms
From 192.168.250.222 icmp_seq=2 Destination Host Unreachable
From 192.168.250.222 icmp_seq=3 Destination Host Unreachable
From 192.168.250.222 icmp_seq=4 Destination Host Unreachable
From 192.168.250.222 icmp_seq=5 Destination Host Unreachable
From 192.168.250.2 icmp_seq=6 Redirect Host(New nexthop: 192.168.2.19)
From 192.168.250.2: icmp_seq=6 Redirect Host(New nexthop: 192.168.2.19)
64 bytes from 192.168.2.19: icmp_seq=6 ttl=62 time=2.52 ms
^C
--- 192.168.2.19 ping statistics ---
8 packets transmitted, 2 received, +6 errors, 75% packet loss, time 7003ms
rtt min/avg/max/mdev = 2.524/2.542/2.560/0.018 ms, pipe 4
[eyeline@gw-01 ~]$

Если судить по доке https://libreswan.org/wiki/Subnet_to_subnet_VPN - всё сделано верно. А не работает для всей подсети

Может кто-то подсказать, где затык?

Помогите разобраться с pf, !*! resus, (Firewall, Фильтрация пакетов / FreeBSD) 30-Янв-21, 00:44  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброе время суток всем!

Помогите разобраться с pf: произошло слияние двух географически разнесённых контор. У каждой была (и осталась своя сетка), был настроен канал обмена данными через openvpn. В каждом филиале (теперь) был свой админ. Недавно админ смежного филиала уволился и мне поручили следить за вторым филиалом, пока туда не возьмут нового человека. На той стороне, к счастью, тоже стоит FreeBSD. Я привык к ipfw, а с той стороны - pf. Ещё одна проблема в том, что основные рабочие сетки у нас одинаковые - 192.168.0.0/24.

Пытаюсь настроить мониторилку состояния серверов/шлюзов той сети. Адреса openvpn: 192.168.5.1 - сервер с той стороны, 192.168.5.22 - мой; 192.168.0.8 - один из объектов мониторинга на той стороне (напоминаю, что и у меня сетка 192.168.0.0/24)

На той стороне добавляю в pf.ctl
rdr log on ovpn_if inet proto tcp from 192.168.5.22 to 192.168.10.8 ->192.168.0.8
pass log quick proto udp from 192.168.5.22 to 192.168.0.8
pass log quick proto udp from 192.168.5.22 to 192.168.10.8

ping на 192.168.10.8 отбивается с ответом from 192.168.5.1: Destination Host Unreachable
В pflog ничего не попадает. :( man pf курю уже по третьему кругу, но пока не понимаю, где я не прав.
pf.ctl:

int_if="re0"
int_ip="192.168.0.1"
vid_ip="10.0.0.112"
ext_if="fxp0"
ovpn_if="tun0"

srv="{192.168.0.2, 192.168.0.29, 192.168.0.155}"

1c_otch="{31.13.60.76, 89.188.115.186, 91.239.5.33}"
1c_port="{110, 465}"
mail_port="{25, 110, 465, 993, 995}"
mail_nic_ru="{194.85.88.224/27, 91.189.116.32/28}"
smtp_mail_ru="{94.100.180.160, 217.69.139.160}"

localnet="{192.168.0.0/24, 192.168.1.0/24, 192.168.2.0/24, 192.168.3.0/24, 192.168.5.0/24, 192.168.33.0/24, 192.168.7.242/32, 192.168.7.239/32}"
client_out="{ssh, domain, http, https, 8000, 3128, 8080, ntp}"
udp_services="{domain, ntp, 32769}"
icmp_types="{echoreq, unreach}"

table <1c_ruser> persist file "/etc/1c_ruser"

set skip on lo0
set block-policy drop
set ruleset-optimization basic
set loginterface re0
scrub in all

### mail nic.ru ###
nat on $int_if from $localnet to $mail_nic_ru port $mail_port ->$int_ip
nat on $int_if from 192.168.0.30 to $smtp_mail_ru port {25,465} ->$int_ip

# RDP 1C
nat on $ovpn_if from <1c_ruser> to 192.168.5.22 ->192.168.5.1
# 2 old buserver
nat on $ovpn_if from {192.168.0.2, 192.168.0.46, 192.168.0.65} to 192.168.4.10 ->192.168.5.1
nat on $ovpn_if from {192.168.0.2, 192.168.0.46, 192.168.0.65} to 192.168.4.106 ->192.168.5.1
nat on $ovpn_if from {192.168.0.2, 192.168.0.46, 192.168.0.65} to 192.168.4.165 ->192.168.5.1

###
nat on $int_if from 192.168.2.0/24 to any port 5190 ->$int_ip
### for security scan
nat on vlan3 from 192.168.0.29 to 192.168.2.0/24 -> 192.168.2.154
###

rdr log on ovpn_if inet proto tcp from 192.168.5.22 to 192.168.10.8 ->192.168.0.8

block log all
block quick proto ipv6
block quick proto icmp6 all

pass quick from $localnet to any
pass on $int_if inet proto udp from any to any port $udp_services
pass on $int_if inet proto tcp from any to 192.168.0.1 port 47365
pass in quick on $int_if inet proto tcp from any port 8000 to 192.168.0.1
pass in on $int_if inet proto tcp from any to any port 22
pass in on $int_if inet from 192.168.7.0/24 to 192.168.0.1
pass out quick on $ext_if from $ext_if to any
pass from 192.168.0.164 to any

pass quick proto tcp from 192.168.0.46 to 192.168.4.10 port 3389

pass log quick proto udp from 192.168.5.22 to 192.168.0.8
pass log quick proto udp from 192.168.5.22 to 192.168.10.8

pass quick proto udp from any to 192.168.0.1 port {22, 53, 67}

### Agent ###
pass quick proto tcp from 192.168.15.0/28 to any port {22,53,80,443,4244,5242,8000,8080,8081,8082,8083,8084,8085,8086,8087,8088,8089,8090,8291}
pass quick proto udp from 192.168.15.0/28 to any port {53,123,5243,7987,7985,9785}
pass quick proto tcp from 192.168.15.0/28 to 81.24.214.144 port 10058
pass quick proto icmp from any to 192.168.15.0/28
pass quick proto icmp from 192.168.15.0/28 to any
block in on $ext_if  inet proto icmp all

pass quick proto tcp from 192.168.50.0/30 to any port {22,53,80,443,4244,5242,8000,8080,8081,8082,8083,8084,8085,8086,8087,8088,8089,8090}
pass quick proto udp from 192.168.50.0/30 to any port {53,123,5243,7987,7985,9785}
pass quick proto icmp from any to 192.168.50.0/30
pass quick proto icmp from 192.168.50.0/30 to any
block in on $ext_if  inet proto icmp all

Не работает net.ipv4.ip_forward=1, !*! Eugene, (Др. сетевые сервисы / Linux) 27-Янв-21, 19:19  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Я решил заменить компьютер, выполняющий роль интернет-шлюза в домашней сети. На новый компьютер поставил систему MX Linux 19.3 (дистрибутив на основе Debian 10). В компьютере имеются две сетевые карты:

# ifconfig
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.0.250  netmask 255.255.255.0  broadcast 192.168.0.255
        inet6 fe80::2284:e52d:880a:904d  prefixlen 64  scopeid 0x20<link>
        ether 18:c0:4d:08:eb:53  txqueuelen 1000  (Ethernet)
        RX packets 33707  bytes 2767464 (2.6 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 1262  bytes 183678 (179.3 KiB)
        TX errors 13  dropped 0 overruns 0  carrier 0  collisions 0

eth1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.1.2  netmask 255.255.255.0  broadcast 192.168.1.255
        inet6 fe80::fe76:af03:3d68:6a3f  prefixlen 64  scopeid 0x20<link>
        ether 50:3e:aa:10:b6:a3  txqueuelen 1000  (Ethernet)
        RX packets 58631  bytes 70399675 (67.1 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 61103  bytes 4418094 (4.2 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
...
...
...

eth0 смотрит в локальную сеть, а eth1 -- в интернет через гейтвей 192.168.1.254:

# netstat -nr
Kernel IP routing table
Destination     Gateway         Genmask         Flags   MSS Window  irtt Iface
0.0.0.0         192.168.1.254   0.0.0.0         UG        0 0          0 eth1
192.168.0.0     0.0.0.0         255.255.255.0   U         0 0          0 eth0
192.168.1.0     0.0.0.0         255.255.255.0   U         0 0          0 eth1
192.168.3.0     0.0.0.0         255.255.255.0   U         0 0          0 eth0

Я отредактировал файл  /etc/sysctl.conf таким образом:

net.ipv4.ip_forward=1

и проверил, что это работает:

# cat /proc/sys/net/ipv4/ip_forward
1

Когда я пингую с компьютера 192.168.0.79, подключенного к eth0 адреса 192.168.0.250 (eth0) и 192.168.1.2 (eth1), все нормально, я получаю отклик. Но при попытке пинговать адрес 192.168.1.254, к которому подключена eth1, я получаю: "Destination Host Unreachable"
Файерволл полностью открыт:

# iptables -L
Chain INPUT (policy ACCEPT)
target     prot opt source               destination        

Chain FORWARD (policy ACCEPT)
target     prot opt source               destination        

Chain OUTPUT (policy ACCEPT)
target     prot opt source               destination        

Что можно сделать, чтобы форвардинг заработал?

Преобразование кода в електрические сигналы, !*! Online_007, (Аппаратура, Железо) 26-Янв-21, 23:20  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здраствуйте. Помогите пожалуйста неопытному пользователю понять тонкости роботы умных железяк )
Ни где не могу найти ответ на такой вопрос как код из программы превращаеться в електрические сигналы на компе, интересуют все етапы етого процеса и еще как узнать на какой клавиши клавиатуры какй код.
Может кто знает книги где ето все более детально описано. Заранее спасибо


Помогите с выбором процессора для сервера, !*! unicoder, (Аппаратура, Железо) 22-Янв-21, 01:17  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте.

Есть два сервера с процессорами Intel Xeon E5-1620v2 и Intel  i7-6700K, оперативка 64 Гб, цена одинаковая.
Какой процессор лучше взять для обычного сервера, на котором будут располагаться сайты с видео.

Больше склоняюсь в сторону Intel Xeon E5-1620v2 , так как это серверный процессор

Я так понимаю i7-6700K с видеокартой, больше используется для серверов с играми или стримами

Сомнения из-за того что i7-6700K более современный, также чуть больше тактовая частота и поддерживает DD4

Также не могли бы пояснить почему у Intel Xeon E5-1620v2 частота системной шины равна нулю. Она у него отсутствует ? Что это дает в отношении характеристик производительности.

Заранее спасибо за ответы.

su без пароля, !*! Иван1998, (Пользовательские проблемы / Linux) 21-Янв-21, 11:09  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всех приветствую.

Кто-нибудь знает можно ли использовать su без пароля?
Поясню, есть куча пользователей (user1, user2, ... usern), хотелось бы подключиться под user1 а потом набирать su - user2 и без пароля поменять пользователя

Sudo не подходит, рабочий вариант с ключами, но не хочется открывать новые ssh сессии

Спасибо

Про RHEL8, !*! ACCA, (Разное) 20-Янв-21, 22:54  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Там много нового-забавного вроде того симлинка /etc/yum.conf.

Среди прочего - они выкинули Docker и предлагают переползать на buildah и podman. Оно, конечно новое и молодёжное, но функционал пока не дотягивает. Да и не о том речь. После всех этих pulseaudio, systemd, CentOS 8 и podman направление известно - подальше от IBM. Вопрос - куда?

Что аксакалы думают про Linked Clone в KVM? Взлетать будут не сильно медленнее Docker, взамен переносимость и большая безопасность. Ingress controllers из коробки не припомню, что-нибудь есть взамен?

Вопрос по выключению., !*! sheff.artx, (Аппаратура, Железо / Linux) 20-Янв-21, 16:43  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть сетевое хранилище QNAP D2 и рабочая станция с Ubuntu Server 20.04. Подключены они к UPS с одним портом USB и на обоих настроено выключение по состоянию UPS. Но нужно чтобы выключались оба. Как так сделать, подкиньте мыслишку...
Защита Debian 10 от OS Fingerprinting, !*! enceladusspace, (Ядро / Linux) 20-Янв-21, 08:02  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем доброго времени суток! Встал вопрос как защититься от определения операционной системы в Debian 10? Или есть ли возможность сменить отпечаток на другую сигнатуру, например Windows и т.д.


FreeBSD и pci-e, !*! nagual, (BSD привязка / FreeBSD) 13-Янв-21, 22:12  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую.
Есть сервер с freebsd в нём 2 разъёма pci-e 8х стоят SAS контроллер и двухпортовая сетевая, но один разъём только 4х, как посмотреть где кто стоит ? С описанием к матери проблемы.
Посоветуйте архитектуру для почты, !*! sinabe, (Почта) 11-Янв-21, 06:03  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток!

Подскажите пожалуйста, есть ли уже готовый открытый софт для такой идеи:

Хочу что бы почтовый сервер был разделён на 2 части: 1. В интернете для принятия сообщения от других серверов, после получения сообщения сразу же его шифрует асимметричным шифрованием и сохраняет его в хранилище. 2. Дома, периодически подключается к хранилищу первого, забирает сообщения и действует как обычный сервер.

Когда надо отправить сообщения на внешний сервер, то сообщение так же может в зашифрованном виде передаваться первому, он его расшифровывает и отправляет.

Как я понимаю, на месте второго сервера проще использовать готовый сервер, просто допилив к нему эту передачу.

Основная задача, это что бы на первом сервере не оставалось никакой информации о сообщениях в открытом виде, сразу при установки соединения, полученные данные должны шифроваться.

Читал как то на этом сайте новость о каком то relay-сервере, но не могу найти этой статьи теперь, и не уверен что он работает именно так.

Заранее благодарю всех за помощь.



FreeBSD:IPFW+NAT. 2 белых IP на одном интерфейсе. , !*! yanos, (Маршрутизация, NAT / FreeBSD) 08-Янв-21, 20:09  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.
Можете поделится примерным конфигом ipfw c двумя NAT.

Ситуация такая
Есть диапазон ip выданный провайдером.
Есть две локальные сети (10.0.0.0/24, 10.0.1.0/24).
Примерно так:
defaultrouter="192.168.100.1"
ifconfig_ae0="192.168.100.2/29"
ifconfig_ae0_alias0="192.168.100.3/24"
ifconfig_re0="10.0.0.1/24"
ifconfig_re1="10.0.1.1/24"

Почтовый сервер 10.0.0.2
веб сервер - 10.0.0.3, 10.0.1.3.
Пользователи - 10.0.0.0/24

Заранее спасибо.
PS:Извините если тема поднималась. По поиску не нашел



Перенос дискав Freenas 11, !*! mustang, (Файловые системы, диски / FreeBSD) 06-Янв-21, 15:55  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток!.
Очень нуждаюсь в Вашем совете и помощи!

Ситуация такая:
Стояла Freenas 11.3 на флэшке, через пол года которая приказала долго жить.
Винт с информацией чувствует себя прекрасно, но вот как эту информацию теперь оттуда вытащить ?
Была установлена точно такая же версия Freenas, но уже на HDD. Перечитав кучу информации получилось сделать импорт Пула диска с инфой. В Shell показывает статус все ОК, а в Веб морде ничего не видит, при попытке подцепить диск из раздела "Хранилище", это приведет к затиранию всей имеющейся информации на нем, а задача стоит инфу эту сохранить, и чтобы диск этот продолжал работать во вновь установленной Freenas.
Подскажите пожалуйста, как сделать видимыми существующий zfs раздел в меню "Пулы" ?

root@freenas[~]# zpool list

HDD1000GB      928G  1.96G   926G        -         -     0%     0%  1.00x  ONLINE  -
freenas-boot   912G  1.26G   911G        -         -     0%     0%  1.00x  ONLINE  -
-------------------

root@freenas[~]# zpool status
  pool: HDD1000GB
state: ONLINE
  scan: scrub repaired 0 in 0 days 00:00:28 with 0 errors on Sun Nov 22 00:00:28 2020
config:

        NAME                                          STATE     READ WRITE CKSUM
        HDD1000GB                                     ONLINE       0     0     0
          gptid/2f4bee6b-c7e1-11ea-b852-2cfda17021c9  ONLINE       0     0     0

errors: No known data errors

  pool: freenas-boot
state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        freenas-boot  ONLINE       0     0     0
          ada0p2    ONLINE       0     0     0

errors: No known data errors


centos 7 переопределить сетевые параметры, !*! Kolanov, (Linux привязка / Linux) 04-Янв-21, 17:06  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
добрый день
пытаюсь переопределить параметры mtu,txqueuelen,tx и rx maximum

[root@test ~]# uname -a
Linux 3.10.0-1127.el7.x86_64 #1 SMP Tue Mar 31 23:36:51 UTC 2020 x86_64 x86_64 x86_64 GNU/Linux

в ifcfg-eth1

MTU=9000
txqueuelen=10000
ETHTOOL_OPTS="-G eth1 rx 3527; -G eth1 tx 2560"

из всех параметров принялся только mtu

что я делаю не так?
спасибо



Desktop app., password(s) storage ?, !*! nekto, (Пользовательские проблемы) 03-Янв-21, 15:45  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
- как и /или в чем хранить локально(желательно без сторонних либ) пароли к сетевым аккаунтам сейчас правильно(ей), в этом году - pro- vs contra- какие варианты ?


ZFS Перенос системы на другой диск зеркалированием, !*! noob, (Файловые системы, диски / FreeBSD) 21-Дек-20, 23:50  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
В системе на /dev/da0 система. Поставил второй диск /dev/da1 (на нем создал разделы почти как на da0)
Можно ли на работающей системе сделать на /dev/da1 зеркало, дождаться синхронизации, отаттачить /dev/da0, выключть машину, вытянуть /dev/da0, загрузиться и убрать зеркало :) Хочется обойтись без загрузок с LiveCD

gpart list
Geom name: da0
modified: false
state: OK
fwheads: 255
fwsectors: 32
last: 124978519
first: 40
entries: 128
scheme: GPT
Providers:
1. Name: da0p1
   Mediasize: 524288 (512K)
   Sectorsize: 512
   Stripesize: 0
   Stripeoffset: 20480
   Mode: r0w0e0
   efimedia: HD(1,GPT,06868afa-1299-11e8-8b31-0018fe7a25c6,0x28,0x400)
   rawuuid: 06868afa-1299-11e8-8b31-0018fe7a25c6
   rawtype: 83bd6b9d-7f41-11dc-be0b-001560b84f0f
   label: gptboot0
   length: 524288
   offset: 20480
   type: freebsd-boot
   index: 1
   end: 1063
   start: 40
2. Name: da0p2
   Mediasize: 2147483648 (2.0G)
   Sectorsize: 512
   Stripesize: 0
   Stripeoffset: 1048576
   Mode: r1w1e0
   efimedia: HD(2,GPT,068f4f3c-1299-11e8-8b31-0018fe7a25c6,0x800,0x400000)
   rawuuid: 068f4f3c-1299-11e8-8b31-0018fe7a25c6
   rawtype: 516e7cb5-6ecf-11d6-8ff8-00022d09712b
   label: swap0
   length: 2147483648
   offset: 1048576
   type: freebsd-swap
   index: 2
   end: 4196351
   start: 2048
3. Name: da0p3
   Mediasize: 61839769600 (58G)
   Sectorsize: 512
   Stripesize: 0
   Stripeoffset: 2148532224
   Mode: r1w1e1
   efimedia: HD(3,GPT,069664f9-1299-11e8-8b31-0018fe7a25c6,0x400800,0x732f800)
   rawuuid: 069664f9-1299-11e8-8b31-0018fe7a25c6
   rawtype: 516e7cba-6ecf-11d6-8ff8-00022d09712b
   label: zfs0
   length: 61839769600
   offset: 2148532224
   type: freebsd-zfs
   index: 3
   end: 124977151
   start: 4196352
Consumers:
1. Name: da0
   Mediasize: 63989022720 (60G)
   Sectorsize: 512
   Mode: r2w2e3

Geom name: da1
modified: false
state: OK
fwheads: 255
fwsectors: 32
last: 143305879
first: 40
entries: 128
scheme: GPT
Providers:
1. Name: da1p1
   Mediasize: 524288 (512K)
   Sectorsize: 512
   Stripesize: 0
   Stripeoffset: 20480
   Mode: r0w0e0
   efimedia: HD(1,GPT,88c6fcf8-cbff-11ea-9146-0018fe7a25c6,0x28,0x400)
   rawuuid: 88c6fcf8-cbff-11ea-9146-0018fe7a25c6
   rawtype: 83bd6b9d-7f41-11dc-be0b-001560b84f0f
   label: (null)
   length: 524288
   offset: 20480
   type: freebsd-boot
   index: 1
   end: 1063
   start: 40
2. Name: da1p2
   Mediasize: 2147483648 (2.0G)
   Sectorsize: 512
   Stripesize: 0
   Stripeoffset: 544768
   Mode: r0w0e0
   efimedia: HD(2,GPT,97548b08-cbff-11ea-9146-0018fe7a25c6,0x428,0x400000)
   rawuuid: 97548b08-cbff-11ea-9146-0018fe7a25c6
   rawtype: 516e7cb5-6ecf-11d6-8ff8-00022d09712b
   label: (null)
   length: 2147483648
   offset: 544768
   type: freebsd-swap
   index: 2
   end: 4195367
   start: 1064
3. Name: da1p3
   Mediasize: 70866960384 (66G)
   Sectorsize: 512
   Stripesize: 0
   Stripeoffset: 2148028416
   Mode: r0w0e0
   efimedia: HD(3,GPT,aa786c2d-cbff-11ea-9146-0018fe7a25c6,0x400428,0x8400000)
   rawuuid: aa786c2d-cbff-11ea-9146-0018fe7a25c6
   rawtype: 516e7cba-6ecf-11d6-8ff8-00022d09712b
   label: (null)
   length: 70866960384
   offset: 2148028416
   type: freebsd-zfs
   index: 3
   end: 142607399
   start: 4195368
Consumers:
1. Name: da1
   Mediasize: 73372631040 (68G)
   Sectorsize: 512
   Mode: r0w0e0

zpool list
NAME    SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTR                                                                                  OOT
zroot  57,5G  12,9G  44,6G        -         -    36%    22%  1.00x  ONLINE  -

Вопрос по ZFS., !*! nagual, (Файловые системы, диски) 18-Дек-20, 22:49  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Вообще вопрос по ZFS но начну из далека: ... купил се SSD диск на терабайт, не выбирал, не читал обзоры, просто пришёл в магазин и взял что было в наличии, а в наличии оказался ... обнять и плакать, потом взять крепче и долбануть об стену - встречаем Patriot P200 1TB 1024,2 GB Проблема в том что в этой херне ZIL кешЪ 32 гига (врут суки едва ли 12) а потом скорость записи падает до 50мег в секунду на треть от свободного пространства, а потом до 10мег в секнду ...
На самом деле врут суки после 12 гиг скорость падает до 5-ти ... Короче жуть тормозная, уступает даже обычному HDD. В связи с этим возник вопрос, а что будет с FreeBSD если его вставить в сервер в качестве L2ARC ? Вставлять в качестве ZIL думаю даже пробовать не стоит ... Как скорость записи на SSD влияет на L2ARC ZFS ?


помощь по RAID, !*! Роман, (Разное) 17-Дек-20, 13:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
господа знатоки знаю что не особо по теме но...
помогите найти замены на raid контроллер 3ware 9650SE-8LPML, так чтобы просто диски переткнуть туда без перестройки рэйда
или ресурс куда спросит можно
заранее благодарю


systemd большая загрузка процессора. Помогите понять, !*! alkor80, (Разное / Linux) 14-Дек-20, 16:19  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.
Сразу скажу, что сам фряховод, а тут линух...
Linux 4.9.0-13-amd64 #1 SMP Debian 4.9.228-1 (2020-07-05) x86_64 LNU/Linux.
Это виртуалка.

Проблемы начались 3 дня тому назад.
На виртуалке ISPManagerLite + Bitrix.
Короче говоря, перестала отвечать.
Передёрнули, вроде норм.
Но пошла почти 100% загрузка проца


Код:

KiB Mem :  4049880 total,  3566260 free,   237464 used,   246156 buff/cache
KiB Swap:        0 total,        0 free,        0 used.  3585172 avail Mem

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
    1 root      20   0  204612   7040   5332 R  42.4  0.2   2:50.32 systemd


Грузит именно systemd
PID у него 1

собственно, поэтому не гнус(майнер).
вот что в журнале

[/quote]
Код:

Dec 14 15:50:02 BitrixHost CRON[2143]: pam_unix(cron:session): session opened for user root by (uid=0)
Dec 14 15:50:02 BitrixHost CRON[2153]: (root) CMD (/usr/local/mgr5/sbin/cron-ispmgr sbin/metric >/dev/null 2>&1)
Dec 14 15:50:02 BitrixHost CRON[2142]: pam_unix(cron:session): session opened for user www-data by (uid=0)
Dec 14 15:50:02 BitrixHost CRON[2145]: pam_unix(cron:session): session opened for user root by (uid=0)
Dec 14 15:50:02 BitrixHost CRON[2156]: (www-data) CMD ([ -x /usr/share/awstats/tools/update.sh ] && /usr/share/awstats/tools/update.sh)
Dec 14 15:50:02 BitrixHost CRON[2140]: pam_unix(cron:session): session opened for user root by (uid=0)
Dec 14 15:50:02 BitrixHost CRON[2158]: (root) CMD (   /opt/php71/bin/php -c /usr/local/mgr5/addon/revisium_antivirus/php.ini /usr/local/mgr5/addon/revisium_antivirus/services/queue.php        >> /usr
Dec 14 15:50:02 BitrixHost CRON[2144]: pam_unix(cron:session): session opened for user root by (uid=0)
Dec 14 15:50:02 BitrixHost CRON[2160]: (root) CMD (/usr/local/mgr5/sbin/cron-ispmgr sbin/mgrctl -m ispmgr periodic >/dev/null 2>&1)
Dec 14 15:50:02 BitrixHost CRON[2162]: (root) CMD (/usr/local/mgr5/sbin/cron-ispmgr sbin/mgrctl -m ispmgr problems.autosolve >/dev/null 2>&1)
Dec 14 15:50:02 BitrixHost CRON[2143]: pam_unix(cron:session): session closed for user root
Dec 14 15:50:02 BitrixHost CRON[2147]: pam_unix(cron:session): session closed for user root
Dec 14 15:50:02 BitrixHost CRON[2139]: pam_unix(cron:session): session closed for user root
Dec 14 15:50:02 BitrixHost CRON[2145]: pam_unix(cron:session): session closed for user root
root@BitrixHost:/lib/systemd/system# journalctl -n
-- Logs begin at Mon 2020-12-14 15:35:42 MSK, end at Mon 2020-12-14 15:52:19 MSK. --
Dec 14 15:52:04 BitrixHost sshd[2304]: Received disconnect from 150.136.21.3 port 38891:11: Bye Bye [preauth]
Dec 14 15:52:04 BitrixHost sshd[2304]: Disconnected from 150.136.21.3 port 38891 [preauth]
Dec 14 15:52:08 BitrixHost systemd[1]: Looping too fast. Throttling execution a little.
Dec 14 15:52:10 BitrixHost systemd[1]: Looping too fast. Throttling execution a little.
Dec 14 15:52:11 BitrixHost systemd[1]: Looping too fast. Throttling execution a little.
Dec 14 15:52:13 BitrixHost systemd[1]: Looping too fast. Throttling execution a little.
Dec 14 15:52:15 BitrixHost systemd[1]: Looping too fast. Throttling execution a little.
Dec 14 15:52:17 BitrixHost systemd[1]: Looping too fast. Throttling execution a little.
Dec 14 15:52:19 BitrixHost sshd[2318]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=61.177.172.54  user=root
Dec 14 15:52:19 BitrixHost systemd[1]: Looping too fast. Throttling execution a little.

что-то его циклит, что понять не могу.

прошу помочь, от куда копнуть.
Ещё, если открыть VNC консоль виртуалки.
то нет приглашения ввести логин.
Прошу прощения,, как приложить скрин не нашёл.
На клавиатуру не реагирует. Я предположил что запущен граф. интерфейс.
включил
Код:
    systemctl set-default multi-user.target
не помогло...

Помогите с proxmox!, !*! Ajavrik, (Виртуализация) 12-Дек-20, 08:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!
Помогите кто чем может.
Есть proxmox, установлен полгода назад на 2 HP, система установлена на zfs и сервера находятся в кластере. На него мигрированы машины из wmvare. Переносил так - делал экспорт в ovf и потом
# qm importovf 333 server-www.ovf local-zfs

Все прекрасно перенеслось и работало. Виртуалки на FreeBSD. но сейчас они начали отваливаться на глазах. Пропадает с ними связь, консоль показывает что система не доступна, а при перегрузке диск видит, но говорит, что он не системный. И так на обоих серверах. Обновил систему, проблема осталась. Из бэкапа восстанавливается, но потом опять может отвалиться. У виртуалок с FreeBSD  тоже zfs.
Подскажите, что такое с proxmoxom и как восстанавливать виртуалку без бэкапа?

Заранее благодарен!

Xigmans -> Proxmox без потери даннных, !*! Magi, (Виртуализация) 11-Дек-20, 00:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет!

Стоит у меня домашний NAS на xigmanas с системой на флешке и 7 дисками. 4 в zfs пуле с данными (подключены непосредственно к материнке) и 3 неотформатированные через простейший sata-контроллер на 4 порта. есть еще один контроллер на 2 порта. Еще можно подключить 3 диска.

На флешке нет места для экспериментов. Думаю поставить ssd на него proxmox с zfs raid0 и импортировать zfs пул от xigmanas. Из не размеченных 3 дисков создать второй пул. Потом поставить NextCloud, сайт и что-нибудь еще. Как все правильно сделать, не потеряв данные в пуле?

Exim SMTP connection lost after final dot, !*! camojiet, (Почта / Linux) 09-Дек-20, 10:38  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!

Периодически теряется соединение при получении почты от облака alibaba с такой ошибкой: SMTP connection lost after final dot

Писем приходит от них много, но некоторые с этой ошибкой не доходят, и не пересылаются в последствии. В логах вот такая картина:

2020-12-08 18:58:43 1kmYbt-0007MA-6e Accepted with  spam score. Founded in white_addreses file.  Letter from host out29-49.mail.aliyun.com [115.124.29.49] (nina@trans-hope.com ==> @)
2020-12-08 18:58:43 1kmYbt-0007MA-6e SMTPNOTQUIT: connection-lost Letter from host out29-49.mail.aliyun.com [115.124.29.49] (nina@trans-hope.com ==> @)
2020-12-08 18:58:43 1kmYbt-0007MA-6e SMTP connection lost after final dot H=out29-49.mail.aliyun.com [115.124.29.49] I=[192.168.111.230]:25 P=esmtps

На данный момент используется пакет 4.92-8+deb10u4+openssl1
Ранее была использован штатный пакет от debian10 с GNUTLS, так же был испробован 4.94 с GNUTLS
Ошибка возникала во всех вариантах. Узнать у китайцев причину, по которой они не получив подтверждения о приёме письма считают его доставленным и не производят попыток направить его ещё раз, на данный момент времени так и не вышло.

Сегодня пришла мысль, что на момент отправки финальной точки (final dot), согласно правилам проведения smtp сессии, уже должен быть известен получатель, а он неизвестен. Как такое может быть? Если неизвестен получатель, то как могла быть отправлена финальная точка, которая идёт вслед за командой DATA, которой предшествует RCPT TO? Или я неправильно понимаю природу данного явления?

Явление не очень частое, но есть риск не получить важное письмо, что обернётся огромной проблемой.

Спасибо за внимание!

tcpdump и libreswan, !*! Skif, (Др. сетевые сервисы / Linux) 07-Дек-20, 11:27  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день, коллеги.
Возникла проблема. необходимо снять дамп с VPN-канала, но в дампе получаю только ответы одной стороны, хотя обмен идёт без проблем в обе стороны.

Есть сервер на Ubuntu 18.04, на котором поднят libreswan, который коннектится к cisco-вскому VPN, за которым находится сервер приложений

Сама ubuntu находится за натом в сети 192.168.1.0/24. По VPN ей даётся IP 172.18.13.107/32
Этот же сервер должен коннектится к серверу приложений за CISCO, с IP 10.241.24.40

sudo ipsec auto --status
000 "vpnconnection/0x1": 172.18.13.107/32===192.168.1.10<192.168.1.10>[XXX.XXX.XXX.XXX]---192.168.1.1...YYY.YYY.YYY.YYY<YYY.YYY.YYY.YYY>===10.241.24.40/32; erouted; eroute owner: #10585
000 "vpnconnection/0x1":     oriented; my_ip=172.18.13.107; their_ip=unset; my_updown=ipsec _updown;
000 "vpnconnection/0x1":   xauth us:none, xauth them:none,  my_username=[any]; their_username=[any]
000 "vpnconnection/0x1":   our auth:secret, their auth:secret
000 "vpnconnection/0x1":   modecfg info: us:none, them:none, modecfg policy:push, dns:unset, domains:unset, banner:unset, cat:unset;
000 "vpnconnection/0x1":   labeled_ipsec:no;
000 "vpnconnection/0x1":   policy_label:unset;
000 "vpnconnection/0x1":   ike_life: 3600s; ipsec_life: 28800s; replay_window: 32; rekey_margin: 540s; rekey_fuzz: 100%; keyingtries: 0;
000 "vpnconnection/0x1":   retransmit-interval: 500ms; retransmit-timeout: 60s;
000 "vpnconnection/0x1":   sha2-truncbug:no; initial-contact:no; cisco-unity:no; fake-strongswan:no; send-vendorid:no; send-no-esp-tfc:no;
000 "vpnconnection/0x1":   policy: PSK+ENCRYPT+TUNNEL+PFS+UP+IKEV1_ALLOW+IKEV2_ALLOW+SAREF_TRACK+IKE_FRAG_ALLOW+ESN_NO;
000 "vpnconnection/0x1":   conn_prio: 32,32; interface: ens160; metric: 0; mtu: unset; sa_prio:auto; sa_tfc:none;
000 "vpnconnection/0x1":   nflog-group: unset; mark: unset; vti-iface:unset; vti-routing:no; vti-shared:no; nic-offload:auto;
000 "vpnconnection/0x1":   our idtype: ID_IPV4_ADDR; our id=XXX.XXX.XXX.XXX; their idtype: ID_IPV4_ADDR; their id=YYY.YYY.YYY.YYY
000 "vpnconnection/0x1":   dpd: action:restart; delay:3; timeout:10; nat-t: encaps:auto; nat_keepalive:yes; ikev1_natt:both
000 "vpnconnection/0x1":   newest ISAKMP SA: #0; newest IPsec SA: #10585;
000 "vpnconnection/0x1":   aliases: vpnconnection
000 "vpnconnection/0x1":   IKE algorithms: AES_CBC_256-HMAC_SHA1-MODP1536
000 "vpnconnection/0x1":   ESP algorithms: AES_CBC_256-HMAC_SHA1_96-MODP1536
000 "vpnconnection/0x1":   ESP algorithm newest: AES_CBC_256-HMAC_SHA1_96; pfsgroup=MODP1536
000 #10585: "vpnconnection/0x1":500 STATE_QUICK_I2 (sent QI2, IPsec SA established); EVENT_SA_REPLACE in 17599s; newest IPSEC; eroute owner; isakmp#10584; idle; import:admin initiate
000 #10585: "vpnconnection/0x1" esp.34d1a872@YYY.YYY.YYY.YYY esp.7c6975ef@192.168.1.10 ref=0 refhim=0 Traffic: ESPin=141KB ESPout=252KB! ESPmax=4194303B

Само соединение устанавливается без проблем и трафик ходит.
проблема возникает со снятием дампа
делаю

user:~$ sudo tcpdump -n host 10.241.24.40
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on ens160, link-type EN10MB (Ethernet), capture size 262144 bytes
11:21:51.588752 IP 10.241.24.40.5001 > 172.18.13.107.37862: Flags [S.], seq 1918532201, ack 1572981322, win 4140, options [mss 1380,sackOK,eol], length 0
11:21:51.593298 IP 10.241.24.40.5001 > 172.18.13.107.37862: Flags [.], ack 46, win 4185, length 0
11:21:51.593438 IP 10.241.24.40.5001 > 172.18.13.107.37862: Flags [P.], seq 1:23, ack 46, win 4185, length 22
11:21:51.593445 IP 10.241.24.40.5001 > 172.18.13.107.37862: Flags [F.], seq 23, ack 46, win 4185, length 0
11:21:51.597821 IP 10.241.24.40.5001 > 172.18.13.107.37862: Flags [.], ack 47, win 4185, length 0
11:21:56.598933 IP 10.241.24.40.5001 > 172.18.13.107.38176: Flags [S.], seq 881000480, ack 13813162, win 4140, options [mss 1380,sackOK,eol], length 0
11:21:56.603376 IP 10.241.24.40.5001 > 172.18.13.107.38176: Flags [.], ack 46, win 4185, length 0
11:21:56.603704 IP 10.241.24.40.5001 > 172.18.13.107.38176: Flags [P.], seq 1:23, ack 46, win 4185, length 22
11:21:56.603708 IP 10.241.24.40.5001 > 172.18.13.107.38176: Flags [F.], seq 23, ack 46, win 4185, length 0
11:21:56.608086 IP 10.241.24.40.5001 > 172.18.13.107.38176: Flags [.], ack 47, win 4185, length 0
11:22:01.078646 IP 10.241.24.40 > 172.18.13.107: ICMP echo reply, id 18104, seq 1, length 64
11:22:01.607792 IP 10.241.24.40.5001 > 172.18.13.107.38618: Flags [S.], seq 3998020931, ack 3323264097, win 4140, options [mss 1380,sackOK,eol], length 0
11:22:01.613247 IP 10.241.24.40.5001 > 172.18.13.107.38618: Flags [.], ack 46, win 4185, length 0
11:22:01.613375 IP 10.241.24.40.5001 > 172.18.13.107.38618: Flags [P.], seq 1:23, ack 46, win 4185, length 22
11:22:01.613487 IP 10.241.24.40.5001 > 172.18.13.107.38618: Flags [F.], seq 23, ack 46, win 4185, length 0
11:22:01.617745 IP 10.241.24.40.5001 > 172.18.13.107.38618: Flags [.], ack 47, win 4185, length 0
11:22:02.080700 IP 10.241.24.40 > 172.18.13.107: ICMP echo reply, id 18104, seq 2, length 64
11:22:03.082875 IP 10.241.24.40 > 172.18.13.107: ICMP echo reply, id 18104, seq 3, length 64
11:22:03.089279 IP 10.241.24.40.5001 > 172.18.13.107.38968: Flags [S.], seq 1650793637, ack 2052431564, win 4140, options [mss 1380,sackOK,eol], length 0
11:22:03.093748 IP 10.241.24.40.5001 > 172.18.13.107.38968: Flags [.], ack 2, win 4141, length 0
11:22:03.093824 IP 10.241.24.40.5001 > 172.18.13.107.38968: Flags [.], ack 3, win 4141, length 0
11:22:03.094343 IP 10.241.24.40.5001 > 172.18.13.107.38968: Flags [F.], seq 1, ack 3, win 4141, length 0
^C
22 packets captured
22 packets received by filter
0 packets dropped by kernel
user:~$

И в дампе присутсвуют только ответы от 10.241.24.40. Отправки от самого сервера - отсуствуют. Т.е. вида
11:22:03.093748 IP 172.18.13.107.38968 > 10.241.24.40.5001: bla-bla-bla
11:22:03.093749 IP 10.241.24.40.5001 > 172.18.13.107.38968: bla-bla-bla
нет.
Как правильно оформить дамп, чтобы я видел и то, что шлёт локалный хост, и ответ от сервера приложений?

PS: доступа к VPN серверу на "той" стороне - нет.

Удаление файлов .nfs000 (Device or resource busy), !*! And.Touch, (Файловые системы, диски / Linux) 30-Ноя-20, 14:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток!

Столкнулся с проблемой, на примонтированной шаре остаются файлы вроде:
.nfs000000000000472100000001
и их не получается никак удалить:

# rm -f .nfs000000000000472100000001
rm: cannot remove '.nfs000000000000472100000001': Device or resource busy
# lsof .nfs000000000000472100000001
# fuser .nfs000000000000472100000001

lsof и fuser ничего не показывают, помогает только ребут хоста. Зараннее благодарен за любые ответы.
OS: Centos-8 nfs-utils-2.3.3-31.el8.x86_64

OpenvSwitch не работет vxlan, !*! sesan7, (Др. сетевые сервисы / Linux) 30-Ноя-20, 14:06  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день всем!
Тестовая лаборатория: Всё представленные здесь машины являются виртуальными и подняты в двух средах VMware Sphera ( то есть PC1 Serv1 это одна VMware Sphera а PC2 Serv2 находятся в другом железном сервере с VMware Spherа).

Есть проблема по работе Openvswitch с vxlan а именно хочу пробросить сеть (L2) с одной локации в другую посредством поднятия на двух локациях по серверу (Server1, Server2) с двумя сетевыми карточками. Одна сетевая карточка у каждого сервера смотрит в WAN другая в LAN (LAN интерфейсы на обоих серверах без IP адресов) ...
Схема такая:
PC1(ip 192.168.21.101)====ens224(без ip) Server1_CentOS8 ens160(ip 192.168.13.19)--------ens160(ip 192.168.13.20) Server2_CentOS8 ens224 (без ip)===== LAN (192.168.21.0/24)  PC2(ip 192.168.21.100)
PC1 и PC2 тестовые машины с которых я пытаюсь пинговать (с PC1 PC2 и наоборот)

Настраиваю Openvswitch vxlan
on Server1 config:
ovs-vsctl add-br bridge22
ovs-vsctl add-port bridge22 vxlan22 -- set interface vxlan22 type=vxlan options:key=22 options:remote_ip=192.168.13.20 options:local_ip=192.168.13.19
ovs-vsctl add-port bridge22 ens224

on Server2 config:
ovs-vsctl add-br bridge22
ovs-vsctl add-port bridge22 vxlan22 -- set interface vxlan22 type=vxlan options:key=22 options:remote_ip=192.168.13.19 options:local_ip=192.168.13.20
ovs-vsctl add-port bridge22 ens224

ovs-vsctl show on Server1
fb64004b-a3b0-4271-b1d8-0e26d099645d
    Bridge "bridge22"
        Port "vxlan22"
            Interface "vxlan22"
                type: vxlan
                options: {key="22", remote_ip="192.168.13.20", local_ip="192.168.13.19"}
        Port "ens224"
            Interface "ens224"
        Port "bridge22"
            Interface "bridge22"
                type: internal

ovs-vsctl show   on Server2
627d17c5-aa79-4dea-8dff-4e93914c3b29
    Bridge "bridge22"
        Port "vxlan22"
            Interface "vxlan22"
                type: vxlan
                options: {key="22", remote_ip="192.168.13.19", remote_ip="192.168.13.20" }
        Port "ens224"
            Interface "ens224"
        Port "bridge22"
            Interface "bridge22"
                type: internal
То есть я создал bridge22, создал проброс по vxlan c меткой 22, для проброса пакетов в LAN я повесил бридж22 на интерфейс, который смотрит во внутреннюю сеть... Но вот пытаясь пинговать с PC1 PC2 и наоборот у меня ничего не выходит...! Как я уж не пробовал... хотя маки этих компьютеров в таблице на компьютерах появляется (то есть на PC1 есть мас с PC2 и наоборот)
Пробовал развернуть єто всё на Debian та же самая история...
Подскажите где я ошибаюсь?

Делал по мануалу https://brezular.com/2020/05/01/virtual-extensible-lans-vxla...
Заранее спасибо!

 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру