2019: различия между версиями
Vovan (обсуждение | вклад) (→1С Кластер) |
Avp (обсуждение | вклад) |
||
(не показаны 3 промежуточные версии 1 участника) | |||
Строка 151: | Строка 151: | ||
==Грабли== | ==Грабли== | ||
− | Не стартует сервис srv1c83 после переименования машины | + | ===Не стартует сервис srv1c83 после переименования машины=== |
− | sed -i 's/nntc-cluster-1c/1c-cluster/g' / | + | cd /home/usr1cv8/ |
+ | sed -i 's/nntc-cluster-1c/1c-cluster/g' .1cv8/1C/1cv8/reg_1541/1CV8Clsto.lst | ||
+ | sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/1cv8wsrv.lst | ||
+ | sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/reg_1541/1CV8Clst.lst | ||
+ | sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/reg_1541/4ea34cbe-d925-11e9-909c-fe72f0701b50/1Cv8Log/1Cv8.lgf | ||
+ | sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/reg_1541/5c6e77fe-d940-11e9-619e-fe72f0701b50/1Cv8Log/1Cv8.lgf | ||
+ | sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/reg_1541/ba469ee3-e366-4b24-ac85-a921241e5074/1Cv8Log/1Cv8.lgf | ||
+ | |||
+ | ===ошибка установки или изменения национальных настроек информационной базы=== | ||
+ | |||
+ | Удаляем старый кластер базы данных | ||
+ | |||
+ | pg_dropcluster --stop 11(версия кластера) main(имя кластера, получить можно pg_lsclusters) | ||
+ | |||
+ | Создаем новый кластер | ||
+ | pg_createcluster --locale ru_RU.UTF-8 --start 11 main | ||
+ | |||
+ | src: https://qna.habr.com/q/86958 | ||
==Установка ОС== | ==Установка ОС== | ||
Строка 427: | Строка 444: | ||
zfs create -o volblocksize=4K -V 100g rpool/data/vm-100-disk-1 | zfs create -o volblocksize=4K -V 100g rpool/data/vm-100-disk-1 | ||
+ | |||
+ | |||
+ | [[Категория:Ежегодник]] |
Текущая версия на 12:03, 29 марта 2020
Содержание
- 1 Zimbra
- 2 Синхронизация расписания
- 3 ubuntu server openbox
- 4 1С Кластер
- 5 Немного ZFS
Zimbra
Текущая свежая версия
8.8.12_GA
wget https://files.zimbra.com/downloads/8.8.12_GA/zcs-8.8.12_GA_3794.UBUNTU18_64.20190329045002.tgz
Грабли по этой версии
zmstat.out заполняется бесконечно, валит ошибку
(https://forums.zimbra.org/viewtopic.php?t=65930&start=10)
Use of uninitialized value $line in pattern match (m//) at /opt/zimbra/libexec/zmstat-io line 76
login as zimbra and stop zmstat: zmstatctl stop
edit
/opt/zimbra/libexec/zmstat-io
replace all
Device:
with
Device rm /opt/zimbra/zmstat/zmstat.out
restart zmstat:
zmstatctl start
лечение:
в файле
/opt/zimbra/libexec/zmsyslogsetup
на 190 строке найти строчку
s|(^destination mail [b]{[/b] file\("/var/log/mail"\); };)|#$1|;
и заменить её на эту:
s|(^destination mail [b]\{[/b] file\("/var/log/mail"\); };)|#$1|;
удалить zmstat.out
rm /opt/zimbra/zmstat/zmstat.out
zmlogswatchctl is not running
лечение:
touch /var/log/zimbra-stats.log chown zimbra:zimbra /var/log/zimbra-stats.log /etc/init.d/zimbra restart
Ошибки служб в веб интерфейсе
...при попытке обновить, выдаёт ошибку:
Message: system failure: Unable to read logger stats Error code: service.FAILURE Method: GetLoggerStatsRequest Details:soap:Receiver
лечение (от рута):
apt-get install rsyslog /opt/zimbra/libexec/zmsyslogsetup
переключиться на пользователя zimbra и перезапустить:
su - zimbra zmcontrol stop zmcontrol start
возможно еще это:
su - zimbra zmsshkeygen zmupdateauthkeys
Переименовать основной домен
# mind su - zimbra zmprov -l md olddomain.com zimbraDomainRenameInfo "" zmprov -l md olddomain.com zimbraDomainStatus active zmprov fc domain olddomain.com zmcontrol restart
zmprov -l rd old.domain.com new.domain.com zmlocalconfig
Получить список ящиков
# mind su - zimbra zmprov -l gaa
Выгрузка бэкапов ящиков
cat backup.sh
#!/bin/bash # mind su - zimbra for i in $(zmprov -l gaa) do echo $i zmmailbox -z -m $i getRestURL "//?fmt=tgz" > $i.tar.gz done
Загрузка аккаунтов из бэкапов
cat create_restore_script.sh
#!/bin/bash echo '#!/bin/bash'>restore.sh for i in $(cat boxes) do echo "su - zimbra -c \"zmprov ca $i SuperPasswd1234565;zmmailbox -z -m $i postRestURL '//?fmt=tgz&resolve=replace' /mnt/oldzimbra/opt/zimbra/BKP/$i.tar.gz\";">>restore.sh done
Изменить размер сообщения
su zimbra - zmprov mcf zimbraMtaMaxMessageSize 40960000 zmprov mcf zimbraFileUploadMaxSize 40960000 zmstatctl restart
Безопасность
не светить стандартные порты наружу сменить имя пользователя admin на другое
Синхронизация расписания
1 площадка
2 площадка
@echo off "C:\_PATH_TO_\pscp.exe" -P _PORT_ -i "C:\_PATH_TO_\nntc2.ppk" "C:\_PATH_TO_\FILE.xls" _USER_@_IP_:"/home/_USER_/p2.xls" echo y | "C:\_PATH_TO_\PLINK.EXE" -P 2019 -i "C:\_PATH_TO_\nntc2.ppk" _USER_@89.109.54.20 -m "C:\_PATH_TO_\sync_cmd.txt" cls echo "PROVERTE RASPISANIE NA SAYTE!" pause
ubuntu server openbox
Установить пакеты:
sudo apt install openbox openbox-menu xvfb x11vnc
Сгенерить пароль:
x11vnc -storepasswd
результат формирования пароля будет в файле
/root/.vnc/passwd
Добавить до "exit 0" в /etc/rc.local
Xvfb :1 -extension GLX -screen 0 1600x900x16& sleep 5s; DISPLAY=:1 /usr/bin/openbox-session& x11vnc -dontdisconnect -display :1 -auth /var/run/lightdm/root/:0 -notruecolor -noxfixes -shared -forever -rfbport 5999 -bg -rfbauth /root/.vnc/passwd
1С Кластер
Грабли
Не стартует сервис srv1c83 после переименования машины
cd /home/usr1cv8/ sed -i 's/nntc-cluster-1c/1c-cluster/g' .1cv8/1C/1cv8/reg_1541/1CV8Clsto.lst sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/1cv8wsrv.lst sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/reg_1541/1CV8Clst.lst sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/reg_1541/4ea34cbe-d925-11e9-909c-fe72f0701b50/1Cv8Log/1Cv8.lgf sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/reg_1541/5c6e77fe-d940-11e9-619e-fe72f0701b50/1Cv8Log/1Cv8.lgf sed -i 's/nntc-cluster-1c/1c-cluster/g' ./.1cv8/1C/1cv8/reg_1541/ba469ee3-e366-4b24-ac85-a921241e5074/1Cv8Log/1Cv8.lgf
ошибка установки или изменения национальных настроек информационной базы
Удаляем старый кластер базы данных
pg_dropcluster --stop 11(версия кластера) main(имя кластера, получить можно pg_lsclusters)
Создаем новый кластер
pg_createcluster --locale ru_RU.UTF-8 --start 11 main
src: https://qna.habr.com/q/86958
Установка ОС
Выбрана свержая LTS версия xubuntu 18.04 внутри ProxMoxVE через virt-viewer по протоколу spice
Нюансы установки
ставим в режиме uefi ставим с авторазметкой локали уже должны быть готовы для установки postgres (эти шаги по инструкциям можно пропустить)
Установка Postgres 1C
Авторизовываемся на
https://releases.1c.ru
Скачиваем это браузером
https://releases.1c.ru/version_file?nick=AddCompPostgre&ver=10.9-5.1C&path=AddCompPostgre\10_9_5_1C\postgresql_10.9_5.1C_amd64_deb.tar.bz2
https://releases.1c.ru/version_file?nick=AddCompPostgre&ver=10.9-5.1C&path=AddCompPostgre\10_9_5_1C\postgresql_10.9_5.1C_amd64_addon_deb.tar.bz2
Скачиваем и устанавливаем пакет
wget http://security.ubuntu.com/ubuntu/pool/main/i/icu/libicu55_55.1-7ubuntu0.4_amd64.deb sudo dpkg -i libicu55_55.1-7ubuntu0.4_amd64.deb
Добавляем репозиторий нужной версией postgresql-common, обновляем бд пакетов и устанавливаем postgresql-common
sudo su echo 'deb http://apt.postgresql.org/pub/repos/apt/ bionic-pgdg main' > /etc/apt/sources.list.d/pgdg.list exit sudo apt-get update sudo apt-get install postgresql-common
Устанавливаем скачанные с сайта 1с пакеты в таком порядке (предварительно перейдя в каталог)
cd Загрузки/postgresql-10.9-5.1C_amd64_deb/ sudo dpkg -i libpq5_10.9-5.1C_amd64.deb sudo dpkg -i postgresql-client-10_10.9-5.1C_amd64.deb sudo dpkg -i postgresql-10_10.9-5.1C_amd64.deb
Блокируем обновление пакетов
sudo apt-mark hold libpq5 sudo apt-mark hold postgresql-client-10 sudo apt-mark hold postgresql-10
Настройка Postgres 1C после установки
Меняем параметры первого конфига (именно столько пробелов и табов. Меняем для того, чтобы поменять пароль)
sed -i 's/local all postgres peer/local all postgres trust/g' /etc/postgresql/10/main/pg_hba.conf
Меняем параметры второго конфига
sed -i "s/listen_addresses = '\*'/listen_addresses = 'localhost'/g" /etc/postgresql/10/main/postgresql.conf
Рестартуем сервис
sudo service postgresql restart
Меняем пароль
psql -U postgres -d template1 -c "ALTER USER postgres PASSWORD 'SuperSECUREPassw0rd_HERE'"
Меняем параметры первого конфига на md5
sed -i 's/local all postgres trust/local all postgres md5/g' /etc/postgresql/10/main/pg_hba.conf
Рестартуем сервис
sudo service postgresql restart
Установка сервера 1С
Устанавливаем необходимые пакеты
sudo apt-get install imagemagick unixodbc ttf-mscorefonts-installer libgsf-1-114 libwebkitgtk-3.0-0
Авторизуемся на сайте 1с и скачиваем пакеты сервера 1с:предприятия по этой ссылке
https://releases.1c.ru/version_file?nick=Platform83&ver=8.3.15.1565&path=Platform\8_3_15_1565\deb64_8_3_15_1565.tar.gz
Распаковываем и переходим в каталог с deb-пакетами
cd /home/administrator/Загрузки/deb64_8_3_15_1565/
Устанавливаем пакеты в следующем порядке:
sudo dpkg -i 1c-enterprise83-common_8.3.15-1565_amd64.deb sudo dpkg -i 1c-enterprise83-common-nls_8.3.15-1565_amd64.deb sudo dpkg -i 1c-enterprise83-server_8.3.15-1565_amd64.deb sudo dpkg -i 1c-enterprise83-server-nls_8.3.15-1565_amd64.deb sudo dpkg -i 1c-enterprise83-ws_8.3.15-1565_amd64.deb sudo dpkg -i 1c-enterprise83-ws-nls_8.3.15-1565_amd64.deb
Меняем владельца каталога /opt/1C:
sudo chown -R usr1cv8:grp1cv8 /opt/1C
Запускаем сервер 1С:
sudo service srv1cv83 start
Установка платформы 1С
Теоретически, платформу не обязательно ставить на тот же хост, где функционирует сервер 1С. Но в нашем случае это будет один и тот же хост
Скачиваем пакеты после авторизации на сайте 1с отсюда:
Толстый клиент
https://releases.1c.ru/version_file?nick=Platform83&ver=8.3.15.1565&path=Platform\8_3_15_1565\client_8_3_15_1565.deb64.tar.gz
cd /home/administrator/Загрузки/client_8_3_15_1565.deb64/ sudo dpkg -i *.deb
Будут ошибки на тему установки thin-client - традиционные многолетние ошибки. Видимо до сих пор воспроизводятся
Тонкий клиент
https://releases.1c.ru/version_file?nick=Platform83&ver=8.3.15.1565&path=Platform\8_3_15_1565\thin.client_8_3_15_1565.deb64.tar.gz
Если уже был установлен толстый клиент, то внутри каталога с deb-пакетами уже имеются пакеты thin.client и установка пакетов из комплекта тонкого клиента будет бессмысленной и вызовет те же традиционные многолетние ошибки.
Сервер
https://releases.1c.ru/version_file?nick=Platform83&ver=8.3.15.1565&path=Platform\8_3_15_1565\deb64_8_3_15_1565.tar.gz
Сервер повторно ставить не нужно, если клиенты устанавливаются на том же хосте (выше по инструкции устанавливался сервер). На клиентской же машине, расположенной отдельно от сервера, все равно нужно будет ставить пакеты от сервера (по крайней мере так было несколько лет назад)
Установка сервиса aksusbd
Сразу спойлер: будет работать только локально. Если нужна сетевая часть - не нужно ставить это. Нужно ставить пакет от этерсофт
Скачиваем отсюда
https://sentinelcustomer.gemalto.com/sentineldownloads/?s=&c=End+User&p=Sentinel+LDK&o=Linux&t=all&l=all#
Распаковываем и устанавливаем
cd /home/administrator/Загрузки/Sentinel_LDK_Ubuntu_DEB_Run-time_Installer/ sudo dpkg -i aksusbd_7.100-1_amd64.deb
ОБЯЗАТЕЛЬНО ПЕРЕЗАГРУЗИТЬСЯ
Проверка работы
sudo service aksusbd status
Проверка открытых портов
sudo netstat -anp | grep hasp
Можно увидеть, что 475 порт не открыт. А это сетевой хасп.
Удаляем
sudo apt-get remove aksusbd
Пакет от этерсофт
Передварительно установить пакет
sudo apt install dkms
Далее скачать пакет отсюда
ftp://download.etersoft.ru/pub/Etersoft/HASP/last/Ubuntu/18.04/dkms-aksparlnx_7.40-alt1ubuntu_all.deb ftp://download.etersoft.ru/pub/Etersoft/HASP/last/Ubuntu/18.04/haspd_7.90-eter2ubuntu_i386.deb
Установить
sudo dpkg -i haspd_7.90-eter2ubuntu_i386.deb sudo dpkg -i dkms-aksparlnx_7.40-alt1ubuntu_all.deb
Запуск демона
service haspd start
Проверка открытых портов
sudo netstat -anp | grep hasp
Настройка и включение файрвола
ufw allow 22 ufw allow 80 ufw allow 443 ufw allow 1540 ufw allow 1541 ufw allow 1543 ufw allow 1560:1591/tcp ufw enable
UDP over TCP over SSH
http://zarb.org/~gc/html/udp-in-ssh-tunneling.html
Apache2
header.Add("Access-Control-Allow-Headers", "Content-Type, Access-Control-Allow-Headers, Authorization, X-Requested-With")
1. Найти строку "#LoadModule headers_module modules/mod_headers.so" и убрать первый символ "#" 2. В раздел "<Directory />" (также при наличии Location, Files) вписать следующее (соответственно указав области доступа более конкретно.): <IfModule mod_headers.c> Header always set Access-Control-Allow-Origin "*" Header always set Access-Control-Max-Age "1000" Header always set Access-Control-Allow-Headers "X-Requested-With, Content-Type, Origin, Authorization, Accept, Client-Security-Token, Accept-Encoding" Header always set Access-Control-Allow-Methods "POST, GET, OPTIONS, DELETE, PUT" </IfModule> RewriteEngine On RewriteCond %{REQUEST_METHOD} OPTIONS RewriteRule ^(.*)$ $1 [R=200,L]
Ссылки
Немного ZFS
Затюнить основные моменты на PVE:
Отключить сжатие
zfs set compression=off rpool/data
Отключить sync
zfs set sync=disabled rpool/data
Просмотр параметров volume (внимание! - отсутствие слэша в начале - это важно)
zfs get all rpool/data/vm-100-disk-1
Аналогично - просмотр параметров пула (внимание! - слэш в начале - это важно)
zfs get all /rpool/data/
Создать volume с нужным размером блока (например, с размером блока равным размеру блока в ext4 гостевой машины по умолчанию)
zfs create -o volblocksize=4K -V 100g rpool/data/vm-100-disk-1
Проверить за собой
zfs get all rpool/data/vm-100-disk-1 | grep volblocksize
Создание дисков средствами вебинтерфейса проксмокс происходит с volblocksize=8K. Это не всегда удобно. Поэтому после создания виртмашины можно пересоздать так:
Удаляем диск
zfs destroy rpool/data/vm-100-disk-1
И создаём заново (как уже выше приводилась команда) - выключенная виртмашина ничего не заметит :-)
zfs create -o volblocksize=4K -V 100g rpool/data/vm-100-disk-1