OpenVPN через stunnel

openvpn stunnel img

OpenVPN очень успешная Open Source технология, которая применяется во многих компаниях для организации удаленного доступа сотрудникам. Для того, чтобы улушчить безопасность данного типа подключений, можно использовать утилиту stunnel, которая обеспечивает организацию дополнительного шифрования с помощью протокола ssl. Ранее уже писал статью в блоге — «Stunnel как Socks сервер» о возможном применении данной утилиты. Однако, ее функционал позволяет найти ей место и в других ситуациях. При добавлении к OpenVPN дополнительной защиты в виде stunnel приходится также использовать данное ПО и на клиентской части, что созадет определенные неудобства и должно учитываться заранее.

Читать далее «OpenVPN через stunnel»

Stunnel как Socks сервер

stunnel img

Небольшая утилита stunnel позволяет обеспечить ssl шифрование для трафика, который изначально не обладает такой защитой. Однако, использование данной программы не ограничивается обозначенной задачей. Недавно наткнулся на один интересный способ использования данной утилиты. С помощью только stunnel можно организовать Socks прокси без использования дополнительного ПО. При этом это будет простейший вариант для частного применения. Подключать сторонних пользователей будет крайне не разумно при таком варианте. Как это настроить и запустить постараюсь показать в оной статье. В этом процессе также важно понимать, что stunnel устанавливается и настраивается как со стороны серверной части, так и с клиентской. То есть, если вы решили использовать эту утилиту, придется заморачиваться на конфигурацию также и клиентской стороны.

Читать далее «Stunnel как Socks сервер»

Тестирование дисковой системы в Linux

hdd_test_img

Основные аппаратные ресурсы любого серверного оборудования — это процессор, ОЗУ и дисковая подсистема. Определение их производительности и мониторинг — одни из ключевых задач в эксплуатации такой техники. Тут хотелось бы остановиться на вопросе определения производительности дисковой подсистемы. При этом под таковой я подразумеваю не только один обычный жесткий диск, но и различные сложные системы для хранения данных, которые используются в серверных системах. Современные программно определяемые стораджи настолько далеко ушли в технологиях, что нет смысла в данном контектсе останавливаться на специфике их работы. Давайте рассмотрим ситуацию, когда у нас есть виртуальная или физическая машина с ОС Linux, на которой доступен физический или логический жесткий диск, производительность которого хотелось бы протестировать. Для этих целей идеально подходит небольшая утилита fio. Она очень гибкая и богатая по фунционалу. Позволяет провести разнообразные тесты ввода-вывода дисковых подсистем.

Читать далее «Тестирование дисковой системы в Linux»

Кеш на SSD в CEPH

cache_img

Система хранения CEPH уже давно поддерживает функционал кеширования HDD пулов с помощью дисков SSD или NVMe. То есть, сами данные хранятся на массивах медленных HDD дисках, но при этом при оперативной записи/чтении могут использоваться намного более быстрые диски SSD/NVMe. Такой функционал считается одним из базовых в дорогих коммерческих стораджах middle-range уровня. В свое время долгое время занимался такого типа оборудованием. По своему опыту могу сказать, что такое кеширование является одним из важных моментов при выборе СХД в организации. Для Open Source продукта Ceph это важная фича, которая позволяет обеспечить нужную производительность общей системы при использовании шпиндельных дисков при необходимости.

Читать далее «Кеш на SSD в CEPH»

Организуем backup в Proxmox

bakup_img

Один из важнейших компонентов любой системы виртуализации при использовании в продуктовых средах — наличие средств резервного копирования и восстановления. Можно вспомнить о различных вариантах бекапов виртуальных машин VMware, которые были доступны в разное время. И сама компания VMware пыталась реализовать такие решения и сторонние поставщики. В итоге на текущий момент решение VEEAM Backup & Replication стало настолько популярным, что вытеснело по сути все остальные продукты. К большому сожалению, оно поддерживает только среды виртуализации VMware и Hyper-V. Для кластера Proxmox средства по резервному копированию были встроены в сам дистрибутив, однако обладали довольно базовым функционалом. Относительно недавно компанией разработчиком был выпущен Proxmox Backup Server. Данное решение позволяет профессионально бекапить данные как на диски, так и на ленту. Кроме этого этот продукт дает возможность использовать дедупликацию, разнообразные политики резервного копирования и способы работы с виртуальными машинами.

Про систему виртуализации Proxmox уже было несколько статей на моем блоге. Это «Небольшие лайфхаки с Proxmox», «Импорт kvm виртуалок в Proxmox», а также «Миграция виртуальных машин из VMware в Proxmox». Open Source проект Proxmox VE по созданию виртуализированной среды развивается довольно таки успешно. Большим плюсом с моей точки зрения является наличие серьезного объема документации, а также форума, где разбирается огромное количество проблем и различных практических ситуаций. Со своей стороны, публикуя здесь очередную статью о системе виртуализации Proxmox, надеюсь внести посильный вклад в русскоязычное комьюнити пользователей данного замечательного продукта.

Читать далее «Организуем backup в Proxmox»

FreeIPA клиент на Ubuntu 20.04

freeipa client img

Обычная аутентификация на современных системах под управлением ОС Linux, как правило, подразумевает использование файлов /etc/passwd и /etc/shadow, в которых содержится информация о пользователях и их паролях. Однако, недра операционной системы Linux поддерживают с помощью механизма PAM гораздо больше возможностей по аутентификации и авторизации пользователей. PAM (Pluggable Authentication Modules) — низкоуровневые библиотеки, работающие на уровне операционной системы, позволяющие задействовать различные способы идентификации пользователей. Сценарии использования модулей PAM в операционной системе Ubuntu 20.04 находятся в директории — /etc/pam.d/. Другим важным компонентом операционной системы, задействованным в вопросах аутентификации является Name Service Switch. С помощью данного сервиса ОС в том числе определяет источник данных для пользователей и их паролей. Конфигурация данной службы находится в файле — /etc/nsswitch.conf.

FreeIPA клиент в Linux позволяет интегрировать отдельные операционные системы серверов и виртуальных машин в общую управляемую среду с централизованной базой пользователей и правил безопасности. Центральной частью всей подобной системы, безусловно, является сервер FreeIPA, который требует отдельной установки и настройки. Непосредственно на клиентских операционных системах кроме самого freeIPA клиента необходим также System Security Services Daemon (SSSD), который напрямую интегрируется с модулями PAM. При этом сервис SSSD может задействовать различные способы идентификации и аутентификации пользователей — такие как LDAP, Kerberos. Конфигурация демона SSSD находится в файле /etc/sssd/sssd.conf.

Читать далее «FreeIPA клиент на Ubuntu 20.04»

Установка Radosgw вручную на Ubuntu 20.04

radosgw installation

Объектный шлюз Radosgw — один из компонентов кластера CEPH, который позволяет организовать доступ к данным через протоколы S3 или swift. Многие привыкают использовать хранилища данных s3 в сервисах Amazon AWS, вследствии чего возникает закономерный спрос на анологичный сервис в локальных системах хранения. Программное определяемое хранилище данных Ceph позволяет с легкостью организовать данный тип интерфейса для пользователей системы. Шлюз radosgw может быть установлен как на тот же самый сервер, где работают службы MON и OSD кластера, так и на отдельный хост. В этой статье я покажу, как установить этот сервис на отдельный сервер на базе операционной системы Ubuntu 20.04.

Ранее на своем блоге публиковал статью — Установка кластера CEPH. В ней рассказывал о способе инсталяции кластера с помощью ролей Ansible от разработчиков продукта. Замечательный и простой способ, который позволяет с нуля развернуть с нуля практически любую конфигурацию. Однако бывают случаи, когда необходимо провести этот процесс вручную. При этом пройдя через все шаги такой настройки, можно лучше понять определенные глубинные механизмы работы системы CEPH.

Читать далее «Установка Radosgw вручную на Ubuntu 20.04»

Миграция виртуальных машин из VMware в Proxmox

vm_migration

Популярность системы виртуализации Proxmox-VE растет с каждым днем во многом благодаря ее разносторонним возможностям. Иногда возникает необходимость в перемещении ряда гостевых машин из одной среды виртуализации в другую. Как переместить KVM виртуальную машину с диском формата qcow2 я показывал ранее в статье — Импорт kvm виртуалок в Proxmox. Теперь хотелось бы рассказать как осуществить аналогичный процесс из среды vSphere. Не часто, но такая необходимость может возникнуть у любого системного администратора. Сама миграция в целом технически не сложная, однако требует знания определенных нюансов, для получения нужного результата. Как учесть эти тонкости и по шагам провести процесс транзита виртуальных машин из VMware в Proxmox показано далее в статье.

Читать далее «Миграция виртуальных машин из VMware в Proxmox»

Установка kvm в Ubuntu 20.04

kvm install

Создать хост виртуализации в операционной системе Ubuntu 20.04 с гипервизором kvm не составит сложности, понимая технологии которые используются при этом. Это позволяет использовать обычный физический сервер с операционной системой Linux на борту как полноценный узел виртуализации, аналогичный Vmware ESXi. При этом мы можем не думать о стоимости лицензий программного обеспечения виртуализации. Так же, как и продукты VMware, функционирование kvm требует поддержки аппаратной виртуализации со стороны центрального процессора сервера. В качестве гостевых операционных систем мы можем использовать как различные дистрибутивы Linux и BSD, так и все вариации MS Windows.

Данная статья посвящена процедуре установки и первоначальной настройки хостовой операционной системы Ubuntu Linux 20.04 и гипервизора kvm. Мы пройдем поэтапно по всем основным шагам и получим в результате работающий гипервизор виртуализации, которой можно будет полноценно использовать как в продакшене, так и для тестовых целей. Особый акцент сделан на сетевую часть. Показано как настроить виртуальную сеть kvm таким образом, чтобы обеспечить прямой доступ из физической сети к гостевым машинам.

Читать далее «Установка kvm в Ubuntu 20.04»

Создание виртуалок в kvm из консоли

vm creations img

Система виртуализации kvm, созданная и работающая на хостах Linux, с точки зрения управления сильно отличается от привычной для многих VMware vSphere. При работе с ней очень многие вещи приходится делать в консоли, особенно если это продуктовые сервера. Так и установка с нуля гостевых машин с нужной операционной системой требует определенных знаний и смекалки. При этом для виртуальных машин с разными типами ОС на них нужно знать свои нюансы, чтобы получить желаемый результат. Даже разные дистрибутивы Linux требуют дифиринцированный подход. Как запилить себе одну виртуалочку с CentOS Linux 7.9 и еще одну с Ubuntu Linux 20.04 на kvm хочется показать на реальных примерах.

Ранее у себя в блоге писал уже о системе виртуализации на базе kvm — Proxmox-VE. Это были статьи — «Импорт kvm виртуалок в Proxmox» и «Небольшие лайфхаки с Proxmox«. Да, Proxmox обладает отличным графическим веб интерфейсом, имея kvm под капотом. Но зачастую kvm применяется напрямую без лишней обвязки и требует знаний по работе с ним из командой строки Linux с использованием различных утилит управления и мониторинга. С учетом того, что актуальность использования kvm в современном IT мире довольно высокая, знание специфики работы с ним будет далеко не бесполезным для администраторов и программистов.

Читать далее «Создание виртуалок в kvm из консоли»