Столкнулся недавно с интересной особенностью обновления прошивок на серверах Dell, которая является далеко не интуитивно понятной, а информацию о ней еще нужно постараться найти. Хотелось бы поделиться своим опытом, чтобы администраторам и инженерам, работающим с серверами DELL, было проще заниматься вопросами апдейта прошивок, firmware и т.д. Обновления для серверов Dell и их компонентов выходят в виде DUP файлов, которые представляют собой самораспаковывающиеся .exe архивы, которые содержат в себе все необходимые компоненты. Более подробную информацию о данном типе файлов можно почитать на сайте производителя по следующей ссылке.
Важный вопрос в эксплуатации сложных компьютерных и сетевых систем – обращение к вендору за технической поддержкой. Чем больше и сложнее парк информационных систем в Вашем распоряжении, тем чаще Вам приходиться обращаться к производителю за помощью при возникновении глюков, багов или некорректной конфигурации в железе и программном обеспечении. У компании Dell много интересных сложных технологических продуктов, которые при своем плотном использовании требуют общения с help desk. Как этот процесс сделать максимально эффективным и оперативным постараюсь показать далее по тексту.
Система хранения данных Dell EMC PowerStore представляет собой следующую ступень развития современных стораджей. Основной упор, который, судя по всему, был сделан при разработке данного продукта – дальнейшее увеличение скорости доступа к данным. Это достигается путем комбинации ряда последних прорывных технологий, как в разработке ПО, так и в аппаратном обеспечении. Мне в рамках данной статьи интересно сконцентрироваться на различных типах дисковых накопителей, которые сейчас начали применяться в СХД. А также на том, какие конкретные преимущества получает потребитель такого продукта. Предыдущие поколения стораджей использовали для хранения информации HDD и SSD диски. При этом даже сейчас в 2023 году многие организации ориентируются прежде всего на массивы с жесткими дисками, так как они позволяют закрыть их потребности с минимальным уровнем затрат. Тем не менее, все ведущие вендоры систем хранения данных акцентируют свое развитие именно на возможностях, которые дают аппаратные новинки.
Вроде бы банальная тема использования планок оперативной памяти на современных серверах на самом деле является не такой уж и простой. Разбирался с этим вопросом недавно для себя на примере серверов Dell. Оказалось, что за последние годы, технологии очень сильно шагнули в этом направлении, и при выборе нового серверного оборудования желательно нужно учитывать различные типы ОЗУ или RAM, которые могут быть использованы в эксплуатации. Думаю, что другие вендоры серверного оборудования используют аналогичные решения. Однако, в контексте данного материала, хотелось бы сконцентрироваться на конкретных серверах Dell PowerEdge. На примере этого оборудования показать тот выбор разнообразия оперативной памяти, который имеется на данный момент у инженеров и системных администраторов.
На текущий момент основные виды оперативки выпускают в виде планок DIMM (Dual Inline Memory Module). Такая динамическая память наиболее распространена в виде UDIMM, RDIMM, и LRDIMM. Кроме этого в продаже появились NVDIMM и DCPMM, которые позволяют обеспечить сохранность информации при выключении сервера. Давайте попытаемся разобраться, что каждый из этих видов ОЗУ представляет из себя и когда лучше их использовать.
У сетей SAN или Storage Area Network есть несколько специфических особенностей, которые отличают их от привычных IP сетей. Одна из них наличие разного типа портов в сети SAN. С точки зрения физики и внешнего вида они все абсолютно одинаковые. Однако, с позиции логики работы они могут сильно отличаться. Эта особенность Fibre Channel часто смущает администраторов сетей передачи данных, кому приходится сталкиваться с SAN, в частности, и меня самого. Небольшая статья, которая поможет разложить по полочкам данный вопрос, давно зрела в тайниках моего подсознания, что и стало мотиватором для ее написания. Далее по тексту постараюсь разложить основные нюансы в терминологии сетей FC SAN, что поможет при их проектировании и внедрении.
При добавлении нового дискового пространства крайне важно понимать сколько Вам нужно операций чтения/записи или по научному IOPS, а также сколько та или иная дисковая система может Вам выдать таких транзакций в секунду. Такой подсчет в целом не представляет никаких сложностей и доступен любому, кто в ладах со школьной алгеброй. Если с определением объема дискового пространства на RAID массиве, как правило, проблем не возникает, то с подсчетом необходимых, а также доступных IOPS зачастую во многих организациях все обстоит не так гладко. В современных системах хранения данных зачастую используется определенный уровень кеша, технологии tiering, дедупликации и прочие фишки, которые могут влиять на общее значение IOPS. Однако, понимание того, сколько реально операций чтения/записи можно получить от самой дисковой подсистемы дает знание базовой производительности системы, от которого можно отталкиваться при проведении дополнительных расчетов.
Основные аппаратные ресурсы любого серверного оборудования – это процессор, ОЗУ и дисковая подсистема. Определение их производительности и мониторинг – одни из ключевых задач в эксплуатации такой техники. Тут хотелось бы остановиться на вопросе определения производительности дисковой подсистемы. При этом под таковой я подразумеваю не только один обычный жесткий диск, но и различные сложные системы для хранения данных, которые используются в серверных системах. Современные программно определяемые стораджи настолько далеко ушли в технологиях, что нет смысла в данном контектсе останавливаться на специфике их работы. Давайте рассмотрим ситуацию, когда у нас есть виртуальная или физическая машина с ОС Linux, на которой доступен физический или логический жесткий диск, производительность которого хотелось бы протестировать. Для этих целей идеально подходит небольшая утилита fio. Она очень гибкая и богатая по фунционалу. Позволяет провести разнообразные тесты ввода-вывода дисковых подсистем.
Система хранения CEPH уже давно поддерживает функционал кеширования HDD пулов с помощью дисков SSD или NVMe. То есть, сами данные хранятся на массивах медленных HDD дисках, но при этом при оперативной записи/чтении могут использоваться намного более быстрые диски SSD/NVMe. Такой функционал считается одним из базовых в дорогих коммерческих стораджах middle-range уровня. В свое время долгое время занимался такого типа оборудованием. По своему опыту могу сказать, что такое кеширование является одним из важных моментов при выборе СХД в организации. Для Open Source продукта Ceph это важная фича, которая позволяет обеспечить нужную производительность общей системы при использовании шпиндельных дисков при необходимости.
Один из важнейших компонентов любой системы виртуализации при использовании в продуктовых средах – наличие средств резервного копирования и восстановления. Можно вспомнить о различных вариантах бекапов виртуальных машин VMware, которые были доступны в разное время. И сама компания VMware пыталась реализовать такие решения и сторонние поставщики. В итоге на текущий момент решение VEEAM Backup & Replication стало настолько популярным, что вытеснело по сути все остальные продукты. К большому сожалению, оно поддерживает только среды виртуализации VMware и Hyper-V. Для кластера Proxmox средства по резервному копированию были встроены в сам дистрибутив, однако обладали довольно базовым функционалом. Относительно недавно компанией разработчиком был выпущен Proxmox Backup Server. Данное решение позволяет профессионально бекапить данные как на диски, так и на ленту. Кроме этого этот продукт дает возможность использовать дедупликацию, разнообразные политики резервного копирования и способы работы с виртуальными машинами.
Про систему виртуализации Proxmox уже было несколько статей на моем блоге. Это “Небольшие лайфхаки с Proxmox”, “Импорт kvm виртуалок в Proxmox”, а также “Миграция виртуальных машин из VMware в Proxmox”. Open Source проект Proxmox VE по созданию виртуализированной среды развивается довольно таки успешно. Большим плюсом с моей точки зрения является наличие серьезного объема документации, а также форума, где разбирается огромное количество проблем и различных практических ситуаций. Со своей стороны, публикуя здесь очередную статью о системе виртуализации Proxmox, надеюсь внести посильный вклад в русскоязычное комьюнити пользователей данного замечательного продукта.
Обычная аутентификация на современных системах под управлением ОС Linux, как правило, подразумевает использование файлов /etc/passwd и /etc/shadow, в которых содержится информация о пользователях и их паролях. Однако, недра операционной системы Linux поддерживают с помощью механизма PAM гораздо больше возможностей по аутентификации и авторизации пользователей. PAM (Pluggable Authentication Modules) – низкоуровневые библиотеки, работающие на уровне операционной системы, позволяющие задействовать различные способы идентификации пользователей. Сценарии использования модулей PAM в операционной системе Ubuntu 20.04 находятся в директории – /etc/pam.d/. Другим важным компонентом операционной системы, задействованным в вопросах аутентификации является Name Service Switch. С помощью данного сервиса ОС в том числе определяет источник данных для пользователей и их паролей. Конфигурация данной службы находится в файле – /etc/nsswitch.conf.
FreeIPA клиент в Linux позволяет интегрировать отдельные операционные системы серверов и виртуальных машин в общую управляемую среду с централизованной базой пользователей и правил безопасности. Центральной частью всей подобной системы, безусловно, является сервер FreeIPA, который требует отдельной установки и настройки. Непосредственно на клиентских операционных системах кроме самого freeIPA клиента необходим также System Security Services Daemon (SSSD), который напрямую интегрируется с модулями PAM. При этом сервис SSSD может задействовать различные способы идентификации и аутентификации пользователей – такие как LDAP, Kerberos. Конфигурация демона SSSD находится в файле /etc/sssd/sssd.conf.