Загрузка данных


Код	Субкритерий	Тип аспекта	Аспект	Судейский балл	Методика проверки аспекта	Требование или номинальный размер	Проф. задача	Макс. балл
А	Развертывание пула серверов для организации сетевого взаимодействия. 							40.00
1	Создание шаблона виртуальной машины							
		И	В веб-интерфейсе гипервизора создана SDN-зона типа simple с именем cloudzon				1	0.25
		И	В веб-интерфейсе гипервизора создана VNets с именем cloudnet в SDN-зоне cloudzon				1	0.25
		И	В веб-интерфейсе гипервизора создана Subnets с подсетью в соответствии с требуемой в рамках VNets с именем cloudnet				1	0.25
		И	Виртуальная машина adm-pc перекоммутирована на использование VNets				1	0.25
		И	В веб-интерфейсе гипервизора создана виртуальная машина или шаблон виртуальной машины с именем alt-p11-cloud-template				1	0.25
		И	Созданная ВМ или шаблон с именем alt-p11-cloud-template имеют требуемые аппаратные характеристики				1	0.25
		И	Созданная ВМ или шаблон с именем alt-p11-cloud-template имет поддержку функционала cloud-init				1	0.25
		И	Созданная ВМ или шаблон с именем alt-p11-cloud-template использует требуемый образ диска				1	0.25
		И	В веб-интерфейсе гипервизора есть шаблон виртуальной машины с именем alt-p11-cloud-template				1	0.25
2	Развёртывание пула серверов							
		И	В веб-интерфейсе гипервизора созданы все необходимые виртуальные машины в соответствии с с инфраструктурной топологией				1	0.25
		И	В веб-интерфейсе гипервизора созданы все необходимые виртуальные машины в соответствии с инфраструктурной топологией и требованиями к аппаратным характеристикам				1	0.50
		И	На все ВМ в соответствии с инфраструктурной топологией можно выполнить вход в консоль из-под пользователя altlinux с паролем P@ssw0rd				1	0.25
		И	На всех ВМ в соответствии с инфраструктурной топологией IP-адресация реализована в соответствии с Таблицей характеристики ВМ				1	0.25
		И	С виртуальной машины adm-pc должен быть доступ по SSH ко всем ВМ в соответствии с инфраструктурной топологией				1	0.50
		И	С виртуальной машины adm-pc должен быть доступ по SSH ко всем ВМ в соответствии с инфраструктурной топологией из-под пользователя altlinux с использованием ключевой пары и указанием короткого имени ВМ				1	1.50
3	Установка и настройка LDAP-сервера							
		И	На устройстве infra-srv1 установлен пакет для сервера FreeIPA с интегрированным DNS				1	0.50
		И	На устройстве infra-srv1 развёрнут контроллер домена au-team.cloud на базе FreeIPA				1	1.00
		И	Все устройства доступны по именам с устройства adm-pc				1	0.50
		И	На контроллере домена создана требуемая структура групп и пользователей в соответствии с таблицей LDAP				1	0.50
		И	На устройстве adm-pc реализована возможность выполнить вход из-под доменных пользователей				2	0.50
		И	На устройстве adm-pc настроена аутентификация через Kerberos для доступа к Identity Manager				3	0.50
		И	На контроллере домена реализована требуемая политика sudo для группы admins				2	0.50
		И	На контроллере домена реализована требуемая политика sudo для группы developers				2	0.50
		И	На контроллере домена реализованы требуемые правила HBAC для группы admins				1	0.50
		И	На контроллере домена реализованы требуемые правила HBAC для группы developers				2	0.50
4	Установка и настройка сервера Git							
		И	На устройство infra-srv2 установлена СУБД MySQL				1	0.25
		И	На устройство infra-srv2 установлена gitea				3	0.25
		И	Gitea настроена на работу с СУБД MySQL				1	0.25
		И	С устройства adm-pc есть доступ к веб-интерфейсу gitea по имени gitea.au-team.cloud				1	0.30
		И	С устройства adm-pc есть доступ к веб-интерфейсу gitea по имени gitea.au-team.cloud и протоколу HTTPS				3	0.75
		И	С устройства adm-pc есть доступ к веб-интерфейсу gitea по имени gitea.au-team.cloud и протоколу HTTP с автоматическим перенаправлением на HTTPS				3	0.75
		И	С устройства adm-pc есть доступ к веб-интерфейсу gitea по имени gitea.au-team.cloud и протоколу HTTPS, проблем с сертифкатом нет				2	0.75
		И	Аутентификация в Gitea реализована для доменных пользователей в соответствии с таблицей LDAP Users				2	0.75
5	Установка и настройка инструментов IaC							
		И	На устройство adm-pc установлен VSCodium				3	0.50
		И	На устройство adm-pc установлен Terraform версии: 1.14.5				3	0.50
		И	На устройство adm-pc установлен Git				3	0.25
		И	На устройстве adm-pc в домашнем каталоге пользователя admin01 есть требуемая структура каталогов в ~/infra				4	0.25
		И	На устройстве adm-pc содержимое каталога ~/infra добавлено в git для отслеживания				4	0.25
		И	В веб-интерфейсе gitea из-под пользователя admin01 есть приватный репозиторий с именем cloud-infra-iac				4	0.50
		И	На устройстве adm-pc содержимое каталога ~/infra добавлено в git для отслеживания и настроено на синхронизацию данных с удалённым репозиторием в gitea с именем cloud-infra-iac				4	0.50
		И	В веб-интерфейсе gitea из-под пользователя admin01 приватный репозиторий с именем cloud-infra-iac содержит актуальные данные				1	0.50
		И	В веб-интерфейсе gitea из-под пользователя admin01 приватный репозиторий с именем cloud-infra-iac содержит актуальные данные и не содержит аутентификационных данных				3	0.50
		И	На устройстве adm-pc в директории ~/infra/ansible есть виртуальное окружение venv/ansible				3	0.50
		И	На устройстве adm-pc установлен ansible с помощью pip в виртуальном окружении venv/ansible				3	0.50
		И	На устройстве adm-pc есть файл ~/infra/ansible/inventories/production/hosts				2	0.20
		И	На устройстве adm-pc файл инвентаря для ansible содержит необходимые хосты				4	0.25
		И	На устройстве adm-pc файл инвентаря для ansible содержит необходимые хосты и описан в формате YAML				4	0.25
		И	На устройстве adm-pc ansible для доступа ко всем хостам используем ключевую пару				4	0.25
		И	На устройстве adm-pc команда `ansible -i ~/infra/ansible/inventories/production/hosts -m ping all` должна выводить pong для всех хостов				4	0.25
6	Развёртывание Staging-окружения							
		И	На устройстве adm-pc все файлы необходимые для работы Terraform расположены в ~/infra/terraform из-под пользователя admin01				1	0.20
		И	На устройстве adm-pc для работы с Terraform используется требуемый провайдер bpg/proxmox версии 0.89.1				4	0.25
		И	На устройстве adm-pc для работы с Terraform используется требуемый провайдер camptocamp/freeipa версии 1.0.0				4	0.25
		И	Все требуемые устройства в соответствии с итоговой топологией развёрнуты средствами Terraform				4	2.00
		И	Все требуемые устройства в соответствии с итоговой топологией развёрнуты средствами Terraform и имеют необходимые аппаратные характеристики				5	0.50
		И	Все требуемые устройства в соответствии с итоговой топологией развёрнуты средствами Terraform и имеют необходимую IP-адресацию				5	0.50
		И	Все требуемые устройства в соответствии с итоговой топологией развёрнуты средствами Terraform и предоставляют возможность выполнить вход через консоль из-под пользователя altlinux с паролем P@ssw0rd				5	0.50
		И	С помощью Terraform на контроллере домена FreeIPA создаются DNS-записи типа A для всех развёрнутых ВМ в соответствии с итоговой топологией				5	1.00
		И	С помощью Terraform на контроллере домена FreeIPA создаются DNS-записи типа PTR для всех развёрнутых ВМ в соответствии с итоговой топологией				5	1.00
7	Настройка Staging-окружения							
		И	На устройстве adm-pc есть файл ~/infra/ansible/inventories/staging/hosts				2	0.20
		И	На устройстве adm-pc файл инвентаря для ansible содержит необходимые хосты				5	0.25
		И	На устройстве adm-pc файл инвентаря для ansible содержит необходимые хосты и описан в формате YAML				5	0.25
		И	На устройстве adm-pc ansible для доступа ко всем хостам использует ключевую пару				5	0.25
		И	На устройстве adm-pc есть файл ~/infra/ansible/playbook1_base_package.yml				2	0.20
		И	На устройстве adm-pc playbook1_base_package.yml реализует весь требуемый функционал				2	1.50
		И	На устройстве adm-pc при повторном запуске playbook1_base_package.yml статус всех задач должен быть OK или пропущено, но не выполнено				2	1.00
		И	На устройстве adm-pc есть файл ~/infra/ansible/playbook2_enter_in_domain.yml				2	0.20
		И	На устройстве adm-pc playbook2_enter_in_domain.yml реализует весь требуемый функционал				2	1.50
		И	На устройстве adm-pc при повторном запуске playbook2_enter_in_domain.yml статус всех задач должен быть OK или пропущено, но не выполнено				2	1.00
8	Установка и настройка системы мониторинга							
		И	На устройство infra-srv3 установлен Docker				2	0.20
		И	На устройство infra-srv3 установлен Docker Compose				2	0.20
		И	На устройстве infra-srv3 средствами Docker Compose запущена связка контейнеров Prometheus и Grafana				2	1.00
		И	С устройства adm-pc есть доступ к веб-интерфейсу grafana по имени grafana.au-team.cloud				2	0.30
		И	С устройства adm-pc есть доступ к веб-интерфейсу grafana по имени grafana.au-team.cloud и протоколу HTTPS				5	0.75
		И	С устройства adm-pc есть доступ к веб-интерфейсу grafana по имени grafana.au-team.cloud и протоколу HTTP с автоматическим перенаправлением на HTTPS				2	0.75
		И	С устройства adm-pc есть доступ к веб-интерфейсу grafana по имени grafana.au-team.cloud и протоколу HTTPS, проблем с сертифкатом нет				2	0.75
		И	В Grafana должен быть настроен и доступен дашборд 'Node Exporter Full'				2	0.50
		И	В систему мониторинга должны быть добавлены все хосты для сбора метрик и отображения в дашборде, за исключением adm-pc				2	2.00
Б	Развертывание приложений в отказоустойчивой масштабируемой инфраструктуре							40.00
1	Подготовка нод кластера							
		И	На всех ВМ k8s-srv* должен быть отключён swap				1	0.50
		И	На всех ВМ k8s-srv* должены быть загружены требуемые модули ядра				1	0.50
		И	На всех ВМ k8s-srv* должены быть загружены требуемые модули ядра для IPVS				1	0.50
		И	На всех ВМ k8s-srv* должны использоваться требуемые параметры ядра				1	0.50
2	Установка CRI							
		И	На всех ВМ k8s-srv* должен быть установлен containerd				1	2.00
		И	На всех ВМ k8s-srv* конфигурация по умолчанию для containerd должна включать SystemdCgroup 				1	1.00
		И	На всех ВМ k8s-srv* должна быть возможность использовать утилиту crictl				1	1.00
3	Установка необходимых приложений							
		И	На всех ВМ k8s-srv* должен быть установлен kubelet				1	1.00
		И	На всех ВМ k8s-srv* должен быть установлен kubeadm				1	1.00
		И	На всех ВМ k8s-srv* должен быть установлен kubectl				1	1.00
		И	На всех ВМ k8s-srv* должен быть запущен kubectl				1	0.50
4	Настройка HA для кластера Kubernetes							
		И	На всех control plane нодах должен быть установлен keepalived				1	0.50
		И	На всех control plane нодах должен быть установлен haproxy				1	0.50
		И	На устройстве k8s-srv1 должен быть настроен keepalived в соответствии с требованиями задания				1	1.00
		И	На устройстве k8s-srv2 должен быть настроен keepalived в соответствии с требованиями задания				1	1.00
		И	На устройстве k8s-srv3 должен быть настроен keepalived в соответствии с требованиями задания				1	1.00
		И	На устройстве k8s-srv1 должен быть настроен VIP для keepalived в соответствии с требованиями задания				1	1.00
		И	На всех control plane нодах должен быть настроен haproxy в соответствии с требованиями задания				1	1.00
		И	С устройства adm-pc должен быть доступ к веб-интерфейсу статистики haproxy по http://haproxy.au-team.cloud:9000/haproxy_stats				1	2.00
5	Настройка инициализации кластера Kubernetes							
		И	На устройстве k8s-srv1 есть файл /etc/kubernetes/kubeadm-config.yaml				1	0.50
		И	На устройстве k8s-srv1 есть файл /etc/kubernetes/kubeadm-config.yaml и содержит в себе ряд обязательных параметров в соответствии с требованиями задания				1	2.00
		И	На устройстве k8s-srv1 выполнена инициализация кластера Kubernetes из файла /etc/kubernetes/kubeadm-config.yaml				2	2.00
6	Установка и настройка CNI в кластер Kubernetes							
		И	На устройстве k8s-srv1 есть файл /etc/kubernetes/manifests/calico-install.yaml				3	0.50
		И	В кластере Kubernetes в качестве CNI используется Calico				2	1.00
		И	Для установки Calico в кластер Kubernetes использовался оператор Tigera				2	2.00
		И	На устройстве k8s-srv1 применён манифест /etc/kubernetes/manifests/calico-install.yaml				3	2.00
7	Установка и настройка NodeLocalDNS							
		И	На устройстве k8s-srv1 есть файл /etc/kubernetes/manifests/nodelocaldns-daemonset.yaml				3	0.50
		И	Данный манифест должен использовать NodeLocalDNS для запуска кэширующих DNS серверов на каждой ноде по адресу `169.254.25.10` (link-local)				3	2.00
		И	На устройстве k8s-srv1 применён манифест /etc/kubernetes/manifests/nodelocaldns-daemonset.yaml				4	2.00
8	Добавление controll нод в кластер Kubernetes							
		И	В кластер Kubernetes присоеденена нода k8s-srv2 как control plane				4	1.00
		И	В кластер Kubernetes присоеденена нода k8s-srv3 как control plane				4	1.00
		И	В кластере Kubernetes ноды с CoreDNS распределены по кластеру				4	1.00
9	Добавление worker нод в кластер Kubernetes							
		И	В кластер Kubernetes присоеденена нода k8s-srv4 как worker				6	1.00
		И	В кластер Kubernetes присоеденена нода k8s-srv5 как worker				6	1.00
10	Установка и настройка kubectl							
		И	На устройстве adm-pc установлен kubectl				6	1.00
		И	На устройстве adm-pc kubectl настроен на работу с API развёрнутого кластера Kubernetes в соответствии с Схема доступа к K8s-API в HA кластере Kubernetes				6	2.00
В	Настройка объектного хранилища для централизованного управления данными и обеспечения отказоустойчивости хранения 							20.00
1	Подготовка узлов кластера для объектного хранилища							
		И	В веб-интерфейсе гипервизора удалены необходимые виртуальные машины				1	0.25
		И	В веб-интерфейсе гипервизора созданы необходимые виртуальные машины				1	0.25
		И	В веб-интерфейсе гипервизора созданы необходимые виртуальные машины с требуемыми аппаратными характеристиками				1	0.50
2	Установка продукта «Кибер Хранилище»							
		И	На все созданные ВМ установлена требуемая ОС				1	1.00
		И	Виртуальная машина cyber-storage-1 должна совмещать в себе роли Сервер управления и Подчиненный сервер				1	1.00
		И	Виртуальная машина cyber-storage-2 должна быть установлена только с ролью Подчиненный сервер				1	1.00
		И	Виртуальная машина cyber-storage-3 должна быть установлена только с ролью Подчиненный сервер				1	1.00
3	Настройка Сервера управления							
		И	Сервер управления доступен с виртуальной машины adm-pc по имени cyber-storage.au.team на порту 8888				2	1.00
		И	Доступ на Сервер управления доступен из-под пользователя admin, с паролем AdminCloud154				2	1.00
		И	На Сервере управления создан Кластер хранилища с именем: cloud-storage				2	1.00
		И	В Кластер хранилища cloud-storage добавлен сервер cyber-storage-2				2	1.00
		И	В Кластер хранилища cloud-storage добавлен сервер cyber-storage-3				2	1.00
4	Создание объектного хранилища							
		И	На Сервере управления создано объектное хранилище S3				3	1.00
		И	Доступ к объектному хранилищу S3 предоставляется по имени s3.au.team и протоколу HTTP				3	1.00
		И	Доступ к объектному хранилищу S3 предоставляется по имени s3.au.team и протоколу HTTPS				3	1.00
		И	Политика хранения в объектном хранилище реализована в соответствии с требованиями задания				3	1.00
		И	В объектном хранилище создан пользователь в соответствии с требованиями задания				3	1.00
5	Настройка доступа к объектному хранилищу							
		И	На устройство adm-pc утсановлен AWS CLI				4	1.00
		И	На устройство adm-pc AWS CLI настроен на работу с объектным хранилищем из-под требуемого пользователя				4	1.00
6	Работа в объектном хранилище							
		И	В объектном хранилище создана корзина с требуемым именем				4	1.00
		И	В объектное хранилище загружен файл в соответствии с требованиями задания				4	1.00
		И	Загруженный файл доступен при обращении с adm-pc в браузере по http://s3.au.team/user-bucket/user-document.pdf				4	1.00
						Итого:		100.00