Blog (18)
Komentarze (134)
Recenzje (0)

DevStack, OpenStack i OpenStack z Kolla na kontenerach

@themamuthDevStack, OpenStack i OpenStack z Kolla na kontenerach15.04.2018 13:14

Tworzenie prywatnej czy to publicznej chmury nigdy nie było takie łatwe. Pojawienie się rozwiązania OpenStack na rynku w roku 2010 zrobiło pewną rewolucję w tej dziedzinie.

DevStack

Zaczęcie zabawy z OpenStack jest bardzo prostę. Dzięki rozwiązaniu DevStack czyli środowiska deweloperskiego możemy bez specjalistycznej wiedzy zainstalować i testować OpenStack. Choć wymaga to od nas choć podstawowych umiejętności obsługi systemu Linux z cli. Po pierwsze musimy zainstalować czystą wersje systemu Ubuntu / CentOS. Po drugie mieć na tyle umiejętności by poruszać się po konsoli w celu pobrania repozytorium projektu z git i uruchomić je. Choć dobrze pójść o krok dalej i ustawić trochę wartości w pliku konfiguracyjnym by nie zastanawiać się jakie jest hasło do Dashboard modułu Horizon.

Uruchomienie jest proste i nie będzie tajemnicą jeżeli będę bazował na instrukcji z oficjalnej dokumentacji DevStack 

Po instalacji "czystej" wersji systemu Ubuntu / CentOS musimy upewnić się co do adresów w naszej sieci gdyż DevStack (OpenStack też) będzie wykorzystywał te adresy i przydzielał je według własnego serwera DHCP. Co wprzypadku działania w sieci drugiego takiego serwera może powodować konflikty adresów IP. Gdy nasz serwer DHCP z routera będzie przydzielał ten sam adres który, wybierze sobie DevStack. Najlepszym rozwiązaniem jest, jeżeli chcemy podłączyć DevStack do istniejącej sieci bez separacji NAT o wydzielenie puli dla serwera DHCP w naszym DevStack. Kolejnym sposobem podłączenie do innego rutera czyli osobnej sieci lub w samym DevStack utworzenie sieci NAT.

Instalacje zaczynamy od utworzenia użytkownika:

useradd -s /bin/bash -d /opt/stack -m stack

Instalujemy pakiet sudo i dodajemy użytkownika stack jako użytkownika uprawnionego do używania sudo bez podawania hasła.

apt install sudo -y
echo "stack ALL=(ALL) NOPASSWD: ALL" >> /etc/sudoers

Instalujemy też pakiet git. Przełączamy się na użytkownika stack. Klonujemy repo DevStack i przechodzimy do utworzonego repo.

sudo apt install git -y
sudo su - stack
git clone <span id=<span class="hljs-string">"<span id="https://git.openstack.org/openstack-dev/devstack">https://git.openstack.org/openstack-dev/devstack</span>"</span>>https://git.openstack.org/openstack-dev/devstack</span>
cd devstack

Samo uruchomienie DevStack to już tylko wydanie polecenia ./stack.sh

Można pokusić się o dodatkową konfigurację i zdefiniować swoje hasło i ustawienia IP w pliku devstack/samples/local.conf. Plik konfiguracyjny local.conf kopiujemy do tego samego katalogu gdzie znajduje się stack.sh

  • Ustawienie FLOATING_RANGE to zakres adresów IP nie używany w Twojej sieci podany wraz z maską np 192.168.1.1/24
  • Ustawienie FIXED_RANGE and FIXED_NETWORK_SIZE to ustawienie adresów IP wewnątrz sieci DevStack.
  • Ustawienie FLAT_INTERFACE to ustawienie interfejsu sieciowego takiego który, ma dostęp do Internetu.
  • Ustawienie hasła administracyjnego używanego dla konta admin i demo.
  • Ustawienie hasła administracyjnego do MySQL administrative password.
  • Ustawienie hasła do RabbitMQ.
  • Ustawienie hasła do usług. Używany przez OpenStack services (Nova, Glance, itp) do autoryzacji w Keystone.

Przykładowy plik local.conf zaprezentowany poniżej.

[[local|localrc]]
FLOATING_RANGE=192.168.1.224/27
FIXED_RANGE=10.11.12.0/24
FIXED_NETWORK_SIZE=256
FLAT_INTERFACE=eth0
ADMIN_PASSWORD=supersecret
DATABASE_PASSWORD=iheartdatabases
RABBIT_PASSWORD=flopsymopsy
SERVICE_PASSWORD=iheartksl

Konfiguracja od momentu wydania polecenia (uruchomienie skryptu) stack.sh wykonuje całą pracę automatycznie. W przypadku braku pliku konfiguracyjnego zostaniemy poproszeni o podanie hasła do wyżej wymienionych usług.

Dla lubiących oglądać i słuchać:

Po całej konfiguracji otrzymamy monit o dostępie dashboard pod adresem "wyplutym" przez konsolę. Przechodzimy pod adres i naszym oczom pokaże się

Operacje w dashboard przedstawię w osobnym wpisie. Przejdźmy teraz do innego modelu OpenStack All in one - opartego na kontenerach.

OpenStack Kolla na dockerach (All in one)

Projekt Kolla OpenStack to trochę inne spojrzenie na wdrożenie chmury. Nie wymaga on wysokich umiejętności od osoby przeprowadzającej wdrożenie. Proces jest automatyzowany dzięki ansible. Jednak nie można lekceważyć go jako pełno prawnego produktu. Gdyż przeniesieni środowiska na kontenery daje nam pewną elastyczność na rozwój środowiska i jego rozbudowę. Backup, wymiana uszkodzonych modułów/kontenerów też jest prostsza.

Spójrzmy zatem jak przeprowadzić konfigurację i wdrożenie OpenStack AIO z Kolla. Wersję którą weźmiemy na warsztat to wersja Pike OpenStack.

Przygotowania

Będziemy potrzebowali "czystej" wersji systemu Ubuntu Server najlepiej 16.04 LTS z dwoma fizycznymi interfejsami sieciowymi (choć to też nie problem). Instalację i konfigurację niżej przedstawioną możemy przeprowadzić na fizycznym komputerze lub maszynie wirtualnej takiej jak VirtualBox, KVM, QEMU, VMware, Hyper-V itp. Ja instalacje wykonałem w VirtualBox.

Poniższy materiał zawiera trochę teorii oraz przeprowadza nas przez proces konfiguracji maszyny wirtualnej.

Pozwolicie, że proces instalacji systemu Ubuntu pominę w tym opisie i przejdziemy od razu do konfiguracji środowiska. Dla mniej wprawionych z VirtualBox zapraszm do innych moich wpisów lub materiału video poniżej

A zatem mamy nasz system Ubuntu.

Musimy zaktualizować nasz system i listę pakietów.

sudo apt update && sudo apt upgrade -y && sudo apt full-upgrade -y

Do środowiska OpenStack potrzebować będziemy dwie karty sieciowe dalej opisywane jako internal network i neutron external network, musimy je odpowiednio skonfigurować. Karta pierwsza może przyjąć adres DHCP lub static oczywiście z puli adresowej waszej sieci - u mnie to adres 10.255.255.2/24. W przypadku DHCP warto zadbać o to by adres zawsze był przydzielany ten sam, by po restarcie nie okazało się, że nasz OpenStack przestanie działać.

Druga karta będzie zarządzana przez OpenStack. Nie jest to żadna wiedza tajemna, a informacja o tym jest w pliku konfiguracyjnym. Dlatego wiec ustawimy ja w trybie manual. Da nam to pewność, że interface będzie zawsze UP po restarcie maszyny. Zatem konfigurujemy nasze karty sieciowe.

sudo nano /etc/network/interfaces

Plik interfaces może wyglądać podobnie do przedstawionego poniżej.

# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).

source /etc/network/interfaces.d/*

# The loopback network interface
auto lo
iface lo inet loopback

# The primary network interface
auto enp0s3
iface enp0s3 inet static
  address 10.255.255.3
  netmask 255.255.255.0
  gateway 10.255.255.1
  dns-nameservers 208.67.222.222 213.155.166.100 1.1.1.1 1.0.0.1

auto enp0s8
iface enp0s8 inet manual

Re starujemy sieć lub system

sudo systemctl restart networking
# lub
sudo reboot

Może się tak zdarzyć, że po restarcie interfejsu (usługi networking) otrzymamy dwa adresy IP na interfejsie naszej karty sieciowej.

Wtedy wydajemy polecenia:

sudo ip a f dev <nazwa_interfejsu_sieciowego>; sudo systemctl restart networking

Po zmianie adresu IP może nas wyrzucić z konsoli SSH, jeżeli adres statyczny ustawimy na inny niż ten z DHCP po którym mamy aktywną sesję.

Pozostaje nam zainstalowanie tylko brakującej części oprogramowania a która, jest wymagana do uruchomienia środowiska.

sudo apt install python-jinja2 python-pip libssl-dev -y
sudo -H pip install -U pip ansible kolla-ansible

Konfiguracja

Kopiujemy przykładowe pliki konfiguracyjne (lepiej nazwać je wzorcowe) i dokonujemy ich edycji.

sudo cp -r /usr/local/share/kolla-ansible/etc_examples/kolla /etc/kolla
sudo nano /etc/kolla/globals.yml

Bardziej szczegółowo plik omawiam w filmie poniżej

kolla_base_distro: "ubuntu"
kolla_install_type: "binary"
openstack_release: "pike"
kolla_internal_vip_address: "10.255.255.4"
kolla_external_vip_address: "10.255.255.5"
network_interface: "[nazwa pierwszej karty sieciowej]"
neutron_external_interface: "[nazwa drugiej karty sieciowej]"
kolla_enable_tls_external: "yes"
kolla_external_fqdn_cert: "{{ node_config_directory }}/certificates/haproxy.pem"

Powyżej zamiana opcji/miejsc, która w tym ćwiczeniu powinna nas interesować.

Dodatkowo tworzymy plik konfiguracyjny dla naszego modułu nova.

sudo mkdir -p /etc/kolla/config/nova
sudo vim /etc/kolla/config/nova/nova-compute.conf
# w pliku nova-compute dodajemy poniższą zawartość
[libvirt]
virt_type = qemu
cpu_mode = none

Jeżeli daliśmy yes dla TSL (nie jest on wymagany, możemy dać "no") to musimy wygenerować certyfikaty:

sudo kolla-ansible certificates

Możemy też wygenerować sobie certyfikaty let's encrypt by nasz certyfikat był rozpoznawany. Wystarczy tylko wygenerowane przez let's certyfikaty nazwać idenctycznie jak te wygenerowane przez kolla-ansible

Generujemy hasła dla naszego środowiska (plik po wygenerowaniu można edytować przed rozpoczęciem konfiguracji naszego środowiska w celu ustawienia prostszego hasła dla konta administratora itp).

sudo kolla-genpwd

Przygotowanie serwera czyli bootstrap. Zainstaluje on wszystkie niezbędne skłądniki sprawdzi też czy konfiguracja jest prawidłowa:

sudo kolla-ansible -i /usr/local/share/kolla-ansible/ansible/inventory/all-in-one bootstrap-servers

Pobieramy obrazy Dockera oraz po zakończeniu sprawdzamy czy mamy je wszystkie.

sudo kolla-ansible pull
sudo docker images

Dokonujemy sprawdzenia przed finalnym wdrożeniem. Zweryfikuje poprawność plików konfiguracyjnych pakietów itp.

sudo kolla-ansible prechecks -i /usr/local/share/kolla-ansible/ansible/inventory/all-in-one

Wdrożenie

Nasze wdrożenie. Tu będą już stawiane kontenery i odpowiednio konfigurowane.

sudo kolla-ansible deploy -i /usr/local/share/kolla-ansible/ansible/inventory/all-in-one

Sprawdzamy kontenery - wszystkie powinny mieć cały czas status UP

sudo docker ps -a

Generujemy plik admin-openrc który jest plikiem konfiguracyjnym. Na podstawie tego pliku będziemy przełączać się na odpowiedni kontekst do projektów w OpenStack i wydawać komendy w CLI.

sudo kolla-ansible post-deploy

Instalujemy klienta CLI dla OpenStack.

sudo -H pip install -U python-openstackclient

Edytujemy plik /usr/local/share/kolla-ansible/init-runonce

sudo /usr/local/share/kolla-ansible/init-runonce

Konfigurację tego pliku ustawiamy na:

EXT_NET_CIDR='10.255.225.0/24'
EXT_NET_RANGE='start=10.255.255.6,end=10.255.255.36'
EXT_NET_GATEWAY='10.255.255.1'

Oczywiście jeżeli chcecie możecie zwiększyć ilość urządzeń w sieci. Uzyskamy to po przez podanie większego zakresu w zmiennej EXT_NET_RANGE.

Przełączamy się na root i ładujemy kontekst pracy z OpenStack i uruchamiamy edytowany przed chwilą skrypt.

sudo su -
source /etc/kolla/admin-openrc.sh
cd /usr/local/share/kolla-ansible/
./init-runonce
exit

Horizon jest dostępny pod adresem podanym w kolla_external_vip_address: a hasło dla konta admin możemy po brać stąd:

sudo grep keystone_admin_password /etc/kolla/passwords.ym

W kolejnym odcinku poruszamy się po naszym dashboard :)

Bibliografia

All in One :)

Szanowna Użytkowniczko! Szanowny Użytkowniku!
×
Aby dalej móc dostarczać coraz lepsze materiały redakcyjne i udostępniać coraz lepsze usługi, potrzebujemy zgody na dopasowanie treści marketingowych do Twojego zachowania. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności.

Kliknij "PRZECHODZĘ DO SERWISU" lub na symbol "X" w górnym rogu tej planszy, jeżeli zgadzasz się na przetwarzanie przez Wirtualną Polskę i naszych Zaufanych Partnerów Twoich danych osobowych, zbieranych w ramach korzystania przez Ciebie z usług, portali i serwisów internetowych Wirtualnej Polski (w tym danych zapisywanych w plikach cookies) w celach marketingowych realizowanych na zlecenie naszych Zaufanych Partnerów. Jeśli nie zgadzasz się na przetwarzanie Twoich danych osobowych skorzystaj z ustawień w polityce prywatności. Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać zmieniając ustawienia w polityce prywatności (w której znajdziesz odpowiedzi na wszystkie pytania związane z przetwarzaniem Twoich danych osobowych).

Od 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (określane jako "RODO"). W związku z tym chcielibyśmy poinformować o przetwarzaniu Twoich danych oraz zasadach, na jakich odbywa się to po dniu 25 maja 2018 roku.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będzie Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, oraz pozostałe spółki z grupy Wirtualna Polska, jak również nasi Zaufani Partnerzy, z którymi stale współpracujemy. Szczegółowe informacje dotyczące administratorów znajdują się w polityce prywatności.

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług, portali i serwisów internetowych udostępnianych przez Wirtualną Polskę, w tym zapisywanych w plikach cookies, które są instalowane na naszych stronach przez Wirtualną Polskę oraz naszych Zaufanych Partnerów.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy je dostarczać coraz lepsze materiały redakcyjne, dopasować ich tematykę do Twoich zainteresowań, tworzyć portale i serwisy internetowe, z których będziesz korzystać z przyjemnością, zapewniać większe bezpieczeństwo usług, udoskonalać nasze usługi i maksymalnie dopasować je do Twoich zainteresowań, pokazywać reklamy dopasowane do Twoich potrzeb. Szczegółowe informacje dotyczące celów przetwarzania Twoich danych znajdują się w polityce prywatności.

Komu możemy przekazać dane?

Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa – oczywiście tylko, gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz prawo żądania dostępu, sprostowania, usunięcia lub ograniczenia przetwarzania danych. Możesz wycofać zgodę na przetwarzanie, zgłosić sprzeciw oraz skorzystać z innych praw wymienionych szczegółowo w polityce prywatności.

Jakie są podstawy prawne przetwarzania Twoich danych?

Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy). Podstawą prawną przetwarzania danych w celu pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych realizowanych przez Wirtualną Polskę na zlecenie Zaufanych Partnerów i bezpośrednio przez Zaufanych Partnerów będzie odbywać się na podstawie Twojej dobrowolnej zgody.