Openstack Mitaka with Packstack (RHEL7,CentOS7)

Packstack คืออะไร
Packstack คือ เครื่องมือที่ใช้สำหรับการติดตั้ง Openstack แบบ Cluster สามารถติดตั้งแบบ all-in-one เพื่อให้เราสามารถเรียนรู้การใช้งาน หรือจะติดตั้งแบบ multinode เพื่อใช้งานได้ด้วยการสร้างและปรับแต่งค่าของ answerfille เบื้องหลังการทำงานจะใช้ config management แบบ Puppet ที่มี puppet module ทำหน้าเป็น template สำหรับการติดตั้ง openstack หลังจากติดตั้งแล้วสามารถดูได้ที่ /usr/share/openstack-puppet/modules/

$ ls /usr/share/openstack-puppet/modules/
aodh        elasticsearch  java             module-data       openstacklib  ssh       uchiwa
apache      firewall       kafka            mongodb           pacemaker     staging   vcsrepo
cassandra   fluentd        keepalived       mysql             packstack     stdlib    vlan
ceilometer  git            keystone         n1k_vsm           qpid          swift     vswitch
ceph        glance         kibana3          nagios            rabbitmq      sysctl    xinetd
certmonger  gnocchi        kmod             neutron           redis         tempest   zaqar
cinder      haproxy        manila           nova              remote        timezone  zookeeper
concat      heat           memcached        nssdb             rsync         tomcat
contrail    horizon        midonet          ntp               sahara        tripleo
corosync    inifile        mistral          opendaylight      sensu         trove
datacat     ironic         module-collectd  openstack_extras  snmp          tuskar

เตรียม infrastructure
สร้าง directory ชื่อ openstack และภายในมี Vagrantfile ดังนี้

Vagrantfile

# -*- mode: ruby -*-
# vi: set ft=ruby :

$script = <<SCRIPT
echo "run provisioning..."
echo 'root:password' | sudo chpasswd
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
setenforce 0
yum install -y epel-release
yum install -y centos-release-openstack-mitaka
yum update -y
yum install -y openstack-packstack
SCRIPT

Vagrant.configure("2") do |config|
  config.vm.box = "centos/7"
  config.vm.define :controller do |node|
            node.vm.network :private_network, :ip => "10.0.0.10"
            node.vm.network :private_network, :ip => "20.0.0.10"
            node.vm.provider :libvirt do |domain|
              domain.uri = 'qemu+unix:///system'
              domain.driver = 'kvm'
              domain.host = "server1.example.com"
              domain.memory = 8192
              domain.cpus = 4
              domain.nested = true
              domain.volume_cache = 'none'
              domain.storage :file, :size => '20G'
            end
    node.vm.provision "shell", inline: $script
  end
  config.vm.define :compute do |node|
            node.vm.network :private_network, :ip => "10.0.0.11"
            node.vm.network :private_network, :ip => "20.0.0.11"
            node.vm.provider :libvirt do |domain|
              domain.uri = 'qemu+unix:///system'
              domain.driver = 'kvm'
              domain.host = "server2.example.com"
              domain.memory = 4096
              domain.cpus = 2
              domain.nested = true
              domain.volume_cache = 'none'
            end
    node.vm.provision "shell", inline: $script
  end
end
$ vagrant up --provider libvirt
$ vagrant status
Current machine states:

controller                running (libvirt)
compute                   running (libvirt)

$ vagrant halt
$ vagrant up

$ vagrant ssh controller
$ sudo su -
$ getenforce
Disabled

$ sudo systemctl disable firewalld
$ sudo systemctl stop firewalld
$ sudo systemctl disable NetworkManager
$ sudo systemctl stop NetworkManager
$ sudo systemctl enable network
$ sudo systemctl start network

เตรียม cinder list
Cinder Service กำหนดให้ใช้ disk จาก volume group ที่ชื่อ cinder-volumes และใน config Vagrant ได้มีการเพิ่ม disk ให้แก่ vm 1 ลูก mount อยู่ที่ /dev/vdb

$ sudo su -
# fdisk -l | grep vdb
# Disk /dev/vdb: 21.5 GB, 21474836480 bytes, 41943040 sectors

# pvcreate /dev/vdb
# vgcreate cinder-volumes /dev/vdb
# vgs
  VG             #PV #LV #SN Attr   VSize  VFree  
  VolGroup00       1   2   0 wz--n- 39.50g 320.00m
  cinder-volumes   1   0   0 wz--n- 20.00g  20.00g

สร้างไฟล์ answerfile001.txt จากคำสั่ง packstack

# cd /root
# packstack --gen-answer-file  answerfile001.txt

# ip a s eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 52:54:00:b5:b5:fa brd ff:ff:ff:ff:ff:ff
    inet 192.168.121.147/24 brd 192.168.121.255 scope global dynamic eth0
       valid_lft 1808sec preferred_lft 1808sec
    inet6 fe80::5054:ff:feb5:b5fa/64 scope link 
       valid_lft forever preferred_lft forever

# ip a s eth1
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 52:54:00:7b:64:20 brd ff:ff:ff:ff:ff:ff
    inet 10.0.0.10/24 brd 10.0.0.255 scope global eth1
       valid_lft forever preferred_lft forever
    inet6 fe80::5054:ff:fe7b:6420/64 scope link 
       valid_lft forever preferred_lft forever

แก้ ip ของ management network
packstack จะทำการเอาค่า ip จาก eth0 มาเป็นค่าของ management ip ซึ่งคือ 192.168.121.147 ค่า ip จะเป็นค่าที่อยู่ใน answerfile001.txt

# grep HOST answerfile001.txt
CONFIG_CONTROLLER_HOST=192.168.121.9
CONFIG_COMPUTE_HOSTS=192.168.121.9
CONFIG_NETWORK_HOSTS=192.168.121.9
CONFIG_VCENTER_HOST=
CONFIG_STORAGE_HOST=192.168.121.9
CONFIG_SAHARA_HOST=192.168.121.9
CONFIG_AMQP_HOST=192.168.121.9
CONFIG_MARIADB_HOST=192.168.121.9
...

# eth0_ip=$(ip addr show eth0 | grep "inet\b" | awk '{print $2}' | cut -d/ -f1)
# echo $eth0_ip
192.168.121.9

# eth1_ip=$(ip addr show eth1 | grep "inet\b" | awk '{print $2}' | cut -d/ -f1)
# echo $eth1_ip
10.0.0.10

# sed -i.orig "s/$eth0_ip/$eth1_ip/g" answerfile001.txt 
# grep HOST answerfile001.txt 
CONFIG_CONTROLLER_HOST=10.0.0.10
CONFIG_COMPUTE_HOSTS=10.0.0.10
CONFIG_NETWORK_HOSTS=10.0.0.10
CONFIG_VCENTER_HOST=
CONFIG_STORAGE_HOST=10.0.0.10
CONFIG_SAHARA_HOST=10.0.0.10
CONFIG_AMQP_HOST=10.0.0.10
CONFIG_MARIADB_HOST=10.0.0.10
CONFIG_CINDER_NETAPP_HOSTNAME=

ปรับแต่งค่าใน answerfile001.txt

CONFIG_KEYSTONE_ADMIN_PW=password
CONFIG_LBAAS_INSTALL=y
CONFIG_NEUTRON_METERING_AGENT_INSTALL=y
CONFIG_NEUTRON_FWAAS=y

CONFIG_NEUTRON_ML2_TYPE_DRIVERS=vlan,vxlan,gre,flat,local
CONFIG_NEUTRON_ML2_TENANT_NETWORK_TYPES=local,vlan,gre,vxlan
CONFIG_NEUTRON_ML2_VLAN_RANGES=physnet2:1:1000

CONFIG_NEUTRON_OVS_BRIDGE_MAPPINGS=physnet2:br-eth2
CONFIG_NEUTRON_OVS_BRIDGE_IFACES=br-ex:eth0,br-eth2:eth2
CONFIG_HEAT_INSTALL=y

CONFIG_HEAT_CFN_INSTALL=y
CONFIG_TROVE_INSTALL=y
CONFIG_HORIZON_SSL=y
CONFIG_PROVISION_DEMO=n

แก้ไขด้วย crudini

# yum install crudini rubygems -y
# answerfile=answerfile001.txt

# crudini --set $answerfile general CONFIG_KEYSTONE_ADMIN_PW password
# crudini --set $answerfile general CONFIG_LBAAS_INSTALL y
# crudini --set $answerfile general CONFIG_NEUTRON_METERING_AGENT_INSTALL y
# crudini --set $answerfile general CONFIG_NEUTRON_FWAAS y

# crudini --set $answerfile general CONFIG_NEUTRON_ML2_TYPE_DRIVERS vlan,vxlan,gre,flat,local
# crudini --set $answerfile general CONFIG_NEUTRON_ML2_TENANT_NETWORK_TYPES local,vlan,gre,vxlan

# crudini --set $answerfile general CONFIG_NEUTRON_ML2_VLAN_RANGES physnet2:1:1000

# crudini --set $answerfile general CONFIG_NEUTRON_OVS_BRIDGE_MAPPINGS ext-net:br-ex,physnet2:br-eth2
# crudini --set $answerfile general CONFIG_NEUTRON_OVS_BRIDGE_IFACES br-ex:eth0,br-eth2:eth2

# crudini --set $answerfile general CONFIG_HEAT_INSTALL y
# crudini --set $answerfile general CONFIG_TROVE_INSTALL y

# crudini --set $answerfile general CONFIG_HEAT_CFN_INSTALL y
# crudini --set $answerfile general CONFIG_HORIZON_SSL y
# crudini --set $answerfile general CONFIG_PROVISION_DEMO n
# crudini --set $answerfile general CONFIG_CINDER_VOLUMES_CREATE n

# packstack --answer-file answerfile001.txt

Welcome to the Packstack setup utility

The installation log file is available at: /var/tmp/packstack/20160823-023836-_wAfqR/openstack-setup.log

Installing:
Clean Up                                             [ DONE ]
Discovering ip protocol version                      [ DONE ]
Setting up ssh keys                                  [ DONE ]
Preparing servers                                    [ DONE ]
Pre installing Puppet and discovering hosts' details [ DONE ]
Adding pre install manifest entries                  [ DONE ]
Setting up CACERT                                    [ DONE ]
Adding AMQP manifest entries                         [ DONE ]
Adding MariaDB manifest entries                      [ DONE ]
Adding Apache manifest entries                       [ DONE ]
Fixing Keystone LDAP config parameters to be undef if empty[ DONE ]
Adding Keystone manifest entries                     [ DONE ]
Adding Glance Keystone manifest entries              [ DONE ]
Adding Glance manifest entries                       [ DONE ]
Adding Cinder Keystone manifest entries              [ DONE ]
Checking if the Cinder server has a cinder-volumes vg[ DONE ]
Adding Cinder manifest entries                       [ DONE ]
Adding Nova API manifest entries                     [ DONE ]
Adding Nova Keystone manifest entries                [ DONE ]
Adding Nova Cert manifest entries                    [ DONE ]
Adding Nova Conductor manifest entries               [ DONE ]
Creating ssh keys for Nova migration                 [ DONE ]
Gathering ssh host keys for Nova migration           [ DONE ]
Adding Nova Compute manifest entries                 [ DONE ]
Adding Nova Scheduler manifest entries               [ DONE ]
Adding Nova VNC Proxy manifest entries               [ DONE ]
Adding OpenStack Network-related Nova manifest entries[ DONE ]
Adding Nova Common manifest entries                  [ DONE ]
Adding Neutron VPNaaS Agent manifest entries         [ DONE ]
Adding Neutron FWaaS Agent manifest entries          [ DONE ]
Adding Neutron LBaaS Agent manifest entries          [ DONE ]
Adding Neutron API manifest entries                  [ DONE ]
Adding Neutron Keystone manifest entries             [ DONE ]
Adding Neutron L3 manifest entries                   [ DONE ]
Adding Neutron L2 Agent manifest entries             [ DONE ]
Adding Neutron DHCP Agent manifest entries           [ DONE ]
Adding Neutron Metering Agent manifest entries       [ DONE ]
Adding Neutron Metadata Agent manifest entries       [ DONE ]
Adding Neutron SR-IOV Switch Agent manifest entries  [ DONE ]
Checking if NetworkManager is enabled and running    [ DONE ]
Adding OpenStack Client manifest entries             [ DONE ]
Adding Horizon manifest entries                      [ DONE ]
Adding Swift Keystone manifest entries               [ DONE ]
Adding Swift builder manifest entries                [ DONE ]
Adding Swift proxy manifest entries                  [ DONE ]
Adding Swift storage manifest entries                [ DONE ]
Adding Swift common manifest entries                 [ DONE ]
Adding Heat manifest entries                         [ DONE ]
Adding Heat CloudFormation API manifest entries      [ DONE ]
Adding Gnocchi manifest entries                      [ DONE ]
Adding Gnocchi Keystone manifest entries             [ DONE ]
Adding MongoDB manifest entries                      [ DONE ]
Adding Redis manifest entries                        [ DONE ]
Adding Ceilometer manifest entries                   [ DONE ]
Adding Ceilometer Keystone manifest entries          [ DONE ]
Adding Aodh manifest entries                         [ DONE ]
Adding Aodh Keystone manifest entries                [ DONE ]
Adding Trove Keystone manifest entries               [ DONE ]
Adding Trove manifest entries                        [ DONE ]
Adding Nagios server manifest entries                [ DONE ]
Adding Nagios host manifest entries                  [ DONE ]
Copying Puppet modules and manifests                 [ DONE ]
Applying 10.0.0.10_prescript.pp
....
10.0.0.10_nagios.pp:                                 [ DONE ]       
10.0.0.10_nagios_nrpe.pp:                            [ DONE ]       
Applying Puppet manifests                            [ DONE ]
Finalizing                                           [ DONE ]

 **** Installation completed successfully ******

Additional information:
 * Time synchronization installation was skipped. Please note that unsynchronized time on server instances might be problem for some OpenStack components.
 * File /root/keystonerc_admin has been created on OpenStack client host 10.0.0.10. To use the command line tools you need to source the file.
 * NOTE : A certificate was generated to be used for ssl, You should change the ssl certificate configured in /etc/httpd/conf.d/ssl.conf on 10.0.0.10 to use a CA signed cert.
 * To access the OpenStack Dashboard browse to https://10.0.0.10/dashboard .
Please, find your login credentials stored in the keystonerc_admin in your home directory.
 * To use Nagios, browse to http://10.0.0.10/nagios username: nagiosadmin, password: 292931d483bb4c13
 * The installation log file is available at: /var/tmp/packstack/20160823-024129-glQQuf/openstack-setup.log
 * The generated manifests are available at: /var/tmp/packstack/20160823-024129-glQQuf/manifests

เปิด browser https://10.0.0.10/dashboard
ssl accept
Selection_729

login ด้วย admin/password
login

Selection_731

Openvswitch Network
ทดสอบ ดูว่า Openvswitch สร้าง bridge อะไรให้กับระบบบ้าง

# ovs-vsctl show
c319424e-43f2-4440-ba92-0f57b4ec3bf3
    Bridge "br-eth2"
        Port "br-eth2"
            Interface "br-eth2"
                type: internal
        Port "phy-br-eth2"
            Interface "phy-br-eth2"
                type: patch
                options: {peer="int-br-eth2"}
        Port "eth2"
            Interface "eth2"
    Bridge br-ex
        Port phy-br-ex
            Interface phy-br-ex
                type: patch
                options: {peer=int-br-ex}
        Port "eth0"
            Interface "eth0"
        Port br-ex
            Interface br-ex
                type: internal
    Bridge br-int
        fail_mode: secure
        Port int-br-ex
            Interface int-br-ex
                type: patch
                options: {peer=phy-br-ex}
        Port "int-br-eth2"
            Interface "int-br-eth2"
                type: patch
                options: {peer="phy-br-eth2"}
        Port br-int
            Interface br-int
                type: internal
        Port patch-tun
            Interface patch-tun
                type: patch
                options: {peer=patch-int}
    Bridge br-tun
        fail_mode: secure
        Port patch-int
            Interface patch-int
                type: patch
                options: {peer=patch-tun}
        Port br-tun
            Interface br-tun
                type: internal
    ovs_version: "2.5.0"

ภาพแสดงการเชื่อมต่อภายใน จาก instance vm ออก internet ต้องผ่าน อุปกรณ์ ที่เป็น virtual network device ต่างๆ จำนวน 9 อุปกรณ์ ดังรูป
ovs-network
การเชื่อมต่อ ระหว่าง br-ex และ eth0
การเชื่อมต่อ ระหว่าง eth0 และ br-ex เพื่อให้ openstack สามารถเชื่อม provider network และ network ภายนอก

# cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0 
NAME=eth0
DEVICETYPE=ovs
TYPE=OVSPort
OVS_BRIDGE=br-ex
ONBOOT=yes
BOOTPROTO=none

# cat /etc/sysconfig/network-scripts/ifcfg-eth1
NM_CONTROLLED=no
BOOTPROTO=none
ONBOOT=yes
IPADDR=10.0.0.10
NETMASK=255.255.255.0
DEVICE=eth1
HWADDR=52:54:00:7b:64:20
PEERDNS=no


Ansible Configuration Management

มาเรียนรู้การใช้งาน Ansible
Ansible คือ เครื่องมือที่ใช้สำหรับการจัดการ configuration โดยจะทำงานผ่านทาง ssh พัฒนาด้วย ภาษา python การทำงานจะงานในรูปแบบที่ต้องมี management node ที่ทำหน้าเป็น server หลังที่จะทำหน้าเป็น ผู้ที่จะต้องไปติดตั้ง package บน เครื่องserverในระบบ การทำงานจะประกอบด้วยfile ที่เกี่ยวข้อง 2 file คือ inventory file และ playbook

  1. inventory file ทำหน้าเก่็บรายชื่อของ server หรือ ip ของ server ที่จะใช้สำหรับเป้าหมายสำหรับการติดตั้ง โดยdefault หาไม่มีการกำหนด ใน option -i ก็จะใช้ inventory ตือ /etc/ansible/hosts เราสามารถที่จะแก้ไขค่านี้ได้โดยทำการแก้ไข file /etc/ansible/ansible.cfg
  2. playbook.yml ไฟล์นี้จะเป็นตัวระบุว่า จะให้ ansible ทำอะไรบ้างในแต่ละ server การเขียนไฟล์จะใช้เป็น format ของ yaml format โดยสามารถเขียนแบบที่เป็น static และ dynamic ก็ได้โดยถ้าหาเขียนแบบ dynamic โดยใช้ jinja2 template
    ในการทดสอบการใช้งาน จะทดสอบการใช้งานผ่านทาง Vagrantfile โดยจะเป็นการสร้าง infrastructure ด้วย Vagrantfile ดังนี้ โดยสร้างบน provider virtualbox

Screen Shot 2559-08-22 at 6.25.57 PM

Vagrantfile

# Defines our Vagrant environment
#
# -*- mode: ruby -*-
# vi: set ft=ruby :

Vagrant.configure("2") do |config|

  # create mgmt node
  config.vm.define :mgmt do |mgmt_config|
      mgmt_config.vm.box = "centos/7"
      mgmt_config.vm.hostname = "mgmt"
      mgmt_config.vm.network :private_network, ip: "10.0.15.10"
      mgmt_config.vm.provider "virtualbox" do |vb|
        vb.memory = "256"
      end
      mgmt_config.vm.provision :shell, path: "bootstrap-mgmt.sh"
  end

  # create load balancer
  config.vm.define :lb do |lb_config|
      lb_config.vm.box = "centos/7"
      lb_config.vm.hostname = "lb"
      lb_config.vm.network :private_network, ip: "10.0.15.11"
      lb_config.vm.network "forwarded_port", guest: 80, host: 8080
      lb_config.vm.provider "virtualbox" do |vb|
        vb.memory = "256"
      end
  end

  # create some web servers
  # https://docs.vagrantup.com/v2/vagrantfile/tips.html
  (1..2).each do |i|
    config.vm.define "web#{i}" do |node|
        node.vm.box = "centos/7"
        node.vm.hostname = "web#{i}"
        node.vm.network :private_network, ip: "10.0.15.2#{i}"
        node.vm.network "forwarded_port", guest: 80, host: "808#{i}"
        node.vm.provider "virtualbox" do |vb|
          vb.memory = "256"
        end
    end
  end
end

bootstrap-mgmt.sh

#!/bin/bash
yum -y update
yum -y install epel-release
yum -y install ansible
yum -y install git

cat << EOF >> /etc/hosts
10.0.15.10  mgmt
10.0.15.11  lb
10.0.15.21  web1
10.0.15.22  web2
10.0.15.23  web3
10.0.15.24  web4
10.0.15.25  web5
10.0.15.26  web6
10.0.15.27  web7
10.0.15.28  web8
10.0.15.29  web9
EOF

inventory.ini

[lb]
lb

[web]
web1
web2

โดยให้สร้าง bootstrap-mgmt.sh และ inventory.ini ไว้ระดับเดียวกับ Vagrantfile

$ tree .
.
├── Vagrantfile
└── bootstrap-mgmt.sh
└── inventory.ini

ผลที่ได้ จะได้ infrastructure ดังนี้
Screen Shot 2559-08-22 at 11.11.36 PM

$ vagrant up
$ vagrant up
Bringing machine 'mgmt' up with 'virtualbox' provider...
Bringing machine 'lb' up with 'virtualbox' provider...
Bringing machine 'web1' up with 'virtualbox' provider...
Bringing machine 'web2' up with 'virtualbox' provider...
==&gt; mgmt: Checking if box 'centos/7' is up to date...
==&gt; mgmt: Clearing any previously set forwarded ports...
==&gt; mgmt: Clearing any previously set network interfaces...
==&gt; mgmt: Preparing network interfaces based on configuration...
...
==&gt; web2: Setting hostname...
==&gt; web2: Configuring and enabling network interfaces...
==&gt; web2: Rsyncing folder: /Users/newton/Vagrant/c7_ansible/ =&gt; /vagrant
==&gt; web2: Machine already provisioned. Run <code>vagrant provision</code> or use the <code>--provision</code>
==&gt; web2: flag to force provisioning. Provisioners marked to run always will still run.

$ vagrant status
Current machine states:

mgmt                      running (virtualbox)
lb                        running (virtualbox)
web1                      running (virtualbox)
web2                      running (virtualbox)   

## ตรวจสอบ ip
$ vagrant ssh mgmt -c &quot;ip a&quot;
$ vagrant ssh lb -c &quot;ip a&quot;
$ vagrant ssh web1 -c &quot;ip a&quot;
$ vagrant ssh web2 -c &quot;ip a&quot;

หมายเหตุ ถ้าไม่ได้ ip ให้ลองไปปรับ ค่าของ network adapter โดยไปยัง setting > Network ดังนี้
Adapter Type: Tserver(82543GC)
Promiscuous Mode: Allow All

Screen Shot 2559-08-22 at 11.30.07 PM
การเชื่อมต่อไปยัง vagrant

## connect to vagrant on node mgmt
$ vagrant ssh mgmt 

$ cat /etc/redhat-release
CentOS Linux release 7.2.1511 (Core)

$ hosts="lb web1 web2"
$ for h in $hosts;do ping -c 4 $h; done

$ ansible --version
ansible 2.1.1.0
  config file = /etc/ansible/ansible.cfg
  configured module search path = Default w/o overrides               

การเชื่อมต่อ ระหว่างโหนดด้วย ssh

เนื่องจาก Ansible จะเชื่อมต่อไปยังเครื่อง remote ด้วย ssh โดยที่การเชื่อมต่อไม่มีprograme ที่ไปทำงานอยู่บน เครื่อง remote หรือที่มีจะเรียกว่า agent
เมื่อทำการเชื่อมต่อไปยัง เครื่องปลายทางครั้งแรกด้วย ssh เครื่องปลายทางจะทำการส่ง key มาให้กับเราเพื่อทำ ssh authentication เพื่อยอมรับการเชื่อมต่อ ยกตัวอย่างเช่นเมื่อ mgmt node ต้องการ ssh ไปยัง web1 ในครั้งแรก

$ ssh web1
The authenticity of host 'web1 (10.0.15.21)' can't be established.
ECDSA key fingerprint is d1:2d:26:9d:9b:92:e9:0c:02:53:59:8b:b9:6a:c7:8f.
Are you sure you want to continue connecting (yes/no)?  no

## go to /vagrant
$ cd /vagrant
$ ls

$ ansible web1 -i inititial.ini -m ping
The authenticity of host 'web1 (10.0.15.21)' can't be established.
ECDSA key fingerprint is d1:2d:26:9d:9b:92:e9:0c:02:53:59:8b:b9:6a:c7:8f.
Are you sure you want to continue connecting (yes/no)? yes
web1 | UNREACHABLE! => {
    "changed": false,
    "msg": "Failed to connect to the host via ssh.",
    "unreachable": true
}
 

เมื่อทำการยืนยันด้วยการตอบ yes ค่า publickey ของ web1 จะมาเก็บไว้ในfile ~/.ssh/known_hosts

$ cat ~/.ssh/known_hosts
web1,10.0.15.21 ecdsa-sha2-nistp256 AAAAE2VjZHNhLXNoYTItbmlzdHAyNTYAAAAIbmlzdHAyNTYAAABBBLK8riXRk1/Gyzggg6u+R41F+CBR1ZB7j3dOgBPqOn2H6jGfi0CC5W934OM6OQzKboXTZkny2Q2hrRopCQvJGCg=

เราสามารถเรียกดู public key ได้ใช้คำสั่ง ssh-keyscan

$ ssh-keyscan web1
# web1 SSH-2.0-OpenSSH_6.6.1
web1 ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQDxFTURY5TNjR2YliYth1qf2JL++rhuDu8bAdX3cJ/uMmheUEk2Ay3a5n3Fwc64jOTIoFWfIRlKNjogdtAU0xNEb+ksLGDXoNZATM9i08AT/RsenZ1RMDt/R9AA+Q6cptw9TzM/MQLBzGKqannZnHqF7iYc6BXnmzly3lO9t10mc4CV7K0xm3sZT17cOuxUHIc+/Jh63JJJpd2MEXB933zjJFHLdlD/GDIlmOy+HZEjLs6VETwL1UDryvIXqQFa0al7gylS6phWiHa807rRV+luKQM662RP8X7EcAI0bSHxYkRopqL8EVXgWwYOkHOTk21EhDRDb52goLjdE5OmPDz9
# web1 SSH-2.0-OpenSSH_6.6.1
web1 ecdsa-sha2-nistp256 AAAAE2VjZHNhLXNoYTItbmlzdHAyNTYAAAAIbmlzdHAyNTYAAABBBLK8riXRk1/Gyzggg6u+R41F+CBR1ZB7j3dOgBPqOn2H6jGfi0CC5W934OM6OQzKboXTZkny2Q2hrRopCQvJGCg=

อ่านค่า key มาเก็บไว้ใน ~/.ssh/known_hosts

$ ssh-keyscan lb web1 web2 >> ~/.ssh/known_hosts
# web1 SSH-2.0-OpenSSH_6.6.1
# lb SSH-2.0-OpenSSH_6.6.1
# lb SSH-2.0-OpenSSH_6.6.1
# web1 SSH-2.0-OpenSSH_6.6.1
# web2 SSH-2.0-OpenSSH_6.6.1
# web2 SSH-2.0-OpenSSH_6.6.1

เมื่อใช้คำสั่ง ansible ก็จะไม่ถามให้ยอมรับ keyอีก

$ ansible lb  -i inititial.ini -m ping
lb | UNREACHABLE! => {
    "changed": false,
    "msg": "Failed to connect to the host via ssh.",
    "unreachable": true 

$ ansible web1 -i inititial.ini -m ping
web1 | UNREACHABLE! => {
    "changed": false,
    "msg": "Failed to connect to the host via ssh.",
    "unreachable": true
}

$ ansible web2 -i inititial.ini -m ping
web2 | UNREACHABLE! => {
    "changed": false,
    "msg": "Failed to connect to the host via ssh.",
    "unreachable": true
}

Ansible Ad-hoc
การใช้คำสั่ง ansible ที่ผ่านมา เรียกว่าเป็นการสั่งแบบ ad-hoc เหมือนกับเราสั่งด้วยทีละคำสั่งเหมือนกับการสั่งใน commandline แต่เป็นการสั่งผ่าน ansible เท่านั้น ที่ผ่านมาจะเห็นว่า ansible บอกว่ายังไม่สามารถเชื่อมต่อผ่าน ssh ได้
-m เป็นการบอกว่า จะให้ module ใดทำงาน เช่น -m ping คือ ต้องการที่ใช้ module ping โดยที่ module ที่พูดถึงคือ python module นั้นเอง ความสามารถของ ansible สามารถขยายความสามารถได้ด้วย module และ module จะแบ่งออกเป็น 2 ส่วนได้แก่ core และ extra ซึ่งมีมากกว่า 250 module
Screen Shot 2559-08-23 at 12.20.33 AM

## work on current user = vagrant
$ ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/vagrant/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/vagrant/.ssh/id_rsa.
Your public key has been saved in /home/vagrant/.ssh/id_rsa.pub.
The key fingerprint is:
bd:e8:d3:1b:06:53:7b:b2:16:2d:5f:55:30:58:56:65 vagrant@mgmt
The key's randomart image is:
+--[ RSA 2048]----+
|             o=oE|
|            .. o.|
|          .     .|
|         o o   . |
|        S * o .  |
|         + O .   |
|        ..* .    |
|       ..o..     |
|        ....     |
+-----------------+
## run ad-hoc ansible
$ cd /vagrant
$ ansible all -i inititial.ini -m ping --ask-pass
SSH password:
lb | UNREACHABLE! => {
    "changed": false,
    "msg": "Failed to connect to the host via ssh.",
    "unreachable": true
}
web2 | UNREACHABLE! => {
    "changed": false,
    "msg": "Failed to connect to the host via ssh.",
    "unreachable": true
}
web1 | UNREACHABLE! => {
    "changed": false,
    "msg": "Failed to connect to the host via ssh.",
    "unreachable": true
}

หากเกิด error
Fix error ssh fails with error as permission denied

## try ssh to localhost on mgmt
$ ssh localhost
Permission denied (publickey,gssapi-keyex,gssapi-with-mic)
$ ssh lb
Permission denied (publickey,gssapi-keyex,gssapi-with-mic).
$ ssh web1
Permission denied (publickey,gssapi-keyex,gssapi-with-mic).
$ ssh web2
Permission denied (publickey,gssapi-keyex,gssapi-with-mic).

สำหรับการติดตั้ง Centos 7 ด้วย vagrant default ไม่อนุญาติให้ใช้ password สำหรับการ login ด้วย password

 
## check /etc/ssh/sshd_config , 
PasswordAuthentication  no

ให้เปลี่ยนค่า config ใน ทุก node mgmt, lb, web1, web2

$ sudo su -
# vi /etc/ssh/sshd_config
PasswordAuthentication  yes

# systemctl restart sshd

ทดสอบ vagrant ad-hoc อีกครั้ง

$ ansible all -i inititial.ini -m ping --ask-pass
SSH password:
web2 | SUCCESS => {
    "changed": false,
    "ping": "pong"
}
lb | SUCCESS => {
    "changed": false,
    "ping": "pong"
}
web1 | SUCCESS => {
    "changed": false,
    "ping": "pong"
}

หมายความว่า mgmt node สามารถติดต่อไปยัง เครื่อง อื่นได้ผ่านทาง ssh คราวนี้ให้ลองสั่งอีกครั้งโดยไม่มี –ask-pass จะเห็นว่าก็ยังคงทำงานได้อยู่ แต่คราวนี้ จะเร็วกว่าเดิม โดย ansible จะทำการ cache ไว้ใช้ชั่วคราวเท่านั้น

$ ps -x
11939 ?        Ss     0:00 ssh: /home/vagrant/.ansible/cp/ansible-ssh-web1-22-vagrant [mux]
11942 ?        Ss     0:00 ssh: /home/vagrant/.ansible/cp/ansible-ssh-lb-22-vagrant [mux]
11945 ?        Ss     0:00 ssh: /home/vagrant/.ansible/cp/ansible-ssh-web2-22-vagrant [mux]

## try again win no password 
$ ansible all -i inititial.ini -m ping
web1 | SUCCESS => {
    "changed": false,
    "ping": "pong"
}
web2 | SUCCESS => {
    "changed": false,
    "ping": "pong"
}
lb | SUCCESS => {
    "changed": false,
    "ping": "pong"
}

ตัวอย่างของ การสั่ง adhoc ด้วย module shell
อ่านเพิ่มเติม http://docs.ansible.com/ansible/intro_adhoc.html

$ ansible all -m shell -a "uname -a" -i inititial.ini
web1 | SUCCESS | rc=0 >>
Linux web1 3.10.0-327.22.2.el7.x86_64 #1 SMP Thu Jun 23 17:05:11 UTC 2016 x86_64 x86_64 x86_64 GNU/Linux

web2 | SUCCESS | rc=0 >>
Linux web2 3.10.0-327.22.2.el7.x86_64 #1 SMP Thu Jun 23 17:05:11 UTC 2016 x86_64 x86_64 x86_64 GNU/Linux

lb | SUCCESS | rc=0 >>
Linux lb 3.10.0-327.22.2.el7.x86_64 #1 SMP Thu Jun 23 17:05:11 UTC 2016 x86_64 x86_64 x86_64 GNU/Linux

โดยคำสั่ง ที่ต้องการสั่งจะอยู่ใน option -a
Ansible playbook  link

นอกจากการสั่ง ให้ ansible ทำงานแบบ ad-hoc แล้ว ยังสามารถให้ทำงานผ่านทาง playbook โดยมีการเขียนในแบบ ภาษา yaml โดย ansible จะใช้ playbook เป็น configuration management ให้แก่ระบบ การประกาศค่าต่างๆ ใน playbook นั้นไม่ยากอ่านง่าย ดังตัวอย่าง
ssh-addkey.yml จะทำหน้าที่ copy key จาก mgmt ไปยังเครื่องอื่นๆ

---
- hosts: all
  sudo: yes
  gather_facts: no
  remote_user: vagrant

  tasks:
  - name: install ssh key
    authorized_key: user=vagrant
                    key="{{ lookup('file', '/home/vagrant/.ssh/id_rsa.pub') }}"
                    state=present

การใช้งาน playbook จะใช้คำสั่ง ansible-playbook ดังนี้

cd /vagrant
$ ansible-playbook ssh-addkey.yml -i inititial.ini --ask-pass
SSH password:
[DEPRECATION WARNING]: Instead of sudo/sudo_user, use become/become_user and make sure become_method is 'sudo'
(default).
This feature will be removed in a future release. Deprecation warnings can be disabled by setting
deprecation_warnings=False in ansible.cfg.

PLAY [all] *********************************************************************

TASK [install ssh key] *********************************************************
changed: [web2]
changed: [lb]
changed: [web1]

PLAY RECAP *********************************************************************
lb                         : ok=1    changed=1    unreachable=0    failed=0
web1                       : ok=1    changed=1    unreachable=0    failed=0
web2                       : ok=1    changed=1    unreachable=0    failed=0

ถึงขั้นตอนนี้ เราได้สร้าง ssh trust ระหว่าง node เรียบร้อย เราสามารถที่สั่ง run playbook ซ้ำๆ ได้ ansible มีความฉลาดพอ เพื่อดูว่ามีการเปลี่ยนแปลงของ config หรือไม่ หาไม่มีการเปลี่ยนแปลง ansible ก็จะไม่ดำเนินการใด เรียกได้ว่า ansible มีคุณสมบัติของ “idempotence”

$ ansible-playbook ssh-addkey.yml -i inititial.ini --ask-pass
SSH password:
[DEPRECATION WARNING]: Instead of sudo/sudo_user, use become/become_user and make sure become_method is 'sudo'
(default).
This feature will be removed in a future release. Deprecation warnings can be disabled by setting
deprecation_warnings=False in ansible.cfg.

PLAY [all] *********************************************************************

TASK [install ssh key] *********************************************************
ok: [web1]
ok: [web2]
ok: [lb]

PLAY RECAP *********************************************************************
lb                         : ok=1    changed=0    unreachable=0    failed=0
web1                       : ok=1    changed=0    unreachable=0    failed=0
web2                       : ok=1    changed=0    unreachable=0    failed=0

จะเห็นว่า change=0

---
- hosts: all
  sudo: yes
  gather_facts: no

  tasks:

  - name: install chrony
    yum: name=chrony state=installed update_cache=yes

  - name: write our chrony.conf
    copy: src=/vagrant/files/chrony.conf dest=/etc/chrony.conf mode=644 owner=root group=root
    notify: restart chrony

  - name: start chrony
    service: name=chronyd state=started

  handlers:

  - name: restart chrony
    service: name=chronyd state=restarted
$ ansible-playbook -i inititial.ini chrony-install.yml
[DEPRECATION WARNING]: Instead of sudo/sudo_user, use become/become_user and make sure become_method is 'sudo' (default).
This feature
will be removed in a future release. Deprecation warnings can be disabled by setting deprecation_warnings=False in ansible.cfg.

PLAY [all] *********************************************************************

TASK [install chrony] **********************************************************
ok: [web2]
ok: [web1]
ok: [lb]

TASK [write our chrony.conf] ***************************************************
ok: [web1]
ok: [lb]
ok: [web2]

TASK [start chrony] ************************************************************
ok: [web1]
ok: [web2]
ok: [lb]

PLAY RECAP *********************************************************************
lb                         : ok=3    changed=0    unreachable=0    failed=0
web1                       : ok=3    changed=0    unreachable=0    failed=0
web2                       : ok=3    changed=0    unreachable=0    failed=0

chrony-remove.yml

---
- hosts: all
  sudo: yes
  gather_facts: no

  tasks:

  - name: remove chrony
    yum: name=chrony state=absent 

run playbook: chrony-remove.yml

$ ansible-playbook -i inititial.ini chrony-remove.yml
[DEPRECATION WARNING]: Instead of sudo/sudo_user, use become/become_user and make sure become_method is 'sudo' (default).
This feature
will be removed in a future release. Deprecation warnings can be disabled by setting deprecation_warnings=False in ansible.cfg.

PLAY [all] *********************************************************************

TASK [remove chrony] ***********************************************************
changed: [web1]
changed: [lb]
changed: [web2]

PLAY RECAP *********************************************************************
lb                         : ok=1    changed=1    unreachable=0    failed=0
web1                       : ok=1    changed=1    unreachable=0    failed=0
web2                       : ok=1    changed=1    unreachable=0    failed=0

Develop Application บน Docker สำหรับ Fedora

สำหรับ การใช้าน Docker บน  Fedora 24 มีขั้นตอนดังนี้ โดยอ้างอิงตาม https://docs.docker.com/engine/installation/linux/fedora/  ข้อกำหนดเบื้องต้นสำหรับการทำงานของ Docker จะต้อง run อยู่บนเครื่อง 64 บิต และต้องมี kernel อย่างน้อย 3.10 เป็นต้นไป การติดตั้ง สามารถติดตั้งได้ 2 วิธี คือติดตั้งผ่าน dnf package manager หรือ สามารถที่จะ ติดตั้งได้ด้วย script ด้วยการ download โดยใช้คำสั่ง curl

$ sudo dnf update -y
$ uname -r
4.6.5-300.fc24.x86_64

วิธี 1 ติดตั้งด้วย dnf
ติดตั้ง repo

$ sudo tee /etc/yum.repos.d/docker.repo <<-'EOF'
[dockerrepo]
name=Docker Repository
baseurl=https://yum.dockerproject.org/repo/main/fedora/$releasever/
enabled=1
gpgcheck=1
gpgkey=https://yum.dockerproject.org/gpg
EOF

ติดตั้ง package

sudo dnf install docker-engine
sudo systemctl enable docker.service
sudo systemctl start docker

## view process
root      9446     1  0 15:15 ?        00:00:00 /usr/bin/dockerd
root      9464  9446  0 15:15 ?        00:00:00 docker-containerd -l unix:///var/run/docker/libcontainerd/docker-containerd.sock --shim docker-containerd-shim --metrics-interval=0 --start-timeout 2m --state-dir /var/run/docker/libcontainerd/containerd --runtime docker-runc

## test
sudo docker run hello-world

ตั้งค่าให้ user สามารถใช้คำสั่ง docker ได้โดยตรง ไม่ต้องใช้ sudo
เนื่องจาก docker daemon เชื่อมต่อกับ unix socket แทนที่จะเชื่อมไปยัง TCP port โดยค่า default unit socket จะมี root เป็น owner และ userอื่นๆ จะต้องใช้สิทธิ sudo จากเหตุผลข้างต้นนี้ docker daemon จะต้อง run ด้วย user root เสมอ ดังนั้นให้เพิ่ม user ที่ใช้งานปัจจุบันให้อยู่ใน group ของ docker ก่อน ดังนี้

sudo usermod -a -G docker ${USER}
sudo newgrp docker
## ให้ logout and logback เพื่อให้ทำงานด้วย permission ที่ถูกต้อง
## test ไม่ต้องใช้ sudo
docker info
docker run hello-world

วิธี 2 ติดตั้งด้วย curl + script

$ curl -fsSL https://get.docker.com/ | sh
sudo systemctl enable docker.service
sudo systemctl start docker

เริ่มต้นการเรียนรู้
โดยจะแบ่งออกส่วนๆ เพื่อให้สามารถติดตามและทำความเข้าใจได้ดังนี้

1 Docker run และความหมาย

$ docker run busybox /bin/echo this is an echo
Unable to find image 'busybox:latest' locally
latest: Pulling from library/busybox
8ddc19f16526: Pull complete 
Digest: sha256:a59906e33509d14c036c8678d687bd4eec81ed7c4b8ce907b888c607f6a1e0e6
Status: Downloaded newer image for busybox:latest
this is an echo

$ docker ps -a
CONTAINER ID        IMAGE               COMMAND                  CREATED             STATUS                      PORTS               NAMES
c2d9777c7668        busybox             "/bin/echo this is an"   50 seconds ago      Exited (0) 46 seconds ago                       reverent_hodgkin

$ docker images
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
busybox             latest              2b8fd9751c4c        7 weeks ago         1.093 MB

คำสั่งด้านบน คือ pull image ‘busybox’ และ run busybox และเรียกใช้ /bin/echo และส่งค่า string “this is an echo” ไปยัง busy box

$ docker run -i -t 2b8fd9751c4c
/ # ls
bin   dev   etc   home  proc  root  sys   tmp   usr   var
/ # exit

$ docker ps -a
CONTAINER ID        IMAGE               COMMAND                  CREATED              STATUS                      PORTS               NAMES
5e721f04e31c        2b8fd9751c4c        "sh"                     46 seconds ago       Exited (0) 24 seconds ago                       focused_mclean
c2d9777c7668        busybox             "/bin/echo this is an"   4 minutes ago        Exited (0) 4 minutes ago                        reverent_hodgkin

คำสั่งด้านบน เป็นการ run image ซ้ำอีกครั้ง และเรีียกคำสั่ง sh อัตโนมัติ ทุกครั้งที่มีการสั่งคำสั่ง docker run ก็ได้ container ใหม่ทุกครั้ง

$ docker attach 5e721f04e31c
You cannot attach to a stopped container, start it first

$ docker start 5e721f04e31c
5e721f04e31c

$ docker attach 5e721f04e31c
/ # touch test.txt
/ # exit

$ docker diff 5e721f04e31c
C /root
A /root/.ash_history
A /test.txt


คำสั่งด้านบน เป็นการ attach ไปยัง container 5e721f04e31c เดิมที่เคย run ไว้ก่อนแล้ว แต่ต้อง start ก่อน ก่อนที่ ทำการ attach เมืื่อ attach แล้วให้มีการเปลี่ยนแปลง file system ด้วยการสร้าง file test.txt ต่อมาก็ติดตามการเปลี่ยนแปลงโดยการใช้คำสั่ง docker diff

2 ทดสอบกับ image fedora

$ docker run -i -t fedora /bin/bash 
Unable to find image 'fedora:latest' locally
latest: Pulling from library/fedora
7c91a140e7a1: Pull complete 
Digest: sha256:a97914edb6ba15deb5c5acf87bd6bd5b6b0408c96f48a5cbd450b5b04509bb7d
Status: Downloaded newer image for fedora:latest
[root@854c83ca477e /]# 

สั่ง run fedora image และเชื่อมต่อ interactive session ด้วย option -i -t หากต้องการออกจาก session โดยที่ container ยังคงทำงานอยู่ (up status) ให้กด “Ctrl+p” ตามด้วย “Ctrl+q”

$ docker ps
CONTAINER ID        IMAGE               COMMAND             CREATED             STATUS              PORTS               NAMES
854c83ca477e        fedora              "/bin/bash"         3 minutes ago       Up 3 minutes                            elegant_nobel

$ docker attach  854c83ca477e
[root@854c83ca477e /]# 

$ Ctrl+p  Ctrl+9
$ docker kill 854c83ca477e
854c83ca477e

หลังจากยกเลิกการเชื่อมต่อ session แต่ container 854c83ca477e ยังคงทำงานอยู่ และสามารถเชื่อมต่อกลับไปด้วย docker attach หากต้องการ kill process ของ container สามารถทำได้โดย docker kill หากไม่มี error แต่ประการใด docker จะแจ้ง id กลับมา

$ docker ps
CONTAINER ID        IMAGE               COMMAND             CREATED             STATUS              PORTS               NAMES

$ docker ps -a -n 1
CONTAINER ID        IMAGE               COMMAND             CREATED             STATUS                            PORTS               NAMES
854c83ca477e        fedora              "/bin/bash"         12 minutes ago      Exited (137) About a minute ago  

เมื่อตรวจสอบด้วย docker ps จะไม่ปรากฎ container แต่เมื่อ docker ps -a -n 1 อีกครั้ง container จะมีสถานะ เป็น exit

3 เพิ่ม docker image ให้แก่ระบบ
ต่อไปเราจะทำการ update image official ที่ docker ได้ pull ลงมาเพื่อสร้าง image ใหม่ เช่น ทำการเพิ่ม package http แก่ official fedora image

$ docker images
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
busybox             latest              2b8fd9751c4c        7 weeks ago         1.093 MB
fedora              latest              f9873d530588        7 weeks ago         204.4 MB

ใช้คำสั่ง docker images เพื่อ list ดู image ที่ได้ pull มาก่อนแล้ว

$ docker run fedora /bin/bash -c "dnf -y update; dnf -y install httpd" 
$ docker ps -a -n 1
CONTAINER ID        IMAGE               COMMAND                  CREATED             STATUS                     PORTS               NAMES
1a151144b6fb        fedora              "/bin/bash -c 'dnf -y"   11 minutes ago      Exited (0) 4 minutes ago                       prickly_fermi

$ docker commit 1a151144b6fb images/fedora_httpd
sha256:1d4970b9b169715094fd8f1e60cfc407d1f5f69f4936258f771327aba8951b8d

$ docker images
REPOSITORY            TAG                 IMAGE ID            CREATED             SIZE
images/fedora_httpd   latest              1d4970b9b169        3 minutes ago       626.9 MB

คำสั่งด้านบนเป็นการ start container และ run command เพื่อupdate และ ติดตั้ง httpd package จะได้ container ใหม่ 1a151144b6fb ต่อมาเราจะทำการเปลี่ยน container ให้เป็น image โดยการใช้คำสั่ง docker commit เพื่อระบบว่าจะได้ save เป็น image

4 Start Container จาก image ที่สร้างใหม่

$ docker run images/fedora_httpd /usr/sbin/httpd -V

AH00558: httpd: Could not reliably determine the server's fully qualified domain name, using 172.17.0.2. Set the 'ServerName' directive globally to suppress this message
Server version: Apache/2.4.23 (Fedora)
Server built:   Jul 18 2016 15:38:14
Server's Module Magic Number: 20120211:61
Server loaded:  APR 1.5.2, APR-UTIL 1.5.4
Compiled using: APR 1.5.2, APR-UTIL 1.5.4
Architecture:   64-bit
Server MPM:     prefork
  threaded:     no
    forked:     yes (variable process count)
Server compiled with....
 -D APR_HAS_SENDFILE
 -D APR_HAS_MMAP
 -D APR_HAVE_IPV6 (IPv4-mapped addresses enabled)
 -D APR_USE_SYSVSEM_SERIALIZE
 -D APR_USE_PTHREAD_SERIALIZE
 -D SINGLE_LISTEN_UNSERIALIZED_ACCEPT
 -D APR_HAS_OTHER_CHILD
 -D AP_HAVE_RELIABLE_PIPED_LOGS
 -D DYNAMIC_MODULE_LIMIT=256
 -D HTTPD_ROOT="/etc/httpd"
 -D SUEXEC_BIN="/usr/sbin/suexec"
 -D DEFAULT_PIDLOG="/run/httpd/httpd.pid"
 -D DEFAULT_SCOREBOARD="logs/apache_runtime_status"
 -D DEFAULT_ERRORLOG="logs/error_log"
 -D AP_TYPES_CONFIG_FILE="conf/mime.types"
 -D SERVER_CONFIG_FILE="conf/httpd.conf"

$ docker ps -a
CONTAINER ID        IMAGE                 COMMAND                  CREATED             STATUS                        PORTS               NAMES
9be777c37fd2        images/fedora_httpd   "/usr/sbin/httpd -V"     22 seconds ago      Exited (0) 18 seconds ago                         ecstatic_mahavira

ทุกครั้งที่สั่ง docker run จะได้ container ใหม่ 9be777c37fd2

5 เริ่มต้นการใช้งาน webserver ที่อยู่ใน Container

โดย webserver จะทำงาน ที่ port 80 แต่ว่าอยู่ใน namespace ของ container ดังนั้นจะต้องมีการ เชื่อมต่อกับ host ด้วยการใช้ option ” -p  host_port:container_port”

$ docker run -it -p 8081:80 images/fedora_httpd /bin/bash
# run httpd ในโหมด backgroud
[root@233d6d53eff5 /]# /usr/sbin/httpd &

เปิด webbrowser ไปยัง http://localhost:8081/

fedora_container

6 สร้าง image แบบอัตโนมัติด้วย Dockerfile
ภายในไฟล์ Dockerfile จะประกอบด้วยคำสั่ง (Instruction) และ ค่าที่ต้องส่งไปยัง Instruction เรียกว่า argument

INSTRUCTION Description
FROM กำหนดว่าจะสร้าง image จาก base image ใด
MAINTAINER ชื่อ Author ผู้ที่สร้าง image
RUN ใช้สั่งคำสั่งที่กำหนดตามในขณะที่มีการสร้าง images
CMD คำสั่งนี้จะทำงานเมื่อ Container ถูก execute
ENTRYPOINT คำสั่งนี้จะทำงานเมื่อ Container ถูก execute
LABEL เพิ่ม metadata ให้แก่ images
EXPOSE บอกให้ Docker บน host รู้ว่า container ที่ run จะฟัง อยู่ที่ network port อะไร ใน ขณะ runtime เพื่อให้สามารถสื่อสารกับ container ได้
ENV กำหนดค่าของ environment variable
ADD ใช้สำหรับ copy files directory หรือ remotefile เพื่อมาใช้งาน
COPY ใช้สำหรับ copy files directory หรือ remotefile เช่นเดียวกับคำสั่ง ADD แต่ไม่สามารถแตกไฟล์ที่เป็น archive ได้
VOLUME ใช้สำหรับสร้าง mountpoint ไปยัง host หรือ container อื่น
USER กำหนด username หรือ UID
WORDDIR กำหนด working directory

เตรียมพร้อมการทดสอบ

docker stop $(docker ps -a -q)
docker rm $(docker ps -a -q)

คำสั่งข้างบนจะทำการลบ container ทั้งหมด

ตัวอย่าง Dockerfile
ตัวอย่าง 1 สร้าง fedora และ httpd

mkdir ~/DockerLab
cd ~/DockerLab
mkdir fedora_http
cd fedora_http
#สร้างfile Dockerfile
vi Dockerfile

FROM fedora
MAINTAINER youname <youname@domain.com>
RUN dnf -y install httpd
RUN echo "Hello DockerFile" > /var/www/html/index.html
EXPOSE 80
CMD ["-D", "FOREGROUND"]
ENTRYPOINT ["/usr/sbin/httpd"]

#สร้าง image จาก Dockerfile ด้วยคำสั่ง docker build
$ docker build -t images/fedora_httpd:v1.0 . 

Sending build context to Docker daemon 2.048 kB
Step 1 : FROM fedora
 ---> f9873d530588
Step 2 : MAINTAINER yourname <yourname@domain.com>
 ---> Running in e2686dec21d7
 ---> a9fc5077f8d1
Removing intermediate container e2686dec21d7
Step 3 : RUN dnf -y install httpd
 ---> Running in f9732ab53014
Last metadata expiration check: 0:00:11 ago on Sat Aug 13 15:50:45 2016.
Dependencies resolved.
================================================================================
 Package                  Arch         Version              Repository     Size
================================================================================
Installing:
 apr                      x86_64       1.5.2-3.fc24         fedora        112 k
 apr-util                 x86_64       1.5.4-3.fc24         fedora         94 k
 fedora-logos-httpd       noarch       22.0.0-3.fc24        fedora         34 k
 httpd                    x86_64       2.4.23-4.fc24        updates       1.3 M
 httpd-filesystem         noarch       2.4.23-4.fc24        updates        26 k
 httpd-tools              x86_64       2.4.23-4.fc24        updates        88 k
 mailcap                  noarch       2.1.46-1.fc24        fedora         37 k

Transaction Summary
================================================================================
Install  7 Packages

Total download size: 1.7 M
Installed size: 4.7 M
Downloading Packages:
...
Complete!
 ---> 290a25d54399
Removing intermediate container f9732ab53014
Step 4 : RUN echo "Hello DockerFile" > /var/www/html/index.html
 ---> Running in 0866a9638cc5
 ---> 62625250dbf5
Removing intermediate container 0866a9638cc5
Step 5 : EXPOSE 80
 ---> Running in 6cc9dd4ad3ea
 ---> 320d586843ef
Removing intermediate container 6cc9dd4ad3ea
Step 6 : CMD -D FOREGROUND
 ---> Running in 5da2c4987f62
 ---> f08579d95834
Removing intermediate container 5da2c4987f62
Step 7 : ENTRYPOINT /usr/sbin/httpd
 ---> Running in d11e0d5b271c
 ---> e066399a9b0f
Removing intermediate container d11e0d5b271c
Successfully built e066399a9b0f

$ docker images
REPOSITORY            TAG                 IMAGE ID            CREATED             SIZE
images/fedora_httpd   v1.0                e066399a9b0f        34 seconds ago      355.6 MB

เมื่อ build สำเร็จก็บอก image id (e066399a9b0f) และจะทำการ ลบ container ทิ้งไป เราก็จะมี image พร้อมใช้งาน ด้วยการสั่ง docker run ดังต่อไปนี้

options ความหมาย
docker build -t
$ docker run -d -p 80:80 images/fedora_httpd:v1.0
01f4cc847ad9407b9676f85a47264c44d8f395451858550579eee180a45d9371

$ docker ps
CONTAINER ID        IMAGE                      COMMAND                  CREATED             STATUS              PORTS                NAMES
01f4cc847ad9        images/fedora_httpd:v1.0   "/usr/sbin/httpd -D F"   16 seconds ago      Up 11 seconds       0.0.0.0:80->80/tcp   grave_swartz

#ทำสอบ
$ curl http://localhost/ 
Hello DockerFile

ตาราง options

Option ความหมาย
-d or –detach สั่ง run container ให้เป็น backgroud mode พร้อม แสดง ค่า container id ทั้งหมด (แต่ใช้ reference 12 หลัก)
-p or –publish สั่ง ให้มีการเชื่อมต่อ port ของ container ที่ publish ออกมาก เข้ากับ port ของ host -p host_port:container_port

ตัวอย่าง 2 สร้าง fedora และ nginx

cd ~/DockerLab
mkdir fedora_nginx
cd fedora_nginx/
# สร้าง Dockerfile
vi Dockerfile
FROM fedora
MAINTAINER youname <youname@domain.com>

RUN dnf -y update && dnf clean all
RUN dnf -y install nginx && dnf clean all
RUN echo "daemon off;" >> /etc/nginx/nginx.conf
RUN echo "nginx on Fedora" > /usr/share/nginx/html/index.html

EXPOSE 80

CMD [ "/usr/sbin/nginx" ]

$ docker build -t images/fedora_nginx:v1.0 .

7 Fedora-Dockerfile
https://github.com/fedora-cloud/Fedora-Dockerfiles
Fedora 24 ได้เตรียม Dockerfile ให้เพื่อที่ใช้เป็นต้นแบบ ศึกษาเรียนรู้

git clone https://github.com/fedora-cloud/Fedora-Dockerfiles.git

8 สร้าง account บน hub.docker.com
1. ไปยัง https://hub.docker.com เพื่อสร้าง account
2. หลังจาก สร้าง docker id แล้วก็ให้ login ผ่านทาง cli

$ docker login
Username: <yourusername>
Password: <yourpassword>
Login Succeeded

3. เวลาตั้งชื่อ image จะต้องตั้ง เป็น -t “username/imagename:tag”

$ docker build -t itbakery/fedora_nginx:v1.0 .
$ docker images
REPOSITORY              TAG                 IMAGE ID            CREATED             SIZE
itbakery/fedora_nginx   v1.0                9fd5bfc2dcdd        13 seconds ago      514.1 MB

การ tag image
tagger

$ docker tag  9fd5bfc2dcdd itbakery/fedora_nginx:latest
$ docker images
REPOSITORY              TAG                 IMAGE ID            CREATED             SIZE
itbakery/fedora_nginx   latest              9fd5bfc2dcdd        3 minutes ago       514.1 MB
itbakery/fedora_nginx   v1.0                9fd5bfc2dcdd        3 minutes ago       514.1 MB

$ docker push itbakery/fedora_nginx:latest
The push refers to a repository [docker.io/itbakery/fedora_nginx]
b3b740c1dd04: Pushed 
dfdcde44621d: Pushed 
d8c75cbdacd2: Pushed 
410b4a224342: Pushed 
6c992a0e818a: Mounted from library/fedora 
latest: digest: sha256:65534e204f76ad363b8809d5c8fb7a9b39bf9b47d0c386709601f5394707f551 size: 1368

จะพบว่าทั้งสอง image จะมี image id เดียวกัน และ upload ไปยัง repository ด้วยคำสั่ง docker push

fedora_container2
4. ค้นหา image ที่ต้องการจาก repositoty

$ docker search centos
NAME                          DESCRIPTION                                     STARS     OFFICIAL   AUTOMATED
centos                        The official build of CentOS.                   2535      [OK] 
...
$ docker pull centos
Using default tag: latest
latest: Pulling from library/centos
3d8673bd162a: Pull complete 
Digest: sha256:a66ffcb73930584413de83311ca11a4cb4938c9b2521d331026dad970c19adf4
Status: Downloaded newer image for centos:latest

8 พื้นฐานการสร้าง wordpress + mariadb
อ้างอิงจาก
https://github.com/fedora-cloud/Fedora-Dockerfiles/tree/master/wordpress

# ให้ทำการ clone มาเก็บไว้ใน project directory DockerLab ที่สร้างไว้
cd ~/DockerLab
git clone https://github.com/fedora-cloud/Fedora-Dockerfiles.git
ls Fedora-Dockerfiles

# copy source 
cp -avR Fedora-Dockerfiles/mariadb  .
cp -avR Fedora-Dockerfiles/wordpress  .

ให้ build image ของ mariadb, wordpress

cd mariadb
#docker build --rm -t <yourname>/mariadb .
docker build --rm -t itbakery/mariadb .

cd wordpress
#docker build --rm -t <yourname>/wordpress .
docker build --rm -t itbakery/wordpress .


# ต่อมาให้ run mariadb container
$ docker run --name=mydb -e USER=wordpress -e PASS=$(pwgen -s -1) -e NAME=wordpress -d itbakery/mariadb

# run wordpress container ให้ alias 'db' เชื่อมกับ 'mydb' ของ mariadb
CID=$(docker run -p 80 --link=mydb:db -d itbakery/wordpress)

# กำหนด external port เป็น 80
docker port $CID 80 

9 พื้นฐานการใช้งาน volume เพื่อให้ Dataคงอยู่ไม่หายไปหลังจากลบ container
เพื่อต้องการแยก data volume ของ mariadb และ wordpress content ที่อยู่ที่ wordpress_content (media, themes, plugins) เป็นต้น

$ docker run -e USER=wordpress -e PASS=$(pwgen -s -1) -e NAME=wordpress \
    -v /mnt/db:/var/lib/mysql -d itbakery/mariadb

$ docker run --link=the-mariadb-container:db -p 80 \
    -v /mnt/wp-content:/var/www/html/wp-content -d itbakery/wordpress