Note

The Funtoo Linux project has transitioned to "Hobby Mode" and this wiki is now read-only.

Difference between revisions of "OpenVZ/pt-br"

From Funtoo
Jump to navigation Jump to search
m (Drobbins moved page Pt-br/OpenVZ to OpenVZ/pt-br)
 
(12 intermediate revisions by 2 users not shown)
Line 6: Line 6:
Funtoo possui suporte ao OpenVZ das seguintes maneiras:
Funtoo possui suporte ao OpenVZ das seguintes maneiras:


* Construção dos templates do OpenVZ utilizando o [[Metro]], nossa ferramenta de construção da distribuição.
* Construção dos templates do OpenVZ utilizando o [[Pt-br/Metro|Metro]], nossa ferramenta de construção da distribuição.
* Melhoria do <tt>vzctl</tt>, ao desenvolver uma versão melhorada/patched hospedada em [http://www.github.com/funtoo/vzctl GitHub].
* Melhoria do <tt>vzctl</tt>, ao desenvolver uma versão melhorada/patched hospedada em [http://www.github.com/funtoo/vzctl GitHub].
* Integração de suporte [[Funtoo Linux Networking]]  ao vzctl (esses patches tem sido aceitos pelo projeto OpenVZ.)
* Integração de suporte [[Pt-br/Funtoo_Linux_Networking|Funtoo Linux Networking]]  ao vzctl (esses patches tem sido aceitos pelo projeto OpenVZ.)
* Melhoria dos scripts de startup vzctl para fazer coisas como inicializar corretamente o veth e o vzeventd.
* Melhoria dos scripts de startup vzctl para fazer coisas como inicializar corretamente o veth e o vzeventd.
* Integrar patches adicionais nos ebuilds do openvz-rhel6-stable e do openvz-rhel5-stable para assegurar funcionalidade em qualidade de produção (production-quality) do OpenVZ.
* Integrar patches adicionais nos ebuilds do openvz-rhel6-stable e do openvz-rhel5-stable para assegurar funcionalidade em qualidade de produção (production-quality) do OpenVZ.
Line 26: Line 26:


Você precisará emergir <tt>vzctl</tt>, que são as ferramentas userspace do OpenVZ.
Você precisará emergir <tt>vzctl</tt>, que são as ferramentas userspace do OpenVZ.
== Configuration ==
== Configuração ==


After booting into an OpenVZ-enabled kernel, OpenVZ can be enabled as follows:
Depois de inicializar (booting) em um kernel OpenVZ-enabled, o OpenVZ pode ser habilitado como a seguir:


<console>
<console>
Line 35: Line 35:
# ##i##rc
# ##i##rc
</console>
</console>
== Funtoo Linux OpenVZ Templates ==


The Funtoo Linux stage directory also contains Funtoo Linux OpenVZ templates in the openvz/ directory. These can be used as follows:
== Templates OpenVZ Funtoo Linux ==
 
O diretório stage do Funtoo Linux também contem os templates OpenVZ Funtoo Linux  no diretório openvz/. Esse podem ser utilizados como a seguir:


<console>
<console>
Line 48: Line 49:
</console>
</console>


If you are not using Funtoo Linux, you may need to convert the .xz template to a .gz template for this to work.
Se você não estiver utilizando o Funtoo Linux, você poderá precisar converter o template de  .xz para um template .gz para isso funcione.
== Resource Limits ==
 
== Limites de Recursos ==


If you do not need to have any resource limits in place for the VE, then on a Funtoo Linux host, they can be enabled as follows:
Se você não precisa ter quaisquer limites de recurso para o VE, então em um Funtoo Linux host, ele podem ser habilitados como a seguir:


<console>
<console>
ninja1 ~ # ##i##vzctl set 100 --applyconfig unlimited --save
ninja1 ~ # ##i##vzctl set 100 --applyconfig unlimited --save
</console>
</console>
== Starting the Container ==


Here's how to start the container:
== Iniciar o Container ==
 
Aqui está como iniciar o container:


<console>
<console>
Line 68: Line 71:
ninja1 ~ #  
ninja1 ~ #  
</console>
</console>
== Networking ==
== Networking ==


=== veth networking ===
=== veth networking ===


OpenVZ has two types of networking. The first is called "veth", which provides the VE with a virtual ethernet interface. This allows the VE to do things like broadcasting and multicasting, which means that DHCP can be used. The best way to set up veth networking is to use a bridge on the physical host machine. For the purposes of this example, we'll assume your server has a wired eth0 interface that provides Internet connectivity - it does not need to have an IP address. To configure a bridge, we will create a network interface called "br0", a bridge device, and assign your static ip to br0 rather than eth0. Then, we will configure eth0 to come up, but without an IP, and add it as a "slave" of bridge br0. Once br0 is configured, we can add other network interfaces (each configured to use a unique static IP address) as slaves of bridge br0, and these devices will be able to communicate out over your Ethernet link.
O OpenVZ possui dois tipos de rede. O primeiro é chamado de "veth", que fornece o VE como uma interface ethrernet virtual. Isso permite o VE fazer coisas como broadcasting e multicasting, que significa que o DHCP pode utilizado. A melhor maneira de configurar a veth networking é utilizar uma bridge na máquina hospede física. Para os propósitos desse exemplo, assumiremos que seu servidor possui uma interface eth0 cabeada que fornece conectividade com a internet - ele não precisa possuir um endereço IP. Para configurar uma bridge, criaremos uma interface de rede chamada "br0", um dispositivo bridge, e atribuir seu ip estático ao br0 ao invés do eth0. depois, configuraremos eth0 para subir, mas sem um IP, e adicioná-lo como um "escravo da (slave)" de bridge br0. Uma vez que o br0 estiver configurado, podemos adicionar outras interfaces de rede (cara qual configurada para utilizar um endereço de IP estático único) como slaves da bridge br0, e esses dispositivos serão capazes de se comunicar em seu link Ethernet.


Let's see how this works.
Vamos verificar como isso funciona.


==== Network - Before ====
==== Rede - Antes ====


Before the bridge is configured, we probably have an <tt>/etc/conf.d/netif.eth0</tt> that looks like this:
Antes da bridge ser configurada, provavelmente possuímos uma <tt>/etc/conf.d/netif.eth0</tt> que parece com isso:


<pre>
<pre>
Line 88: Line 92:
</pre>
</pre>


==== Network - After ====
==== Rede - Depois ====


To get the bridge-based network configured, first connect to a physical terminal or management console, as eth0 will be going down
Para configurar a rede bridge-based, primeiro conecte-a a um terminal físico ou console de gerenciamento, ja que eth0 será derrubada por um pouco de tempo enquanto fazemos essas mudanças.
for a bit as we make these changes.


We are now going to set up a bridge with eth0's IP address, and add eth0 to the bridge with no IP. Then we can throw container interfaces into the bridge and then can all communicate out using eth0.
Agora vamos configurar uma bridge como endereços de IP eth0, e adicionar eth0 à bridge sem IP. Depois podemos lançar a interface container para dentro da bridge e então podem todos se comunicar utilizar a eth0.


We will <tt>mv netif.eth0 netif.br0</tt>, and then edit the file so it looks like this (first line modified, new line added at end):
Vamnos <tt>mv netif.eth0 netif.br0</tt>, e depois editar o arquivo então ele se parece como (primeira linha modificada, nova linha adicionada no final):


<pre>
<pre>
Line 106: Line 109:
</pre>
</pre>


If you want to bridge the wlan0 device, you'll need the additional wpa_supplicant flag '''''-b br0''.'''
Se quiser criar uma bridge ao dispositivo wlan0, você precisará a flga wpa_supplicant adicional '''''-b br0''.'''
In most cases for wlan0 it is much better to use a route:
Em muitos casos para wlan0 é muito melhor utilizar uma rota (route):
<console>
<console>
# ##i##iptables -t nat -A POSTROUTING -s 192.168.1.0/24 -o wlan0 -j SNAT your_host_ip_address
# ##i##iptables -t nat -A POSTROUTING -s 192.168.1.0/24 -o wlan0 -j SNAT your_host_ip_address
</console>  
</console>  


Now, time to create a new <tt>/etc/conf.d/netif.eth0</tt>, but this time we won't associate an IP address with it. Config file looks like this, a single line:
Agora, hora de criar uma nova <tt>/etc/conf.d/netif.eth0</tt>, mas desta vez não vamos associar um endereço de IP com ele. Arquivo Config parece-se com isso, uma única linha:


<pre>
<pre>
Line 118: Line 121:
</pre>
</pre>


Now, we need to create a necessary symlink in /etc/init.d and get our bridge added to the default runlevel:
Agora, precisamos criar um symlink necessário em /etc/init.d e adicionar nossa bridge ao runlevel padrão:


<console>
<console>
Line 126: Line 129:
</console>
</console>


Now, let's enable our new network interfaces:
Agora, vamos habilitar nossas novas interfaces de rede:


<console>
<console>
Line 133: Line 136:
</console>
</console>


The result of these changes is that you now have initscripts to create a "br0" interface (with static IP), with "eth0" as its slave (with no IP). Networking should still work as before, but now you are ready to provide bridged connectivity to your virtual containers since you can add their "veth" interfaces to "br0" and they will be bridged to your existing network.
O resultado dessa alterações é que você agora possui initscripts para criar uma interface "br0" (com IP estático), com "eth0" como seu slave (sem IP). Networking deve ainda funcionar como antes, mas agora você está pronto para fornecer conectividade bridged para os seus containers virtuais desde você pode adicionar suas interfaces "veth" ao "br0" e elas serão bridge para a sua rede existente.


==== Using The Bridge ====
==== Utilizando a Bridge ====


To add a veth "eth0" interface to your VE, type the following:
Para adicionar uma interface veth "eth0" ao seu VE, digite o seguinte:


<console>
<console>
Line 145: Line 148:
</console>
</console>


Once the VE is started, the network interface inside the VE will be called "eth0", and the network interface on the host system will be named "veth100.0". Because we specified "br0" after the 4 commas, vzctl will automatically add our new "veth100.0" interface to bridge br0 for us. We can see this by typing "brctl show" after we have started the VE by typing "vzctl start 100".
Uma vez que o VE for iniciado, a interface de rede dentro de VE será chamada de "eth0", e a interface de rede no sistema host será nomeado "veth100.0". Por que especificamos "br0" depois de 4 virgulas, vzctl automaticamente adicionará nossas novas interfaces "veth100.0" à bridge br0 para nós. Podemos ver isso ao digitar "brctl show" depois que tivermos iniciado o VE ao digitar "vzctl start 100".


<console>
<console>
Line 160: Line 163:
=== venet networking ===
=== venet networking ===


"venet" is OpenVZ's other form of host networking. It can be easier to configure than veth, but does not allow the use of broadcast or multicast, so DHCP is not possible on the VE side. For this reason, an IP address must be statically assigned to the VE, as follows:
"venet" é a outra forma de host networking do OpenVZ. Ele pode ser mais fácil de configurar do que o veth, mas não permite o uso de broadcast ou multicast, então o DHCP não é possível no VE side. Por essa rasão, em endereço de IP deve ser estaticamente atribuído ao VE, como a seguir:


<console>
<console>
Line 168: Line 171:
</console>
</console>


With venet configuration, some additional steps are required in case of PPPoE Internet connection. We will use iptables to get network working in all VE's.
Com a configuração do venet, alguns passos adicionais são necessários em caso de conexão internet PPPoE. Utilizaremos iptables para colocar a inrede para funcionar em todas as VE's.


<console># ##i##echo 1 > /proc/sys/net/ipv4/ip_forward</console>
<console># ##i##echo 1 > /proc/sys/net/ipv4/ip_forward</console>


or, alternatively set it in /etc/sysctl.conf to have ip forward at boot
ou, alternativamente defina em /etc/sysctl.conf para obter forward ao boot


<console># ##i##echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf
<console># ##i##echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf
# ##i##sysctl -p</console>
# ##i##sysctl -p</console>


Add an iptables rule, save and start the firewall:
Adicione uma regra iptables, salve e inicie o firewall:
<console># ##i##iptables -t nat -A POSTROUTING -o ppp0 (or your desired interface) -j MASQUERADE
<console># ##i##iptables -t nat -A POSTROUTING -o ppp0 (or your desired interface) -j MASQUERADE
# ##i##/etc/init.d/iptables save
# ##i##/etc/init.d/iptables save
# ##i##rc-update add iptables default
# ##i##rc-update add iptables default
# ##i##rc</console>
# ##i##rc</console>
All VE's now have a network connection from HN.
Todas as VE's agora possuem conexão de rede a partir do HN.


When using venet, OpenVZ will handle the process of ensuring the VE has its network properly configured at boot. As of vzctl-3.0.24.2-r4 in Funtoo Linux, Funtoo Linux VEs should be properly auto-configured when using venet.
Quando utilizar o venet, OpenVZ cuidará do processo de certificar que o VE possui sua rede corretamente configurada ao boot. A partir da versão vzctl-3.0.24.2-r4 no Funtoo Linux, Funtoo Linux VEs deve ser corretamente auto-configurado quando utilizar o venet.


With venet, there is no need to add any interfaces to a bridge - OpenVZ treats venet interfaces as virtual point-to-point interfaces so that traffic is automatically routed properly from the VE to the host system, out the default route of the host system if necessary.
Com o venet, não há necessidade de adicionar quaisquer interfaces à uma bridge - OpenVZ trata as interfaces venet como interfaces point-to-point virtuais então assim o trafego é automáticamente roteado corretamente a partir do VE para o sistema host, fora da rota padrão do sistema host se necessário.


[[Category:Virtualization]]
[[Category:Virtualization]]
[[Category:pt_BR]]

Latest revision as of 16:55, July 12, 2015

Apresentação

OpenVZ (veja wiki.openvz.org) é uma solução de virtualização de servidor a nível do sistema operacional (OS-level server virtualization solution), construído no Linux. OpenVZ permite a criação de containers Linux virtuais isolados e seguros (chamados de "VE"s) em um único servidor físico. Cada container possui sua própria atualização local, power state, interfaces de rede, limites de recurso e porção limitada de filesystem hospede. OpenVZ é com frequência descrito como "chroot on steroids."

Funtoo possui suporte ao OpenVZ das seguintes maneiras:

  • Construção dos templates do OpenVZ utilizando o Metro, nossa ferramenta de construção da distribuição.
  • Melhoria do vzctl, ao desenvolver uma versão melhorada/patched hospedada em GitHub.
  • Integração de suporte Funtoo Linux Networking ao vzctl (esses patches tem sido aceitos pelo projeto OpenVZ.)
  • Melhoria dos scripts de startup vzctl para fazer coisas como inicializar corretamente o veth e o vzeventd.
  • Integrar patches adicionais nos ebuilds do openvz-rhel6-stable e do openvz-rhel5-stable para assegurar funcionalidade em qualidade de produção (production-quality) do OpenVZ.
  • Manter compatibilidade com os kernels de produção OpenVZ do RHEL5-based, tão bem quanto instruções em como obter instalação do Funtoo Linux para esses kernels em nosso RHEL5 Kernel HOWTO. (Note: kernel openvz-rhel6-kernel RHEL6-based é agora o recomendado para deploying OpenVZ.)

Em adição, Daniel está atualmente empregado na Zenoss e é o autor e mantenedor do Zenoss OpenVZ ZenPack (GitHub link)

Versões Recomendadas

Para instalação do OpenVZ no Funtoo Linux de modo que você pode criar containers Linux-based, uma versão x86-64bit do Funtoo Linux é fortemente recomendada. O ebuild openvz-rhel6-stable é o kernel recomendado a utilizar. Se você emergir esse kernel com a flag USE binary habilitado, ele construirá um kernel binário e initrd utilizando a configuração padrão Red Hat que dever inicializar quase todo o hardware. Depois de emergir, você precisara editar o /etc/boot.conf, executar o boot-update, e reiniciar no novo kernel OpenVZ.

   Warning

Por favor, utilize o ext4 exclusivamente quando implantar um OpenVZ host. A equipe de desenvolvimentos paralelos testa extensivamente com o ext4, e versões modernas do openvz-rhel6-stable nãosão compatíveis com o XFS, e você pode ter experiencias com kernel bugs.

Alternativamente, você poderia emergir openvz-rhel5-stable como a flag USE binary habilitada para utilizar o kernel OpenVZ RHEL5-based mais antigo. Isso querer passo adicionais que foram cobertos no RHEL5 Kernel HOWTO.

Você precisará emergir vzctl, que são as ferramentas userspace do OpenVZ.

Configuração

Depois de inicializar (booting) em um kernel OpenVZ-enabled, o OpenVZ pode ser habilitado como a seguir:

root # emerge vzctl
root # rc-update add vz default
root # rc

Templates OpenVZ Funtoo Linux

O diretório stage do Funtoo Linux também contem os templates OpenVZ Funtoo Linux no diretório openvz/. Esse podem ser utilizados como a seguir:

root # cd /vz/template/cache
root # wget http://ftp.osuosl.org/pub/funtoo/funtoo-current/openvz/x86-64bit/funtoo-openvz-core2_64-funtoo-current-2011-12-31.tar.xz
root # vzctl create 100 --ostemplate funtoo-openvz-core2_64-funtoo-current-2011-12-31
Creating container private area (funto-openvz-core2-2010.11.06)
Performing postcreate actions
Container private area was created

Se você não estiver utilizando o Funtoo Linux, você poderá precisar converter o template de .xz para um template .gz para isso funcione.

Limites de Recursos

Se você não precisa ter quaisquer limites de recurso para o VE, então em um Funtoo Linux host, ele podem ser habilitados como a seguir:

ninja1 ~ # vzctl set 100 --applyconfig unlimited --save

Iniciar o Container

Aqui está como iniciar o container:

ninja1 ~ # vzctl start 100
Starting container ...
Container is mounted
Setting CPU units: 1000
Container start in progress...
ninja1 ~ # 

Networking

veth networking

O OpenVZ possui dois tipos de rede. O primeiro é chamado de "veth", que fornece o VE como uma interface ethrernet virtual. Isso permite o VE fazer coisas como broadcasting e multicasting, que significa que o DHCP pode utilizado. A melhor maneira de configurar a veth networking é utilizar uma bridge na máquina hospede física. Para os propósitos desse exemplo, assumiremos que seu servidor possui uma interface eth0 cabeada que fornece conectividade com a internet - ele não precisa possuir um endereço IP. Para configurar uma bridge, criaremos uma interface de rede chamada "br0", um dispositivo bridge, e atribuir seu ip estático ao br0 ao invés do eth0. depois, configuraremos eth0 para subir, mas sem um IP, e adicioná-lo como um "escravo da (slave)" de bridge br0. Uma vez que o br0 estiver configurado, podemos adicionar outras interfaces de rede (cara qual configurada para utilizar um endereço de IP estático único) como slaves da bridge br0, e esses dispositivos serão capazes de se comunicar em seu link Ethernet.

Vamos verificar como isso funciona.

Rede - Antes

Antes da bridge ser configurada, provavelmente possuímos uma /etc/conf.d/netif.eth0 que parece com isso:

template="interface"
ipaddr="10.0.1.200/24"
gateway="10.0.1.1"
nameservers="10.0.1.1"
domain="funtoo.org"

Rede - Depois

Para configurar a rede bridge-based, primeiro conecte-a a um terminal físico ou console de gerenciamento, ja que eth0 será derrubada por um pouco de tempo enquanto fazemos essas mudanças.

Agora vamos configurar uma bridge como endereços de IP eth0, e adicionar eth0 à bridge sem IP. Depois podemos lançar a interface container para dentro da bridge e então podem todos se comunicar utilizar a eth0.

Vamnos mv netif.eth0 netif.br0, e depois editar o arquivo então ele se parece como (primeira linha modificada, nova linha adicionada no final):

template="bridge"
ipaddr="10.0.1.200/24"
gateway="10.0.1.1"
nameservers="10.0.1.1"
domain="funtoo.org"
slaves="netif.eth0"

Se quiser criar uma bridge ao dispositivo wlan0, você precisará a flga wpa_supplicant adicional -b br0. Em muitos casos para wlan0 é muito melhor utilizar uma rota (route):

root # iptables -t nat -A POSTROUTING -s 192.168.1.0/24 -o wlan0 -j SNAT your_host_ip_address

Agora, hora de criar uma nova /etc/conf.d/netif.eth0, mas desta vez não vamos associar um endereço de IP com ele. Arquivo Config parece-se com isso, uma única linha:

template="interface-noip"

Agora, precisamos criar um symlink necessário em /etc/init.d e adicionar nossa bridge ao runlevel padrão:

root # cd /etc/init.d
root # ln -s netif.tmpl netif.br0
root # rc-update add netif.br0 default

Agora, vamos habilitar nossas novas interfaces de rede:

root # /etc/init.d/netif.eth0 stop
root # rc

O resultado dessa alterações é que você agora possui initscripts para criar uma interface "br0" (com IP estático), com "eth0" como seu slave (sem IP). Networking deve ainda funcionar como antes, mas agora você está pronto para fornecer conectividade bridged para os seus containers virtuais desde você pode adicionar suas interfaces "veth" ao "br0" e elas serão bridge para a sua rede existente.

Utilizando a Bridge

Para adicionar uma interface veth "eth0" ao seu VE, digite o seguinte:

root # vzctl stop 100
root # vzctl set 100 --netif_add eth0,,,,br0 --save
root # vzctl start 100

Uma vez que o VE for iniciado, a interface de rede dentro de VE será chamada de "eth0", e a interface de rede no sistema host será nomeado "veth100.0". Por que especificamos "br0" depois de 4 virgulas, vzctl automaticamente adicionará nossas novas interfaces "veth100.0" à bridge br0 para nós. Podemos ver isso ao digitar "brctl show" depois que tivermos iniciado o VE ao digitar "vzctl start 100".

root # brctl show
bridge name     bridge id               STP enabled     interfaces
br0             8000.0026b92c72f5       no              eth0
                                                        veth100.0

VE Configuration

You will also need to manually configure the VE to acquire/use a valid IP address - DHCP or static assignment will both work; typically, this is done by starting the VE with "vzctl start 100" and then typing "vzctl enter 100", which will give you a root shell inside the VE. Then, once you have configured the network, you can ensure that the VE is accessible remotely via SSH. Note that once inside the VE (with "vzctl enter 100"), you configure the VE's network interface as you would on a regular Linux distribution - the VE will be bridged into your LAN, so it can talk to your DHCP server, and can use an IP address that it acquires via DHCP or it can use a static address.

venet networking

"venet" é a outra forma de host networking do OpenVZ. Ele pode ser mais fácil de configurar do que o veth, mas não permite o uso de broadcast ou multicast, então o DHCP não é possível no VE side. Por essa rasão, em endereço de IP deve ser estaticamente atribuído ao VE, como a seguir:

root # vzctl set 100 --ipadd 10.0.1.201 --save
root # vzctl set 100 --nameserver 8.8.4.4 --save #google public DNS server
root # vzctl set 100 --hostname foobar --save

Com a configuração do venet, alguns passos adicionais são necessários em caso de conexão internet PPPoE. Utilizaremos iptables para colocar a inrede para funcionar em todas as VE's.

root # echo 1 > /proc/sys/net/ipv4/ip_forward

ou, alternativamente defina em /etc/sysctl.conf para obter forward ao boot

root # echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf
root # sysctl -p

Adicione uma regra iptables, salve e inicie o firewall:

root # iptables -t nat -A POSTROUTING -o ppp0 (or your desired interface) -j MASQUERADE
root # /etc/init.d/iptables save
root # rc-update add iptables default
root # rc

Todas as VE's agora possuem conexão de rede a partir do HN.

Quando utilizar o venet, OpenVZ cuidará do processo de certificar que o VE possui sua rede corretamente configurada ao boot. A partir da versão vzctl-3.0.24.2-r4 no Funtoo Linux, Funtoo Linux VEs deve ser corretamente auto-configurado quando utilizar o venet.

Com o venet, não há necessidade de adicionar quaisquer interfaces à uma bridge - OpenVZ trata as interfaces venet como interfaces point-to-point virtuais então assim o trafego é automáticamente roteado corretamente a partir do VE para o sistema host, fora da rota padrão do sistema host se necessário.