Instalação
Essa seção lista as diferentes formas de instalar e executar o Kubernetes. Quando você realiza a instalação de um cluster Kubernetes, deve decidir o tipo de instalação baseado em critérios como facilidade de manutenção, segurança, controle, quantidade de recursos disponíveis e a experiência necessária para gerenciar e operar o cluster.
Você pode criar um cluster Kubernetes em uma máquina local, na nuvem, em um datacenter on-premises ou ainda escolher uma oferta de um cluster Kubernetes gerenciado pelo seu provedor de computação em nuvem.
Existem ainda diversos outros tipos de soluções customizadas, que você pode se deparar ao buscar formas de instalação e gerenciamento de seu cluster.
Ambientes de aprendizado
Se você está aprendendo ou pretende aprender mais sobre o Kubernetes, use ferramentas suportadas pela comunidade, ou ferramentas no ecossistema que te permitam criar um cluster Kubernetes em sua máquina virtual.
Temos como exemplo aqui o Minikube e o KinD
Ambientes de produção
Ao analisar uma solução para um ambiente de produção, devem ser considerados quais aspectos de operação de um cluster Kubernetes você deseja gerenciar, ou então delegar ao seu provedor.
Temos diversas opções para esse provisionamento, desde o uso de uma ferramenta de deployment de um cluster tal qual o Kubeadm ou o Kubespray quando se trata de um cluster local, ou ainda o uso de um cluster gerenciado por seu provedor de nuvem.
Para a escolha do melhor ambiente e da melhor forma para fazer essa instalação, você deve considerar:
- Se você deseja se preocupar com a gestão de backup da sua estrutura do ambiente de gerenciamento
- Se você deseja ter um cluster mais atualizado, com novas funcionalidades, ou se deseja seguir a versão suportada pelo fornecedor
- Se você deseja ter um cluster com um alto nível de serviço, ou com auto provisionamento de alta disponibilidade
- Quanto você deseja pagar por essa produção
1 - Instalando a ferramenta kubeadm
Essa página mostra o processo de instalação do conjunto de ferramentas kubeadm
.
Para mais informações sobre como criar um cluster com o kubeadm após efetuar a instalação, veja a página Utilizando kubeadm para criar um cluster.
Antes de você começar
- Uma máquina com sistema operacional Linux compatível. O projeto Kubernetes provê instruções para distribuições Linux baseadas em Debian e Red Hat, bem como para distribuições sem um gerenciador de pacotes.
- 2 GB ou mais de RAM por máquina (menos que isso deixará pouca memória para as suas aplicações).
- 2 CPUs ou mais.
- Conexão de rede entre todas as máquinas no cluster. Seja essa pública ou privada.
- Nome da máquina na rede, endereço MAC e producy_uuid únicos para cada nó. Mais detalhes podem ser lidos aqui.
- Portas específicas abertas nas suas máquinas. Você poderá ler quais são aqui.
- Swap desabilitado. Você precisa desabilitar a funcionalidade de swap para que o kubelet funcione de forma correta.
Verificando se o endereço MAC e o product_uiid são únicos para cada nó
- Você pode verificar o endereço MAC da interface de rede utilizando o comando
ip link
ou o comando ipconfig -a
.
- O product_uuid pode ser verificado utilizando o comando
sudo cat /sys/class/dmi/id/product_uuid
.
É provável que dispositivos físicos possuam endereços únicos. No entanto, é possível que algumas máquinas virtuais possuam endereços iguais. O Kubernetes utiliza esses valores para identificar unicamente os nós em um cluster. Se esses valores não forem únicos para cada nó, o processo de instalação pode falhar.
Verificando os adaptadores de rede
Se você possuir mais de um adaptador de rede, e seus componentes Kubernetes não forem acessíveis através da rota padrão, recomendamos adicionar o IP das rotas para que os endereços do cluster Kubernetes passem pelo adaptador correto.
Assegure-se de que o módulo br_netfilter
está carregado. Isso pode ser feito executando o comando lsmod | grep br_netfilter
. Para carrega-lo explicitamente execute sudo modprobe br_netfilter
.
Como um requisito para que seus nós Linux enxerguem corretamente o tráfego agregado de rede, você deve garantir que a configuração net.bridge.bridge-nf-call-iptables
do seu sysctl
está configurada com valor 1. Como no exemplo abaixo:
cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOF
cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sudo sysctl --system
Para mais detalhes veja a página Requisitos do plugin de rede.
Verificando as portas necessárias
As portas listadas aqui precisam estar abertas para que os componentes do Kubernetes se comuniquem uns com os outros.
O plugin de rede dos pods que você utiliza também pode requer que algumas portas estejam abertas. Dito que essas portas podem diferir dependendo do plugin, por favor leia a documentação dos plugins sobre quais portas serão necessárias abrir.
Instalando o agente de execução de contêineres
Para executar os contêineres nos Pods, o Kubernetes utiliza um
agente de execução.
Por padrão, o Kubernetes utiliza a interface do agente de execução (CRI) para interagir com o seu agente de execução de contêiner escolhido.
Se você não especificar nenhum agente de execução, o kubeadm irá tentar identifica-lo automaticamente através de uma lista dos sockets Unix mais utilizados. A tabela a seguir lista os agentes de execução e os caminhos dos sockets a eles associados.
Agentes de execução e seus caminhos de socket
Agente de execução |
Caminho do socket Unix |
Docker |
/var/run/dockershim.sock |
containerd |
/run/containerd/containerd.sock |
CRI-O |
/var/run/crio/crio.sock |
Se tanto o Docker quanto o containerd forem detectados no sistema, o Docker terá precedência. Isso acontece porque o Docker, desde a versão 18.09, já incluí o containerd e ambos são detectaveis mesmo que você só tenha instalado o Docker. Se outros dois ou mais agentes de execução forem detectados, o kubeadm é encerrado com um erro.
O kubelet se integra com o Docker através da implementação CRI dockershim
já inclusa.
Veja a página dos agentes de execução
para mais detalhes.
Por padrão, o kubeadm utiliza o Docker como agente de execução.
O kubelet se integra com o Docker através da implementação CRI dockershim
já inclusa.
Veja a página dos agentes de execução
para mais detalhes.
Instalando o kubeadm, kubelet e o kubectl
Você instalará esses pacotes em todas as suas máquinas:
-
kubeadm
: o comando para criar o cluster.
-
kubelet
: o componente que executa em todas as máquinas no seu cluster e cuida de tarefas como a inicialização de pods e contêineres.
-
kubectl
: a ferramenta de linha de comando para interação com o cluster.
O kubeadm não irá instalar ou gerenciar o kubelet
ou o kubectl
para você, então você
precisará garantir que as versões deles são as mesmas da versão da camada de gerenciamento do Kubernetes
que você quer que o kubeadm instale. Caso isso não seja feito, surge o risco de que uma diferença nas versões
leve a bugs e comportamentos inesperados. Dito isso, uma diferença de menor grandeza nas versões entre o kubelet e a
camada de gerenciamento é suportada, mas a versão do kubelet nunca poderá ser superior à versão do servidor da API.
Por exemplo, um kubelet com a versão 1.7.0 será totalmente compatível com a versão 1.8.0 do servidor da API, mas o contrário não será verdadeiro.
Para mais informações acerca da instalação do kubectl
, veja Instale e configure o kubectl.
Para mais detalhes sobre compatibilidade entre as versões, veja:
-
Atualize o índice de pacotes apt
e instale os pacotes necessários para utilizar o repositório apt
do Kubernetes:
sudo apt-get update
sudo apt-get install -y apt-transport-https ca-certificates curl
-
Faça o download da chave de assinatura pública da Google Cloud:
sudo curl -fsSLo /usr/share/keyrings/kubernetes-archive-keyring.gpg https://packages.cloud.google.com/apt/doc/apt-key.gpg
-
Adicione o repositório apt
do Kubernetes:
echo "deb [signed-by=/usr/share/keyrings/kubernetes-archive-keyring.gpg] https://apt.kubernetes.io/ kubernetes-xenial main" | sudo tee /etc/apt/sources.list.d/kubernetes.list
-
Atualize o índice de pacotes apt
, instale o kubelet, o kubeadm e o kubectl, e fixe suas versões:
sudo apt-get update
sudo apt-get install -y kubelet kubeadm kubectl
sudo apt-mark hold kubelet kubeadm kubectl
cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://packages.cloud.google.com/yum/repos/kubernetes-el7-\$basearch
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
exclude=kubelet kubeadm kubectl
EOF
# Set SELinux in permissive mode (effectively disabling it)
sudo setenforce 0
sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
sudo yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes
sudo systemctl enable --now kubelet
Avisos:
-
Colocar o SELinux em modo permissivo ao executar setenforce 0
e sed ...
efetivamente o desabilita.
Isso é necessário para permitir que os contêineres acessem o sistema de arquivos do hospedeiro, que é utilizado pelas redes dos pods por exemplo.
Você precisará disso até que o suporte ao SELinux seja melhorado no kubelet.
-
Você pode deixar o SELinux habilitado se você souber como configura-lo, mas isso pode exegir configurações que não são suportadas pelo kubeadm.
Instale os plugins CNI (utilizados por grande parte das redes de pods):
CNI_VERSION="v0.8.2"
ARCH="amd64"
sudo mkdir -p /opt/cni/bin
curl -L "https://github.com/containernetworking/plugins/releases/download/${CNI_VERSION}/cni-plugins-linux-${ARCH}-${CNI_VERSION}.tgz" | sudo tar -C /opt/cni/bin -xz
Escolha o diretório para baixar os arquivos de comandos.
Nota: A variável DOWNLOAD_DIR
precisa estar configurada para um diretório que permita escrita.
Se você estiver utilizando o Flatcar Container Linux, configure a váriavel de ambiente DOWNLOAD_DIR=/opt/bin
.
DOWNLOAD_DIR=/usr/local/bin
sudo mkdir -p $DOWNLOAD_DIR
Instale o crictl (utilizado pelo kubeadm e pela Interface do Agente de execução do Kubelet (CRI))
CRICTL_VERSION="v1.22.0"
ARCH="amd64"
curl -L "https://github.com/kubernetes-sigs/cri-tools/releases/download/${CRICTL_VERSION}/crictl-${CRICTL_VERSION}-linux-${ARCH}.tar.gz" | sudo tar -C $DOWNLOAD_DIR -xz
Instale o kubeadm
, o kubelet
, e o kubectl
e adicione o serviço systemd kubelet
:
RELEASE="$(curl -sSL https://dl.k8s.io/release/stable.txt)"
ARCH="amd64"
cd $DOWNLOAD_DIR
sudo curl -L --remote-name-all https://dl.k8s.io/release/${RELEASE}/bin/linux/${ARCH}/{kubeadm,kubelet,kubectl}
sudo chmod +x {kubeadm,kubelet,kubectl}
RELEASE_VERSION="v0.4.0"
curl -sSL "https://raw.githubusercontent.com/kubernetes/release/${RELEASE_VERSION}/cmd/kubepkg/templates/latest/deb/kubelet/lib/systemd/system/kubelet.service" | sed "s:/usr/bin:${DOWNLOAD_DIR}:g" | sudo tee /etc/systemd/system/kubelet.service
sudo mkdir -p /etc/systemd/system/kubelet.service.d
curl -sSL "https://raw.githubusercontent.com/kubernetes/release/${RELEASE_VERSION}/cmd/kubepkg/templates/latest/deb/kubeadm/10-kubeadm.conf" | sed "s:/usr/bin:${DOWNLOAD_DIR}:g" | sudo tee /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
Habilite e inicie o kubelet
:
systemctl enable --now kubelet
Nota: A distribuição Flatcar Container Linux instala o diretório
/usr
como um sistema de arquivos apenas para leitura.
Antes de inicializar o seu cluster, você precisa de alguns passos adicionais para configurar um diretório com escrita.
Veja o
Guia de solução de problemas do Kubeadm para aprender como configurar um diretório com escrita.
O kubelet agora ficará reiniciando de alguns em alguns segundos, enquanto espera por instruções vindas do kubeadm.
Configurando um driver cgroup
Tanto o agente de execução quanto o kubelet possuem uma propriedade chamada
"driver cgroup", que é importante
para o gerenciamento dos cgroups em máquinas Linux.
Aviso: A compatibilidade entre os drivers cgroup e o agente de execução é necessária. Sem ela o processo do kubelet irá falhar.
Veja configurando um driver cgroup para mais detalhes.
Solucionando problemas
Se você encontrar problemas com o kubeadm, por favor consulte a nossa documentação de solução de problemas.
Próximos passos
2 - Instalando Kubernetes com kOps
Este início rápido mostra como instalar facilmente um cluster Kubernetes na AWS usando uma ferramenta chamada kOps
.
kOps
é um sistema de provisionamento automatizado:
Antes de você começar
Como criar um cluster
(1/5) Instalar kops
Instalação
Faça o download do kops na página de downloads (também é conveniente gerar um binário a partir do código-fonte):
Baixe a versão mais recente com o comando:
curl -LO https://github.com/kubernetes/kops/releases/download/$(curl -s https://api.github.com/repos/kubernetes/kops/releases/latest | grep tag_name | cut -d '"' -f 4)/kops-darwin-amd64
Para baixar uma versão específica, substitua a seguinte parte do comando pela versão específica do kops.
$(curl -s https://api.github.com/repos/kubernetes/kops/releases/latest | grep tag_name | cut -d '"' -f 4)
Por exemplo, para baixar kops versão v1.20.0 digite:
curl -LO https://github.com/kubernetes/kops/releases/download/v1.20.0/kops-darwin-amd64
Dê a permissão de execução ao binário do kops.
chmod +x kops-darwin-amd64
Mova o binário do kops para o seu PATH.
sudo mv kops-darwin-amd64 /usr/local/bin/kops
Você também pode instalar kops usando Homebrew.
brew update && brew install kops
Baixe a versão mais recente com o comando:
curl -LO https://github.com/kubernetes/kops/releases/download/$(curl -s https://api.github.com/repos/kubernetes/kops/releases/latest | grep tag_name | cut -d '"' -f 4)/kops-linux-amd64
Para baixar uma versão específica do kops, substitua a seguinte parte do comando pela versão específica do kops.
$(curl -s https://api.github.com/repos/kubernetes/kops/releases/latest | grep tag_name | cut -d '"' -f 4)
Por exemplo, para baixar kops versão v1.20.0 digite:
curl -LO https://github.com/kubernetes/kops/releases/download/v1.20.0/kops-linux-amd64
Dê a permissão de execução ao binário do kops
chmod +x kops-linux-amd64
Mova o binário do kops para o seu PATH.
sudo mv kops-linux-amd64 /usr/local/bin/kops
Você também pode instalar kops usando Homebrew.
brew update && brew install kops
(2/5) Crie um domínio route53 para seu cluster
O kops usa DNS para descoberta, tanto dentro do cluster quanto fora, para que você possa acessar o servidor da API do kubernetes a partir dos clientes.
kops tem uma opinião forte sobre o nome do cluster: deve ser um nome DNS válido. Ao fazer isso, você não confundirá mais seus clusters, poderá compartilhar clusters com seus colegas de forma inequívoca e alcançá-los sem ter de lembrar de um endereço IP.
Você pode e provavelmente deve usar subdomínios para dividir seus clusters. Como nosso exemplo usaremos
useast1.dev.example.com
. O endpoint do servidor de API será então api.useast1.dev.example.com
.
Uma zona hospedada do Route53 pode servir subdomínios. Sua zona hospedada pode ser useast1.dev.example.com
,
mas também dev.example.com
ou até example.com
. kops funciona com qualquer um deles, então normalmente você escolhe por motivos de organização (por exemplo, você tem permissão para criar registros em dev.example.com
,
mas não em example.com
).
Vamos supor que você esteja usando dev.example.com
como sua zona hospedada. Você cria essa zona hospedada usando o processo normal, ou
com um comando como aws route53 create-hosted-zone --name dev.example.com --caller-reference 1
.
Você deve então configurar seus registros NS no domínio principal, para que os registros no domínio sejam resolvidos. Aqui, você criaria registros NS no example.com
para dev
. Se for um nome de domínio raiz, você configuraria os registros NS em seu registrador de domínio (por exemplo example.com
, precisaria ser configurado onde você comprou example.com
).
Verifique a configuração do seu domínio route53 (é a causa número 1 de problemas!). Você pode verificar novamente se seu cluster está configurado corretamente se tiver a ferramenta dig executando:
dig NS dev.example.com
Você deve ver os 4 registros NS que o Route53 atribuiu à sua zona hospedada.
(3/5) Crie um bucket do S3 para armazenar o estado dos clusters
O kops permite que você gerencie seus clusters mesmo após a instalação. Para fazer isso, ele deve acompanhar os clusters que você criou, juntamente com suas configurações, as chaves que estão usando etc. Essas informações são armazenadas em um bucket do S3. As permissões do S3 são usadas para controlar o acesso ao bucket.
Vários clusters podem usar o mesmo bucket do S3 e você pode compartilhar um bucket do S3 entre seus colegas que administram os mesmos clusters - isso é muito mais fácil do que transmitir arquivos kubecfg. Mas qualquer pessoa com acesso ao bucket do S3 terá acesso administrativo a todos os seus clusters, portanto, você não deseja compartilhá-lo além da equipe de operações.
Portanto, normalmente você tem um bucket do S3 para cada equipe de operações (e geralmente o nome corresponderá ao nome da zona hospedada acima!)
Em nosso exemplo, escolhemos dev.example.com
como nossa zona hospedada, então vamos escolher clusters.dev.example.com
como o nome do bucket do S3.
-
Exporte AWS_PROFILE
(se precisar selecione um perfil para que a AWS CLI funcione)
-
Crie o bucket do S3 usando aws s3 mb s3://clusters.dev.example.com
-
Você pode rodar export KOPS_STATE_STORE=s3://clusters.dev.example.com
e, em seguida, o kops usará esse local por padrão. Sugerimos colocar isso em seu perfil bash ou similar.
(4/5) Crie sua configuração de cluster
Execute kops create cluster
para criar sua configuração de cluster:
kops create cluster --zones=us-east-1c useast1.dev.example.com
kops criará a configuração para seu cluster. Observe que ele apenas cria a configuração, na verdade não cria os recursos de nuvem - você fará isso na próxima etapa com um arquivo kops update cluster
. Isso lhe dá a oportunidade de revisar a configuração ou alterá-la.
Ele exibe comandos que você pode usar para explorar mais:
- Liste seus clusters com:
kops get cluster
- Edite este cluster com:
kops edit cluster useast1.dev.example.com
- Edite seu grupo de instâncias de nós:
kops edit ig --name=useast1.dev.example.com nodes
- Edite seu grupo de instâncias principal:
kops edit ig --name=useast1.dev.example.com master-us-east-1c
Se esta é sua primeira vez usando kops, gaste alguns minutos para experimentá-los! Um grupo de instâncias é um conjunto de instâncias que serão registradas como nós do kubernetes. Na AWS, isso é implementado por meio de grupos de auto-scaling.
Você pode ter vários grupos de instâncias, por exemplo, se quiser nós que sejam uma combinação de instâncias spot e sob demanda ou instâncias de GPU e não GPU.
(5/5) Crie o cluster na AWS
Execute kops update cluster
para criar seu cluster na AWS:
kops update cluster useast1.dev.example.com --yes
Isso leva alguns segundos para ser executado, mas seu cluster provavelmente levará alguns minutos para estar realmente pronto.
kops update cluster
será a ferramenta que você usará sempre que alterar a configuração do seu cluster; ele aplica as alterações que você fez na configuração ao seu cluster - reconfigurando AWS ou kubernetes conforme necessário.
Por exemplo, depois de você executar kops edit ig nodes
, em seguida execute kops update cluster --yes
para aplicar sua configuração e, às vezes, você também precisará kops rolling-update cluster
para implementar a configuração imediatamente.
Sem --yes
, kops update cluster
mostrará uma prévia do que ele fará. Isso é útil para clusters de produção!
Explore outros complementos
Consulte a lista de complementos para explorar outros complementos, incluindo ferramentas para registro, monitoramento, política de rede, visualização e controle de seu cluster Kubernetes.
Limpeza
- Para excluir seu cluster:
kops delete cluster useast1.dev.example.com --yes
Próximos passos
3 - Soluções de Nuvem Prontas para uso
Essa página fornece uma lista de provedores de soluções certificadas do Kubernetes. Na página de cada provedor, você pode aprender como instalar e configurar clusters prontos para produção.